WaltiSiegrist
Trying to find the truth in the jungle
Interested? Want to learn more about the community?
Ja, wir sind die Guten

JA, wir haben vor 20 Jahren den Irak angegriffen
JA, wir besetzen den Irak auch heute noch
JA, wir haben um ihr Leben rennende Zivilisten massakriert
JA, dem Mann, der es aufgedeckt hat, drohen wir mit 175 Jahren Haft

Aber in der Ukraine, DA sind wir die Guten. Bitte glaubt uns.

https://twitter.com/MrJonasDanner/status/1637912393442553856?s=20

00:00:27
Interested? Want to learn more about the community?
What else you may like

Videos
Posts
Articles
00:00:11
𝐇𝐎𝐋𝐘 𝟗/𝟏𝟏 𝐁𝐎𝐌𝐁𝐒𝐇𝐄𝐋𝐋

𝐇𝐎𝐋𝐘 𝟗/𝟏𝟏 𝐁𝐎𝐌𝐁𝐒𝐇𝐄𝐋𝐋🚹

Die hier prĂ€sentierten Informationen sind die vernichtendsten und beunruhigendsten, die ich je in Bezug auf den Angriff auf die ZwillingstĂŒrme gesehen habe

Es gibt KEINEN Zweifel daran, dass Israel eine Rolle in dem Angriff hatte, der den Nationalen Sicherheitsstaat einfĂŒhrte und uns in einen endlosen Krieg mit Millionen von Toten fĂŒhrte

𝐓𝐡𝐱𝐬 𝐧𝐞𝐞𝐝𝐬 𝐭𝐹 𝐛𝐞 đžđ±đ©đšđŹđžđ

Credit:
@RealAlexJones
@gregreese

https://x.com/CalenArcher/status/1785720661261832263

https://x.com/RealWsiegrist/status/1787833542992371829

Die oesterreichische KĂŒnstlergruppe Gelitin wurde mit Mossad-Agenten (E-Team) ergĂ€nzt, welche die Sprengung des World Trade Centers vorbereiteten.

https://x.com/RealWsiegrist/status/1726150700093116511

https://x.com/RealWsiegrist/status/1787835697778335942

9/11 Israeli Terror, die Evidenz
https://waltisiegrist.locals.com/post/3320133/9-11-israeli-terror-die-evidenz

00:06:12
Corona Militäroperation

Brigadier der Schweizer Armee musste zum Rapport mit der S H A E F

https://x.com/RealWsiegrist/status/1786695447861407999

00:00:13

Satanischer ritueller Missbrauch ist real. Schockierende Zeugenaussagen!

1/2
https://x.com/RealWsiegrist/status/1791531858347344018

2/2
https://x.com/RealWsiegrist/status/1791532526772670691

Traumabasierte Gedankenkontrolle und organisierter ritueller Missbrauch: Eine heilende Erkundung

Diese unglaubliche Podiumsdiskussion, moderiert von Dr. Tess Lawrie und Dr. Mark Trozzi, bietet wertvolle Perspektiven und fördert ein tieferes VerstĂ€ndnis des organisierten rituellen Missbrauchs (ORA). Zu den Diskussionsteilnehmern gehören Max Lowen, Cathy O'Brien, David Charalambous und Jason Christoff mit BeitrĂ€gen von Dr. Marcel Polte und Überlebenden von ORA.

Dieses Video ist auch zu finden auf: Rumble, Twitter, Facebook, Gettr, & LinkedIn.
https://worldcouncilforhealth.org/multimedia/organized-ritual-abus

https://x.com/RealWsiegrist/status/1791533161878323388

Geopolitik und PÀdokriminalitÀt
https://waltisiegrist.locals.com/upost/2698013/geopolitik-und-paedokriminalitaet

post photo preview
"Gestorben" Dezember 2020

„Wenn mir etwas zustoßen sollte, ist es ein Verbrechen.“ Merck-Whistleblowerin Brandy Vaughan, R.I.P.

https://x.com/RealWsiegrist/status/1790219243914486093

post photo preview
post photo preview
Warum spricht niemand mehr darüber?
Der geheimgehaltene Wärmefaktor für den Planeten: Silicon Valley

Von James Glanz, New York Times

https://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html

* 22. Sept. 2012

 

SANTA CLARA, Kalifornien - Jeff Rothschilds Maschinen bei Facebook hatten ein Problem, von dem er wusste, dass er es sofort lösen musste. Sie waren dabei zu schmelzen.

Das Unternehmen hatte hier einen 40 mal 60 Fuß großen Mietraum mit Racks von Computerservern vollgestopft, die zum Speichern und Verarbeiten von Informationen aus den Mitgliederkonten benötigt wurden. Der Strom, der in die Computer floss, ĂŒberhitzte die Ethernet-Buchsen und andere wichtige Komponenten.

Rothschild, der technische Leiter des Unternehmens, ging mit einigen Mitarbeitern auf Entdeckungsreise, um alle Ventilatoren zu kaufen, die sie finden konnten - "Wir haben alle Walgreens in der Gegend ausgerĂ€umt", sagte er -, um kĂŒhle Luft auf die GerĂ€te zu blasen und die Website vor dem Ausfall zu bewahren.

Das war Anfang 2006, als Facebook nur etwa 10 Millionen Nutzer und einen Hauptserver hatte. Heute erfordern die von fast einer Milliarde Menschen erzeugten Informationen ĂŒberdimensionale Versionen dieser Einrichtungen, die als Rechenzentren bezeichnet werden, mit Reihen von Servern, die sich ĂŒber Hunderttausende von Quadratmetern erstrecken, und alle mit industriellen KĂŒhlsystemen.

 

Sie sind nur ein Bruchteil der Zehntausenden von Rechenzentren, die jetzt existieren, um die gesamte Explosion digitaler Informationen zu unterstĂŒtzen. Jeden Tag werden gewaltige Datenmengen in Bewegung gesetzt, wenn Menschen mit einem harmlosen Klick oder Fingertipp Filme auf iTunes herunterladen, den Kontostand ihrer Kreditkarten auf der Visa-Website ĂŒberprĂŒfen, Yahoo-E-Mails mit angehĂ€ngten Dateien verschicken, Produkte auf Amazon kaufen, auf Twitter posten oder online Zeitungen lesen.

Eine einjÀhrige Untersuchung der New York Times hat gezeigt, dass diese Grundlage der Informationsindustrie in krassem Widerspruch zu ihrem Image der schlanken Effizienz und Umweltfreundlichkeit steht.

Die meisten Rechenzentren sind so konzipiert, dass sie riesige Mengen an Energie in einer unangemessen verschwenderischen Weise verbrauchen, wie Interviews und Dokumente zeigen. Online-Unternehmen lassen ihre Anlagen in der Regel rund um die Uhr mit maximaler KapazitÀt laufen, egal wie hoch die Nachfrage ist. Infolgedessen können die Rechenzentren 90 Prozent oder mehr des Stroms, den sie aus dem Netz beziehen, verschwenden, so die Times.

Um sich gegen StromausfĂ€lle zu schĂŒtzen, sind sie außerdem auf eine Reihe von Generatoren angewiesen, die Dieselabgase ausstoßen. Die Verschmutzung durch Rechenzentren wird von den Behörden zunehmend als Verstoß gegen die Vorschriften zur Luftreinhaltung gewertet, wie aus Dokumenten hervorgeht. Im Silicon Valley sind viele Rechenzentren im Toxic Air Contaminant Inventory der Landesregierung aufgefĂŒhrt, einer Liste mit den grĂ¶ĂŸten stationĂ€ren Dieselverschmutzern in der Region.

Nach SchĂ€tzungen von Branchenexperten, die fĂŒr die Times zusammengestellt wurden, verbrauchen die digitalen LagerhĂ€user weltweit etwa 30 Milliarden Watt Strom, was in etwa der Leistung von 30 Kernkraftwerken entspricht. Den SchĂ€tzungen zufolge entfallen ein Viertel bis ein Drittel dieses Verbrauchs auf die Rechenzentren in den Vereinigten Staaten.

 

"FĂŒr die meisten Menschen, selbst fĂŒr Branchenkenner, ist es erschĂŒtternd, die Zahlen und die schiere GrĂ¶ĂŸe dieser Systeme zu verstehen", so Peter Gross, der an der Entwicklung von Hunderten von Rechenzentren beteiligt war. "Ein einziges Rechenzentrum kann mehr Strom verbrauchen als eine mittelgroße Stadt".

Die Energieeffizienz variiert stark von Unternehmen zu Unternehmen. Im Auftrag der Times analysierte das Beratungsunternehmen McKinsey & Company den Energieverbrauch von Rechenzentren und stellte fest, dass diese im Durchschnitt nur 6 bis 12 Prozent des Stroms, mit dem ihre Server betrieben werden, fĂŒr die DurchfĂŒhrung von Berechnungen verwenden. Der Rest diente im Wesentlichen dazu, die Server im Leerlauf zu halten und fĂŒr den Fall eines AktivitĂ€tsanstiegs, der den Betrieb verlangsamen oder zum Absturz bringen könnte, bereitzuhalten.

Ein Server ist eine Art vergrĂ¶ĂŸerter Desktop-Computer ohne Bildschirm und Tastatur, der Chips zur Datenverarbeitung enthĂ€lt. Im Rahmen der Studie wurden rund 20.000 Server in etwa 70 großen Rechenzentren untersucht, die das gesamte Spektrum der Wirtschaft abdecken: Pharmaunternehmen, militĂ€rische Auftragnehmer, Banken, Medienunternehmen und Regierungsbehörden.

"Dies ist ein schmutziges Geheimnis der Branche, und niemand will der Erste sein, der sich schuldig bekennt", sagte ein leitender Angestellter der Branche, der nicht genannt werden möchte, um den Ruf seines Unternehmens zu schĂŒtzen. "WĂ€ren wir eine Fertigungsindustrie, wĂ€ren wir sofort aus dem GeschĂ€ft".

Diese physische RealitÀt der Daten ist weit entfernt von der Mythologie des Internets, wo das Leben in der "virtuellen" Welt stattfindet und alle Arten von Daten in der "Cloud" gespeichert werden.

Die ineffiziente Energienutzung wird weitgehend durch eine symbiotische Beziehung zwischen den Nutzern, die eine sofortige Reaktion auf einen Mausklick verlangen, und den Unternehmen, die ihr GeschĂ€ft aufs Spiel setzen, wenn sie diese Erwartung nicht erfĂŒllen, bestimmt.

Selbst wenn der Strom auf Hochtouren lĂ€uft, reicht das nicht aus, um die Branche zufrieden zu stellen. ZusĂ€tzlich zu den Generatoren verfĂŒgen die meisten großen Rechenzentren ĂŒber riesige, sich drehende SchwungrĂ€der oder Tausende von Blei-SĂ€ure-Batterien - viele davon Ă€hnlich wie Autobatterien -, um die Computer im Falle eines Netzausfalls von nur wenigen Hundertstelsekunden mit Strom zu versorgen - eine Unterbrechung, die die Server zum Absturz bringen könnte.

 

"Es ist eine Verschwendung", sagte Dennis P. Symanski, ein leitender Forscher am Electric Power Research Institute, einer gemeinnĂŒtzigen Industriegruppe. "Das sind zu viele Versicherungspolicen."

 

Mindestens ein Dutzend großer Rechenzentren wurde allein in Virginia und Illinois wegen VerstĂ¶ĂŸen gegen die LuftqualitĂ€tsvorschriften verwarnt, wie aus staatlichen Unterlagen hervorgeht. Amazon wurde ĂŒber einen Zeitraum von drei Jahren in Nord-Virginia mit mehr als 24 VerstĂ¶ĂŸen konfrontiert, darunter der Betrieb einiger seiner Generatoren ohne eine grundlegende Umweltgenehmigung.

Einige Unternehmen geben an, dass sie umfassend ĂŒberarbeitete Software und KĂŒhlsysteme einsetzen, um die Energieverschwendung zu verringern. Dazu gehören Facebook und Google, die auch ihre Hardware ĂŒberarbeitet haben. Dennoch verbrauchen die Rechenzentren von Google nach jĂŒngsten Angaben fast 300 Millionen Watt und die von Facebook etwa 60 Millionen Watt.

Viele dieser Lösungen sind ohne Weiteres verfĂŒgbar, aber in einer risikoscheuen Branche zögern die meisten Unternehmen laut Branchenexperten, umfassende Änderungen vorzunehmen.

Die Verbesserung oder auch nur die Bewertung des Bereichs wird durch die Geheimhaltung einer Branche erschwert, die weitgehend auf dem Zugriff auf die persönlichen Daten anderer Menschen beruht.

Aus SicherheitsgrĂŒnden geben die Unternehmen in der Regel nicht einmal die Standorte ihrer Rechenzentren bekannt, die in anonymen GebĂ€uden untergebracht sind und streng geschĂŒtzt werden. Die Unternehmen schĂŒtzen ihre Technologie auch aus WettbewerbsgrĂŒnden, sagt Michael Manos, ein langjĂ€hriger Branchenexperte. "All diese Dinge spielen ineinander und fördern diese geschlossene, nur fĂŒr Mitglieder zugĂ€ngliche Gruppe", sagte er.

 

Diese Geheimhaltung erstreckt sich oft auch auf die Energienutzung. Erschwerend kommt hinzu, dass keine einzelne Regierungsbehörde die Befugnis hat, die Branche zu ĂŒberwachen. TatsĂ€chlich war die Bundesregierung nicht in der Lage festzustellen, wie viel Energie ihre eigenen Rechenzentren verbrauchen, so Beamte, die an einer im letzten Jahr durchgefĂŒhrten Umfrage beteiligt waren.

Die Umfrage ergab jedoch, dass die Zahl der Rechenzentren der Bundesregierung von 432 im Jahr 1998 auf 2.094 im Jahr 2010 gestiegen ist.

Um die Branche zu untersuchen, beschaffte sich die Times Tausende von Seiten lokaler, staatlicher und bundesstaatlicher Aufzeichnungen, einige davon durch Gesetze zur Informationsfreiheit, die ĂŒber Industrieanlagen gefĂŒhrt werden, die große Mengen an Energie verbrauchen. Von den Umweltbehörden wurden Kopien von Genehmigungen fĂŒr Stromerzeuger und Informationen ĂŒber deren Emissionen eingeholt, die dazu beitrugen, einige Standorte von Rechenzentren und Details zu deren Betrieb zu ermitteln.

Neben der ÜberprĂŒfung der Unterlagen von Stromversorgern besuchte die Times auch Rechenzentren im ganzen Land und fĂŒhrte Hunderte von Interviews mit derzeitigen und ehemaligen Mitarbeitern und Auftragnehmern.

Einige Analysten warnen davor, dass Unternehmen, die ihre Praktiken nicht Ă€ndern, angesichts der steigenden Datenmenge und des steigenden Energieverbrauchs irgendwann vor einem Umbruch in einer Branche stehen könnten, die schon öfters große UmwĂ€lzungen erlebt hat, so auch beim Platzen der ersten Internetblase in den spĂ€ten 1990er Jahren.

"Das ist einfach nicht tragbar", sagte Mark Bramfitt, ein ehemaliger leitender Angestellter eines Versorgungsunternehmens, der heute als Berater fĂŒr die Energie- und Informationstechnologiebranche tĂ€tig ist. "Sie werden auf eine Mauer stoßen".

Bytes in Milliardenhöhe

In einem FC-Barcelona-T-Shirt und karierten Bermudashorts schritt Andre Tran durch ein Yahoo-Rechenzentrum in Santa Clara, wo er als Site Operations Manager tĂ€tig war. Der Bereich von Herrn Tran - es gab unter anderem Server fĂŒr Fantasy-Sport und Foto-Sharing - war ein gutes Beispiel fĂŒr die zahllosen ComputerrĂ€ume, in denen die schwappenden Datenfluten des Planeten durchlaufen oder zur Ruhe kommen.

 

Ein Gang nach dem anderen mit Servern, deren gelbe, blaue und grĂŒne Lichter leise blinkten, stand auf einem weißen Boden, der von kleinen runden Löchern durchbrochen war, die kalte Luft ausspuckten. In jedem Server befanden sich die sich drehenden Festplatten, auf denen die Daten gespeichert waren. Der einzige Hinweis darauf, dass das Zentrum von Yahoo betrieben wurde, dessen Name nirgends zu sehen war, fand sich in einem Gewirr von Kabeln, die in den fĂŒr das Unternehmen typischen Farben Lila und Gelb gefĂ€rbt waren.

"Darauf könnten sich Tausende von E-Mails befinden", sagte Herr Tran und zeigte auf einen Lagergang. "Die Leute bewahren alte E-Mails und AnhÀnge ewig auf, da braucht man eine Menge Platz.

Dies ist das alltĂ€gliche Gesicht digitaler Informationen - Spielerstatistiken, die in Server fließen, die Fantasiepunkte und Ligaranglisten berechnen, SchnappschĂŒsse von fast vergessenen Urlauben, die fĂŒr immer in SpeichergerĂ€ten aufbewahrt werden. Erst wenn man die Wiederholungen dieser und Ă€hnlicher Transaktionen zusammenzĂ€hlt, werden sie beeindruckend.

Jedes Jahr werden die Chips in den Servern schneller und die Speichermedien dichter und billiger, aber die rasende Datenproduktion wird noch eine Stufe höher.

Jeremy Burton, ein Experte fĂŒr Datenspeicherung, sagte, dass der datenintensivste Kunde, mit dem er vor 10 Jahren in einem Computertechnologieunternehmen arbeitete, etwa 50.000 Gigabyte in seiner gesamten Datenbank hatte. (Die Datenspeicherung wird in Bytes gemessen. Der Buchstabe N zum Beispiel benötigt 1 Byte zum Speichern. Ein Gigabyte ist eine Milliarde Bytes an Informationen.)

Heute werden bei der Erstellung eines einzigen 3D-Animationsfilms etwa eine Million Gigabyte in einem Rechenzentrum verarbeitet und gespeichert, so Burton, der jetzt bei EMC arbeitet, einem Unternehmen, das sich auf die Verwaltung und Speicherung von Daten spezialisiert hat.

 

Allein einer der Kunden des Unternehmens, die New Yorker Börse, produziert tĂ€glich bis zu 2.000 Gigabyte an Daten, die ĂŒber Jahre hinweg gespeichert werden mĂŒssen, fĂŒgte er hinzu.

 

EMC und die International Data Corporation schÀtzten gemeinsam, dass im vergangenen Jahr weltweit mehr als 1,8 Billionen Gigabyte an digitalen Informationen erzeugt wurden.

"Es ist ein regelrechter Wettlauf zwischen unserer FĂ€higkeit, Daten zu erzeugen, und unserer FĂ€higkeit, Daten zu speichern und zu verwalten", sagte Burton.

Nach SchÀtzungen von EMC wurden etwa drei Viertel dieser Daten von normalen Verbrauchern erzeugt.

Diese Verbraucher haben kein GefĂŒhl dafĂŒr, dass Daten physisch sind oder dass ihre Speicherung Platz und Energie verbraucht, und haben die Gewohnheit entwickelt, riesige Datendateien wie Videos und Massen-E-Mails mit FotoanhĂ€ngen hin und her zu schicken. Selbst scheinbar alltĂ€gliche Handlungen wie das AusfĂŒhren einer App, um ein italienisches Restaurant in Manhattan oder ein Taxi in Dallas zu finden, erfordern, dass die Server eingeschaltet und bereit sind, die Informationen sofort zu verarbeiten.

Die KomplexitĂ€t einer einfachen Transaktion ist fĂŒr die meisten Nutzer ein RĂ€tsel: Das Versenden einer Nachricht mit Fotos an einen Nachbarn könnte eine Reise durch Hunderte oder Tausende von Kilometern an Internetleitungen und mehrere Datenzentren erfordern, bevor die E-Mail auf der anderen Straßenseite ankommt.

"Wenn Sie jemandem sagen, dass er nicht auf YouTube zugreifen oder von Netflix herunterladen kann, wird er Ihnen sagen, dass das ein gottgegebenes Recht ist", so Bruce Taylor, VizeprĂ€sident des Uptime Institute, einer Fachorganisation fĂŒr Unternehmen, die Rechenzentren nutzen.

Um all diese digitalen AktivitĂ€ten zu unterstĂŒtzen, gibt es nach Angaben der International Data Corporation inzwischen weltweit mehr als drei Millionen Rechenzentren unterschiedlichster GrĂ¶ĂŸe.

 

Im Jahr 2010 verbrauchten Rechenzentren landesweit rund 76 Milliarden Kilowattstunden, was etwa 2 Prozent des gesamten Stromverbrauchs im Land entspricht. Dies geht aus einer Analyse von Jonathan G. Koomey hervor, einem Forschungsstipendiaten der Stanford University, der sich seit mehr als zehn Jahren mit dem Energieverbrauch von Rechenzentren beschÀftigt. DatacenterDynamics, ein in London ansÀssiges Unternehmen, kam zu Àhnlichen Zahlen.

Die Industrie argumentiert seit langem, dass die Computerisierung von GeschĂ€ftstransaktionen und alltĂ€glichen Aufgaben wie BankgeschĂ€fte und das Lesen von BĂŒchern in der Bibliothek unter dem Strich Energie und Ressourcen spart. Doch die Papierindustrie, deren Ablösung durch das Computerzeitalter von einigen vorausgesagt wurde, verbrauchte 2010 laut Zahlen des Census Bureau, die das Electric Power Research Institute fĂŒr die Times ĂŒberprĂŒft hat, 67 Milliarden Kilowattstunden aus dem Netz.

Direkte Vergleiche zwischen den Branchen sind schwierig: Papier verbraucht zusÀtzliche Energie durch die Verbrennung von ZellstoffabfÀllen und den Transport der Produkte. In Rechenzentren werden ebenfalls Millionen von Laptops, Personalcomputern und mobilen GerÀten eingesetzt.

Chris Crosby, GeschĂ€ftsfĂŒhrer des in Dallas ansĂ€ssigen Unternehmens Compass Datacenters, sagte, es sei kein unmittelbares Ende der Ausbreitung der digitalen Infrastruktur in Sicht.

"Es gibt neue Technologien und Verbesserungen", sagte Crosby, "aber es lĂ€uft immer noch alles ĂŒber ein Stromkabel."

Komatöse" StromabzĂŒge

Die Ingenieure von Viridity Software, einem Start-up-Unternehmen, das Unternehmen bei der Verwaltung von Energieressourcen unterstĂŒtzt, waren nicht ĂŒberrascht von dem, was sie auf dem Boden eines ausgedehnten Rechenzentrums in der NĂ€he von Atlanta entdeckten.

Viridity wurde an Bord geholt, um grundlegende Diagnosetests durchzufĂŒhren. Die Ingenieure stellten fest, dass die Einrichtung, wie Dutzende andere, die sie untersucht hatten, den Großteil ihres Stroms fĂŒr Server verbrauchte, die kaum etwas anderes taten, als Strom zu verbrauchen, sagte Michael Rowan, der Chief Technology Officer von Viridity.

 

Ein leitender Beamter des Rechenzentrums hatte bereits den Verdacht, dass etwas nicht stimmte. Er hatte zuvor eine eigene informelle Untersuchung durchgefĂŒhrt und Server, die er fĂŒr "komatös" hielt, mit roten Aufklebern versehen - der Begriff, den Ingenieure fĂŒr Server verwenden, die an das Stromnetz angeschlossen sind und Energie verbrauchen, obwohl ihre Prozessoren kaum oder gar keine Rechenarbeit leisten.

"Am Ende dieses Prozesses stellten wir fest, dass unser Rechenzentrum an den Masern erkrankt war", sagte der Beamte Martin Stephens wÀhrend eines Web-Seminars mit Herrn Rowan. "Es gab so viele rote Markierungen, dass es unglaublich war."

Die Viridity-Tests bestĂ€tigten Herrn Stephens' Verdacht: Bei einer Stichprobe von 333 Servern, die 2010 ĂŒberwacht wurden, erwies sich mehr als die HĂ€lfte als komatös. Insgesamt nutzten fast drei Viertel der Server in der Stichprobe im Durchschnitt weniger als 10 Prozent ihrer Rechenleistung, um Daten zu verarbeiten.

Bei dem Betreiber des Rechenzentrums handelte es sich nicht um einen kleinen App-Entwickler oder ein Online-GlĂŒcksspielunternehmen, sondern um den Datenbankriesen LexisNexis. Und das war kein Einzelfall.

 

In vielen Einrichtungen werden Server mit Anwendungen beladen und auf unbestimmte Zeit laufen gelassen, selbst wenn fast alle Benutzer verschwunden sind oder neue Versionen der gleichen Programme anderswo laufen.

"Man muss bedenken, dass die Datenexplosion dies begĂŒnstigt", so Taylor vom Uptime Institute. "Ab einem bestimmten Punkt ist niemand mehr verantwortlich, denn niemand, absolut niemand, will in den Raum gehen und einen Server ausstecken."

 

Kenneth Brill, ein Ingenieur, der 1993 das Uptime Institute grĂŒndete, sagte, dass die geringe Auslastung mit der "ErbsĂŒnde" der Branche begann.

In den frĂŒhen 1990er Jahren, so Brill, stĂŒrzten Software-Betriebssysteme, die man heute als primitiv bezeichnen wĂŒrde, ab, wenn sie zu viele Aufgaben zu erledigen hatten oder sogar ein- und ausgeschaltet wurden. Als Reaktion darauf ließen die Computertechniker selten mehr als eine Anwendung auf jedem Server laufen und hielten die Maschinen rund um die Uhr in Betrieb, ganz gleich, wie sporadisch diese Anwendung in Anspruch genommen wurde.

WÀhrend die Energieaufsichtsbehörden der Regierung die Verbraucher aufforderten, Computer auszuschalten, wenn sie nicht benutzt wurden, wurde die oberste Direktive in den Rechenzentren, Computer um jeden Preis laufen zu lassen.

Ein Absturz oder eine Verlangsamung könnte das Ende einer Karriere bedeuten, so Michael Tresh, ehemaliger leitender Beamter bei Viridity. In einem Bereich, der von Cleverness und KĂŒhnheit geprĂ€gt war, regiert heute etwas anderes: die Angst vor dem Scheitern.

"Die Betreiber von Rechenzentren leben tĂ€glich in der Angst, ihren Arbeitsplatz zu verlieren", so Tresh, "und das liegt daran, dass das Unternehmen sie im Falle eines Ausfalls nicht unterstĂŒtzen wird."

In der Fachsprache wird der Anteil der Gehirnleistung eines Computers, der fĂŒr Berechnungen verwendet wird, als "Auslastung" bezeichnet.

McKinsey & Company, das Beratungsunternehmen, das die Auslastungszahlen fĂŒr die Times analysiert hat, beobachtet das Thema seit mindestens 2008, als es einen Bericht veröffentlichte, der außerhalb der Branche kaum Beachtung fand. Die Zahlen sind hartnĂ€ckig niedrig geblieben: Die aktuellen Ergebnisse von 6 bis 12 Prozent sind nur geringfĂŒgig besser als die von 2008. Aufgrund von Vertraulichkeitsvereinbarungen ist McKinsey nicht in der Lage, die Unternehmen zu nennen, die in die Stichprobe einbezogen wurden.

 

David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner, sagte, dass seine eigene, kĂŒrzlich durchgefĂŒhrte Umfrage bei einer großen Anzahl von Rechenzentren eine typische Auslastung von 7 bis 12 Prozent ergab.

"Das ist die Art und Weise, wie wir Rechenzentren seit Jahren ĂŒberdimensioniert und betrieben haben", sagte Cappuccio. "Dieses Maß an Komfort kostet eine Menge Geld. Es kostet eine Menge Energie."

Server sind nicht die einzigen Komponenten in Rechenzentren, die Energie verbrauchen. Industrielle KĂŒhlsysteme, Schaltkreise zur Aufrechterhaltung des Ladezustands von Notstrombatterien und die einfache Verlustleistung in der umfangreichen Verkabelung tragen alle ihren Teil zum Energieverbrauch bei.

In einem typischen Rechenzentrum können diese Verluste in Verbindung mit einer geringen Auslastung dazu fĂŒhren, dass die Energieverschwendung das 30-fache der Strommenge betrĂ€gt, die fĂŒr den eigentlichen Zweck des Rechenzentrums verwendet wird.

Einige Unternehmen, akademische Organisationen und Forschungsgruppen haben gezeigt, dass weitaus effizientere Verfahren möglich sind, auch wenn es schwierig ist, verschiedene Arten von Aufgaben zu vergleichen.

Das National Energy Research Scientific Computing Center, das aus Clustern von Servern und Großrechnern am Lawrence Berkeley National Laboratory in Kalifornien besteht, war im Juli zu 96,4 Prozent ausgelastet, so Jeff Broughton, der Leiter des Betriebs. Die Effizienz wird erreicht, indem große AuftrĂ€ge in eine Warteschlange gestellt und so geplant werden, dass die Maschinen 24 Stunden am Tag fast voll ausgelastet sind.

Das in Santa Clara ansĂ€ssige Unternehmen Power Assure vermarktet eine Technologie, die es kommerziellen Rechenzentren ermöglicht, Server sicher abzuschalten, wenn sie nicht benötigt werden - zum Beispiel ĂŒber Nacht.

 

Doch trotz aggressiver Programme, mit denen Silicon Valley Power seine Großkunden zum Energiesparen bewegen will, ist es nicht gelungen, auch nur ein einziges Rechenzentrum in Santa Clara zum Einsatz dieser Technik zu bewegen, so Mary Medeiros McEnroe, Managerin fĂŒr Energieeffizienzprogramme bei dem Versorgungsunternehmen.

"In der IT-Gemeinschaft herrscht NervositĂ€t darĂŒber, dass etwas nicht zur VerfĂŒgung steht, wenn sie es brauchen", so McEnroe.

 

Die von Herrn Stephens fĂŒr LexisNexis Risk Solutions durchgefĂŒhrte Rationalisierung des Rechenzentrums ist ein Beispiel fĂŒr die möglichen Einsparungen.

In der ersten Phase des Projekts sagte er, dass er durch die Konsolidierung der Arbeit auf weniger Servern und die Aktualisierung der Hardware eine 25.000 Quadratmeter große Einrichtung auf 10.000 Quadratmeter verkleinern konnte.

NatĂŒrlich mĂŒssen Rechenzentren jederzeit ĂŒber eine gewisse ReservekapazitĂ€t verfĂŒgen, und eine 100-prozentige Auslastung ist nicht möglich. Sie mĂŒssen darauf vorbereitet sein, Verkehrsspitzen zu bewĂ€ltigen.

Herr Symanski vom Electric Power Research Institute sagte, dass solche niedrigen Wirkungsgrade nur in der obskuren Logik der digitalen Infrastruktur Sinn machen.

 

"Man sieht sich das an und fragt sich: Wie um alles in der Welt kann man ein Unternehmen so fĂŒhren?", sagte Symanski. Die Antwort ist oft die gleiche, sagte er: "Sie bekommen keinen Bonus fĂŒr die Einsparungen bei der Stromrechnung. Sie bekommen einen Bonus dafĂŒr, dass das Rechenzentrum 99,999 Prozent der Zeit verfĂŒgbar ist."

Die bestgeplanten PlÀne

In Manassas im US-Bundesstaat Virginia betreibt der Einzelhandelsriese Amazon Server fĂŒr seine Cloud inmitten eines LKW-Depots, eines stillgelegten Getreidesilos, eines Holzlagers und von Schrott ĂŒbersĂ€ten GrundstĂŒcken, auf denen Maschinen MĂŒllladungen fĂŒr das Recycling komprimieren.

Die Server sind in zwei Amazon-Rechenzentren untergebracht, die in drei GebĂ€uden untergebracht sind, die wie sperrige LagerhĂ€user mit grĂŒnen, gewellten WĂ€nden aussehen. LuftschĂ€chte, die groß genug sind, um industrielle KĂŒhlsysteme unterzubringen, ziehen sich ĂŒber die DĂ€cher; riesige Dieselgeneratoren stehen in Reihen um das GebĂ€ude herum.

Der Begriff "Cloud" wird oft allgemein verwendet, um die Funktionen eines Rechenzentrums zu beschreiben. Genauer gesagt handelt es sich um einen Service zur Vermietung von RechenkapazitĂ€t. Diese Einrichtungen werden in erster Linie ĂŒber das nationale Stromnetz versorgt, aber es sind fast immer Generatoren und Batterien vorhanden, um Strom zu liefern, wenn das Netz ausfĂ€llt.

Die Standorte in Manassas gehören zu den mindestens acht großen Rechenzentren, die Amazon in Nord-Virginia betreibt, wie aus den Unterlagen des Umweltministeriums von Virginia hervorgeht.

Die Behörde ist mit Amazon vertraut. Nach vier Inspektionen ab Oktober 2010 wurde dem Unternehmen mitgeteilt, dass die Behörde eine Geldstrafe in Höhe von 554.476 Dollar verhĂ€ngen wĂŒrde, weil es Dieselgeneratoren installiert und wiederholt betrieben hatte, ohne die fĂŒr den Betrieb in Virginia erforderlichen Standard-Umweltgenehmigungen einzuholen.

Auch wenn es keine StromausfĂ€lle gibt, stoßen die Notstromaggregate Abgase aus, da sie regelmĂ€ĂŸig getestet werden mĂŒssen.

 

Nach monatelangen Verhandlungen wurde die Strafe auf 261.638 Dollar reduziert. Bei der Beurteilung des "Grades der Schuld" wurden alle 24 VerstĂ¶ĂŸe als "hoch" eingestuft.

Drew Herdener, ein Sprecher von Amazon, stimmte zu, dass das Unternehmen "nicht die richtigen Genehmigungen" erhalten hatte, bevor die Generatoren eingeschaltet wurden. "Alle diese Generatoren wurden nachtrÀglich genehmigt und zugelassen", sagte Herdener.

Die VerstĂ¶ĂŸe kamen zu einer Reihe kleinerer VerstĂ¶ĂŸe in einem der Rechenzentren von Amazon in Ashburn, Virginia, im Jahr 2009 hinzu, fĂŒr die das Unternehmen laut den Aufzeichnungen der Behörde 3.496 Dollar zahlte.

Von all den Dingen, die vom Internet erwartet wurden, kann man mit Sicherheit sagen, dass eine Saat fĂŒr die Verbreitung von Notstromdieselgeneratoren nicht dazu gehörte.

Terry Darton, ein ehemaliger Manager der Umweltbehörde von Virginia, sagte, dass in seinem 14 Bezirke umfassenden Bundesstaat Virginia so viele Generatoren fĂŒr Rechenzentren genehmigt wurden, dass sie fast die Leistung eines Kernkraftwerks erreichen.

"Es ist schockierend, wie viel potenzielle Energie zur VerfĂŒgung steht", sagte Darton, der im August in den Ruhestand ging.

Es liegen keine landesweiten Zahlen ĂŒber UmweltverstĂ¶ĂŸe durch Rechenzentren vor, aber eine ÜberprĂŒfung mehrerer Umweltbezirke deutet darauf hin, dass die Zentren allmĂ€hlich die Aufmerksamkeit der Aufsichtsbehörden im ganzen Land auf sich ziehen.

In den letzten fĂŒnf Jahren erhielten beispielsweise die Internetkonzerne Savvis und Equinix im Großraum Chicago VerstĂ¶ĂŸe, wie aus den Unterlagen der Illinois Environmental Protection Agency hervorgeht. Neben Amazon haben die Behörden in Nord-Virginia auch Rechenzentren von Qwest, Savvis, VeriSign und NTT America beanstandet.

 

Trotz aller Vorsichtsmaßnahmen - dem enormen Stromfluss, den BatteriebĂ€nken und dem Aufgebot an Dieselgeneratoren - kommt es immer wieder zu Pannen in den Rechenzentren.

Vor allem Amazon hatte in den letzten Jahren eine Reihe von AusfÀllen in Nord-Virginia zu verzeichnen. Bei einem dieser AusfÀlle, der im Mai 2010 in einer Anlage in Chantilly auftrat, waren Unternehmen, die von Amazons Cloud abhÀngig sind, nach Angaben des Unternehmens mehr als eine Stunde lang offline - eine Ewigkeit in der Datenbranche.

Die Ermittlung der Ursache wurde zu einer eigenen Informationspanne.

Amazon gab bekannt, dass der Ausfall ausgelöst wurde, als ein Fahrzeug gegen einen Hochspannungsmast auf einer Straße in der NĂ€he eines unserer Rechenzentren prallte".

Wie sich herausstellte, handelte es sich bei dem Autounfall um einen Mythos, ein MissverstĂ€ndnis, das von einem örtlichen ElektrizitĂ€tswerker ĂŒber einen Mitarbeiter des Rechenzentrums bis hin zur Amazon-Zentrale weitergegeben wurde. Stattdessen sagte Amazon, dass seine Backup-AusrĂŒstung irrtĂŒmlich einen Teil des Rechenzentrums abgeschaltet hat, nachdem Dominion Virginia Power sagte, dass es sich um einen Kurzschluss an einem Strommast handelte, der zwei kurzzeitige AusfĂ€lle verursachte.

Herr Herdener von Amazon sagte, dass das Backup-System ĂŒberarbeitet worden sei und dass "wir nicht erwarten, dass sich dieser Zustand wiederholt".

Die Ursache des Problems

Letztes Jahr wurde im Nordosten eine 1 Milliarde Dollar teure Zuleitung fĂŒr das nationale Stromnetz in Betrieb genommen, die sich etwa 215 Meilen vom SĂŒdwesten Pennsylvanias durch die Allegheny Mountains in West Virginia schlĂ€ngelt und in Loudon County, Virginia, endet.

 

Die Arbeiten wurden von Millionen von Steuerzahlern finanziert. Steven R. Herling, ein leitender Beamter bei PJM Interconnection, einer regionalen Behörde fĂŒr das Stromnetz, sagte, dass die Notwendigkeit, die wie Pilze aus dem Boden schießenden Rechenzentren in Nord-Virginia zu versorgen, den Ausschlag fĂŒr das Projekt in einer ansonsten schwachen Wirtschaft gegeben habe.

Laut Jim Norvelle, einem Sprecher von Dominion Virginia Power, dem grĂ¶ĂŸten Energieversorger der Region, verbrauchen die Rechenzentren in diesem Gebiet inzwischen fast 500 Millionen Watt Strom. Dominion schĂ€tzt, dass der Verbrauch in den nĂ€chsten fĂŒnf Jahren auf mehr als eine Milliarde Watt ansteigen könnte.

Rechenzentren gehören zu den begehrtesten Kunden der Versorgungsunternehmen. Viele Versorgungsunternehmen im ganzen Land werben um diese Einrichtungen, weil sie fast rund um die Uhr Strom verbrauchen. Ein großer, gleichmĂ€ĂŸiger Verbrauch ist fĂŒr die Versorgungsunternehmen rentabel, da sie so ihre eigenen StromkĂ€ufe im Voraus planen und ihre Dienstleistungen nachts vermarkten können, wenn die Nachfrage anderer Kunden sinkt.

Bramfitt, der ehemalige GeschĂ€ftsfĂŒhrer eines Versorgungsunternehmens, befĂŒrchtet, dass diese Dynamik eine verschwenderische Industrie dazu ermutigt, an ihren Gewohnheiten festzuhalten, das Gaspedal durchzutreten. Selbst bei all der Energie und Hardware, die in das Feld fließen, glauben andere, dass es fĂŒr die derzeitigen Methoden der Datenspeicherung und -verarbeitung eine Herausforderung sein wird, mit dem digitalen Tsunami Schritt zu halten.

Einige Branchenexperten glauben, dass die Lösung in der Cloud liegt: die Zentralisierung der Datenverarbeitung in großen und gut betriebenen Datenzentren. Diese Rechenzentren wĂŒrden sich stark auf eine Technologie namens Virtualisierung stĂŒtzen, die es Servern ermöglicht, ihre IdentitĂ€ten zu großen, flexiblen Rechenressourcen zu verschmelzen, die je nach Bedarf an die Benutzer verteilt werden können, egal wo sie sich befinden.

Einer der BefĂŒrworter dieses Ansatzes ist Herr Koomey, der Experte fĂŒr Rechenzentren aus Stanford. Er sagte jedoch, dass viele Unternehmen, die versuchen, ihre eigenen Rechenzentren zu verwalten, entweder im eigenen Haus oder in gemieteten RĂ€umen, immer noch nicht mit der neuen Cloud-Technologie vertraut sind oder ihr misstrauisch gegenĂŒberstehen. Leider sind diese Unternehmen fĂŒr den Großteil des Energieverbrauchs von Rechenzentren verantwortlich, so Koomey.

Andere Ă€ußern eine tiefe Skepsis gegenĂŒber der Cloud und sagen, dass der manchmal mystisch klingende Glaube an ihre Möglichkeiten durch die physische Beschaffenheit der Infrastruktur, die fĂŒr ihre UnterstĂŒtzung erforderlich ist, widerlegt wird.

 

Durch die Nutzung der Cloud Ă€ndert sich lediglich der Ort, an dem die Anwendungen ausgefĂŒhrt werden", so Hank Seader, leitender Direktor fĂŒr Forschung und Ausbildung beim Uptime Institute. "Alles lĂ€uft irgendwo in einem Rechenzentrum".

Manche fragen sich, ob die Sprache des Internets selbst ein Hindernis fĂŒr das VerstĂ€ndnis ist, wie physisch es ist und wahrscheinlich auch bleiben wird. Nehmen wir zum Beispiel die Frage der Datenspeicherung, sagte Randall H. Victora, ein Professor fĂŒr Elektrotechnik an der UniversitĂ€t von Minnesota, der ĂŒber magnetische SpeichergerĂ€te forscht.

"Wenn jemand sagt: 'Ich speichere etwas in der Cloud, dann brauchen wir keine Festplatten mehr' - dann ist die Cloud ein Festplattenlaufwerk", so Victora. "Wir bekommen sie auf die eine oder andere Weise. Wir wissen es nur nicht."

Was auch immer in den Unternehmen geschieht, es ist klar, dass die Erwartungen der Verbraucher den Bedarf an einer solch gewaltigen Infrastruktur weitgehend bestimmen.

"Das ist es, was das massive Wachstum antreibt - die Erwartung der Endnutzer, alles, jederzeit und ĂŒberall nutzen zu können", sagt David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner. "Wir sind die Verursacher des Problems".

Read full Article
Unlautere Methoden gegen eine dissidente Journalistin.
Vorwürfe gegen Bundesrätin Keller-Sutters PR-Chef

Katharina Fontana (NZZ 13.6.23)

Es ist ein eher unĂŒblicher Vorgang, dass sich eine BundesrĂ€tin im Parlament fĂŒr das Vorleben eines Chefbeamten erklĂ€ren muss. In der nationalrĂ€tlichen Fragestunde vom Montag musste Finanzministerin Karin Keller-Sutter genau das tun, und man darf davon ausgehen, dass sie dies trotz ihrem LĂ€cheln nicht amĂŒsant fand. Konkret geht es um Pascal Hollenstein. Er ist seit wenigen Wochen verantwortlich fĂŒr die Kommunikation des Finanzdepartements. Hollenstein war viele Jahre lang Journalist, bis 2022 nahm er die Stelle als Leiter Publizistik bei CH Media ein und war in dieser Funktion ein Schwergewicht in der Medienszene.

Einsatz fĂŒr das «Team Jolanda»

Als er im Mai seinen neuen Job im Finanzdepartement antrat, erfolgte dies unter NebengerĂ€uschen. Denn Hollenstein tauchte als eine der Hauptfiguren in den sogenannten #Hateleaks auf, welche die Tamedia-Journalistin MichĂšle Binswanger ab Mitte Mai auf einem Internetportal portionenweise veröffentlichte. Bei den #Hateleaks handelt es sich um AuszĂŒge aus einem privaten Chat eines Netzwerks, das im Jahr 2020 von Jolanda Spiess-Hegglin ins Leben gerufen worden war und mehrere Mitstreiterinnen umfasste. Ziel der linksfeministischen Frauengruppe war es offenbar, die ungeliebte Binswanger zu diskreditieren, und zwar grĂŒndlich: «Unser Ziel muss es sein, dass sie als Journalistin auswandern kann», wird aus dem Chat zitiert. Hintergrund des Aufruhrs war das geplante Buch, das Binswanger ĂŒber die Skandalnacht der Zuger Landammannfeier schreiben und das Spiess-Hegglin verhindern wollte – ohne Erfolg.

Im Chat der Frauengruppe taucht auch der Name von Hollenstein auf, und zwar als Freund und Helfer. Laut den #Hateleaks soll er einen fĂŒr einen Journalisten eigentĂŒmlich engen Austausch mit Jolanda Spiess-Hegglin gepflegt und journalistisch getarnte Öffentlichkeitsarbeit zu ihren Gunsten betrieben haben – «Hochverrat am Leser» nennt es Binswangers Portal. TatsĂ€chlich war Hollensteins engagierter journalistischer Einsatz fĂŒr Spiess-Hegglin und die stattliche Zahl von Artikeln, die er ihrer Sache widmete, in der Medienszene nicht unbemerkt geblieben. Hollenstein war allerdings nicht der einzige Journalist, den man dem «Team Jolanda» zuordnen konnte, es gab bzw. gibt auch weitere. Ebenso wie es Journalisten gab bzw. gibt, fĂŒr die Spiess-Hegglin eine unwiderstehliche Reizfigur ist, gegen die sie seit Jahren unerbittlich anschreiben.

DĂŒrre Worte der Chefin

Dasselbe Bild zeigt sich in der Politik. Definitiv nicht im «Team Jolanda» befinden sich die SVP-NationalrÀte Thomas Matter und Andreas Glarner. Sie brachten das Thema #Hateleaks und Hollensteins mutmassliche Verstrickungen ins Parlament und wollten von Karin Keller-Sutter wissen, wie der Bundesrat das Verhalten von Hollenstein beurteile und ob er als Kommunikationschef noch tragbar sei.

Die Antwort, die Keller-Sutter den beiden Fragestellern gab, war denkbar kurz. «Der in den Fragen formulierte Vorwurf bezieht sich auf Artikel aus einer frĂŒheren TĂ€tigkeit der angesprochenen Person. Der Bundesrat hat keinen Anlass, hierzu Stellung zu nehmen.» Dass sich Keller-Sutter nicht öffentlich ĂŒber das frĂŒhere Verhalten ihres frischgebackenen Kommunikationschefs Ă€ussern will, ist nicht wirklich erstaunlich. Die dĂŒrren Worte bedeuten umgekehrt aber nicht, dass sich die imagebewusste und auf saubere VerhĂ€ltnisse bedachte Keller-Sutter keine Gedanken ĂŒber die Personalie macht. Von Hollenstein selber ist in dieser Angelegenheit nichts zu hören, er scheint die ungemĂŒtliche Sache aussitzen zu wollen.

Read full Article
post photo preview
Die dunkle Seite der Windkraft
Die Politik propagiert Windräder als günstige und ökologische Energieform. In Wirklichkeit sind Windparks ökologisch und wirtschaftlich verheerend.

 

https://weltwoche.ch/story/die-dunkle-seite-der-windkraft/

 

WindrĂ€der, Fotovoltaikanlagen und Elektroautos gelten dem modernen EuropĂ€er und Amerikaner als Sinnbild der sauberen, modernen und klimaschĂŒtzenden Wirtschaft und Energieversorgung. Aber ist dieses politmedial vermittelte Bild realistisch? Klare Antwort: Nein.

Es fĂ€ngt schon bei der ModernitĂ€t der Windkraftanlagen an – wer gerne Hollywoodfilme schaut, entdeckt die kleinen, vielflĂŒgeligen Anlagen in fast jedem Film, der auf einem Bauernhof in der Vergangenheit spielt. Kein Wunder: In den riesigen USA waren oder sind viele abgelegene Farmen nicht an das Stromnetz der Metropolen angeschlossen. Sie produzieren dann ihren Strom mit WindrĂ€dern halt selber und legen die entsprechenden Arbeiten in die Zeitfenster, wenn der Wind weht. Das spart zudem Geld, weil man nicht die Infrastruktur der öffentlichen Netze mit bezahlen muss.

Die amerikanischen Bauern sind mit ihrer schlauen Strategie auf der Welt nicht alleine – auch in Indien, so erzĂ€hlte mir ein Gaststudent in Jena, werden eigene Windkraftanlagen von landwirtschaftlichen Grossbetrieben des riesigen Subkontinentes fĂŒr den Eigenverbrauch genutzt. Ins öffentliche Netz speisen sie aber nicht ein, weil die Siedlungen dauerhaft grossen Bedarf haben, der von wetterabhĂ€ngigen Lieferanten nicht gedeckt werden kann.

Riesiger FlÀchenbedarf

Flatterstrom, Grundlast, Leistungsdichte und Erntefaktor – mit diesen FachausdrĂŒcken lĂ€sst sich der energetische Unsinn der Windkraft umreissen. Die Begriffe gehören zu einem technischen Vokabular, das den grĂŒnen Politikern, Öko-Professoren, Energiewende-Journalisten und Klimaklebern der deutschsprachigen LĂ€nder in der Regel unbekannt ist. Da sass die VizeprĂ€sidentin des Deutschen Bundestages, Katrin Göring-Eckardt, neulich in einer Talkshow und erklĂ€rte allen Ernstes, die Elektronen der grundlastfĂ€higen Kernkraftwerke wĂŒrden die Stromleitungen verstopfen und deswegen mĂŒssten die WindrĂ€der trotz Wind abgeschaltet werden. Dabei ist es so: Gerade Deutschland hat fast immer zu viel oder zu wenig Energie aus erneuerbaren Quellen im Netz (Flatterstrom). Ist zu wenig Strom im Netz, mĂŒssen die schnell hochfahrbaren Gaskraftwerke das ausgleichen, zusĂ€tzlich die Kohlemeiler. Ist zu viel Windstrom im Netz, mĂŒssen viele Propeller aus dem Wind gedreht werden, um eine Überlastung zu vermeiden. Ausserdem wird (nach dem Atomausstieg eher: wurde) der ĂŒberschĂŒssige Strom ins Ausland geleitet, was aufgrund der Lage Deutschlands in Mitteleuropa allerdings gut möglich ist. ZusĂ€tzlich wird – dem Vernehmen nach – von der Deutschen Bahn und anderen Betrieben, die grosse Elektromotoren besitzen, der ĂŒberschĂŒssige Strom «vernichtet», also von den Maschinen in AbwĂ€rme umgewandelt.

Auch ohne diese Probleme sind Windkraftanlagen energetisch und wirtschaftlich nicht sinnvoll, da ihre Leistungsdichte viel zu gering ist. Gemeint ist damit, wie viel Energie pro Zeiteinheit eine Maschine bereitstellen kann. Zum Vergleich: Energiemais liefert 0,2 Watt pro Quadratmeter FlĂ€che, Fotovoltaik 10 bis 15, Wind in den Mittelgebirgen (Hessen) 45 Watt, Wasserkraft etwa 100 000, Kohle 250 000 und Urankernkraft 300 000 Watt. Man kann sich also leicht vorstellen, dass man viel mehr «erneuerbare» Kraftanlagen auf viel mehr FlĂ€che benötigt, um dieselbe Menge elektrischer Energie – wie ein Kernkraftwerk – zu erzeugen. Beispiel: Um Deutschland ausschliesslich mit Windstrom zu versorgen, mĂŒsste man das Bundesland Bayern komplett mit Propelleranlagen vollstellen.

Um Deutschland mit Windstrom zu versorgen, mĂŒsste man Bayern komplett mit Propeller vollstellen.

Damit hĂ€ngt der sogenannte Erntefaktor zusammen – das ist die Menge an Energie, die man herausbekommt, geteilt durch die investierte Energie. Auch hier rangiert die Windenergie mit dem VerhĂ€ltnis 3,9 unterhalb der Wirtschaftlichkeitsschwelle gemĂ€ss OECD-Beurteilung von 7 bis 8 – im Gegensatz zu Gas- und Kohlekraftwerken mit etwa 30 und Kernkraftwerken mit etwa 75. Die neuesten Reaktortypen sollen sogar Erntefaktoren von bis zu 7000 erreichen.

Tote Vögel, Trockenheit

Neben den grundsĂ€tzlich schlechten thermodynamischen Werten schneidet die Windkraft, auch praktisch gesehen, schlecht ab: Die vom Hersteller angegebene LeistungsfĂ€higkeit eines Rades, die Nennleistung, ist in der Regel graue Theorie, da sie nur bei optimalen WindverhĂ€ltnissen erreicht wird – an Land selten. So verwundert es nicht, dass im Mittel die Volllaststunden bei Nennleistung nur knapp 19 Prozent der gesamten Betriebszeit ausmachen.

Hinzu kommt der ökologische Unsinn der Windkraft: Im Vordergrund stehen Vogelschlag und KlimaverĂ€nderung durch die WindrĂ€der selber. Dass Vögel und Fledertiere in grosser Zahl den Riesenpropellern zum Opfer fallen, ist allgemein bekannt und wird auch von Verfechtern der sogenannten erneuerbaren Energien nicht bestritten – zu viele tote Vögel und FledermĂ€use finden sich am Boden. Zur Verteidigung wird argumentiert, dass Katzen und Autos viel mehr fliegende SympathietrĂ€ger töten. Das mag korrekt sein – aber wieso ein Argument? Wenn Verkehr und Haustiere schon so viele fliegende Wildtiere töten, sollte man weitere Todesursachen vermeiden, statt sie zu fördern. Ausserdem reissen Katzen zumeist siedlungsnahe Kleinvögel wie Meisen und Amseln und keine Bussarde und Rotmilane – die teilweise geschĂŒtzten Greifer werden exklusiv von WindradflĂŒgeln erschlagen.

Eine im letzten Jahrzehnt zunehmend bekannter werdende Gefahr der Windparks ist die KlimaverĂ€nderung. KĂŒrzlich gab der besonders durch Youtube bekannte Konstanzer Physikprofessor Gerd Ganteför, beileibe kein scharfer Kritiker der Klimakrisentheorie, dem Nordkurier ein Interview, in dem er auf die Austrocknung der betreffenden Regionen hinwies. Der Mechanismus ist einfach: WindrĂ€der nehmen dem Wind seine Energie – dafĂŒr sind sie ja da. Der verlangsamte Wind bewirkt Verdampfung – was wegen der geringeren VerdunstungskĂ€lte zu erhöhten Temperaturen fĂŒhrt.

Gesundheitlicher Unsinn

Ganteför wunderte sich dabei, dass es nur wenige Studien zu dem Thema gibt. Warum, ist klar: Findet eine Studie heraus, dass sich Region X zweimal schneller als der Rest der Welt erwÀrmt, fliesst das Fördergeld in Mengen. Will ein Wissenschaftler aber untersuchen, welche negativen Auswirkungen die Windfarmen haben, sind die mÀchtigen Profiteure der angeblichen Klimakrise weniger interessiert, das zu finanzieren. Wird es doch einmal untersucht, zum Beispiel durch Konrad Voge in Deutschland, zeigt sich eine klare Korrelation zwischen der seit 2001 heftig zunehmenden Windradverbreitung und der Niederschlagsreduktion in den BundeslÀndern mit vielen Windparks.

Ein weiterer verschwiegener Problempunkt ist die Entsorgung der Windkraftanlagen. Nichts hĂ€lt ewig – auch die sehr robust gebauten dĂ€nischen und deutschen WindrĂ€der nicht. Die Haltbarkeit der Konstruktionen basiert vor allem auf dem massiven Einsatz von Stahlbeton – allein die Fundamente haben Ausmasse, die sich der BĂŒrger beim Spaziergang unter dem Propeller nicht vorstellen kann. Diese bleiben nach dem Abriss einer Anlage in der Regel im Boden, weil das Heben oder AbfrĂ€sen des gigantischen Metall-Beton-Pfropfens extrem teuer wĂ€re – der erhebliche Profit des Betreibers ĂŒber zwanzig Jahre wĂ€re dann zu gering oder ganz dahin. Selbst wenn also in ferner Zukunft die deutsche oder dĂ€nische Windkraftindustrie weitgehend beerdigt und abgetragen wĂŒrde, lagerten immer noch Gigatonnen Beton-Stahl-Material auf dem Meeresboden oder unter Wiesen und WĂ€ldern – fĂŒr Jahrhunderte, Jahrtausende.

Hinzu kommt eine Verbundstoffmischung der besonders windbelasteten RotorblĂ€tter – sie bestehen in verschiedener Kombination aus Balsaholz, Epoxidharz (und Ähnlichem) sowie Aluminium- oder Karbonfaserstreben. So stabil diese Materialien auch sein mögen – wiederverwerten lassen sie sich meist nicht, eigentlich nur verbrennen. In den USA, in Wisconsin, wurden sogar viele alte RotorblĂ€tter schlicht vergraben, weil man sie nicht verbrennen konnte.

Windkraftanlagen werden nicht in StĂ€dten, in denen die grĂŒne HauptwĂ€hlerklientel wohnt, sondern fernab der Metropolen auf dem Land errichtet. Dessen Bewohnerschaft, eher strukturkonservativ und selten grĂŒn wĂ€hlend, klagt ĂŒber den Verlust von Heimat und Landschaftsbild, wenn die Politiker und ihre Förderklientel die Hightech-Industrieanlagen in WĂ€lder und auf Wiesen stellen. Im Januar wurde vermeldet, dass die Berliner Regierung 2 Prozent der FlĂ€che Deutschlands mit WindrĂ€dern pflastern will – tatsĂ€chlich wird es auf mehr hinauslaufen, da eine moderne Grossanlage mit Anfahrtswegen fĂŒr Schwerlastfahrzeuge und so weiter erheblichen FlĂ€chenbedarf hat.

Neben dem eher emotional begrĂŒndeten Argument des Heimatverlustes zeichnet sich immer deutlich ab, dass bewusst nicht hörbarer Infraschall (unter 16 Hertz) die Gesundheit nicht weniger BĂŒrger belastet. Das niederfrequente Brummen erreicht hohe Schalldruckpegel von hundert Dezibel (ugs. «LautstĂ€rke») und Reichweiten von zehn Kilometern. Es kann daher sehr wohl wahrgenommen werden und stört die Gesundheit besonders empfindlicher Anwohner. Da es nicht alle Menschen oder die Mehrheit betrifft, ist die Quellenlage uneindeutig – und Windkraftgegner und BefĂŒrworter bewerten das PhĂ€nomen nach eigener Interessenlage.

WindrÀder nehmen dem Wind seine Energie. Der verlangsamte Wind bewirkt Verdampfung.

Schliesslich sticht der finanzielle Unsinn der Windkraft ins Auge: die zeitlich befristete öffentliche Förderung. Neben DĂ€nemark ist Deutschland mit knapp 30 000 Windkraftanlagen eine Hauptzone der weltweiten Windnutzung. Wobei das Land mit weniger als der HĂ€lfte des Anteils an der mitteleuropĂ€ischen Tiefebene eigentlich nicht besonders windreich ist – der kĂŒstenreiche Nachbar im Norden ist da viel besser gestellt. Das zeigt sich beim Anteil an der deutschen Stromerzeugung: 2021 lieferten die WindrĂ€der nur 111 Milliarden Kilowattstunden von insgesamt 517 Milliarden (entspricht 21 Prozent). Im selben Jahr kamen zudem erstmals seit langem keine weiteren Anlagen hinzu – die Zahl schrumpfte sogar von rund 29 600 auf 28 200. Grund dafĂŒr ist der zunehmende Widerstand von UmweltschĂŒtzern und Anwohnern in den Gemeinden.

Subventionsleichen

Wirtschaftlich sind WindrĂ€der, die das öffentliche Netz versorgen, noch nie gewesen. Deswegen werden deutsche Anlagen nach zwanzig Jahren meist abgebaut, und zwar aus folgendem Grund: Das Erneuerbare-Energien-Gesetz (EEG) garantiert den Betreibern eine steuerlich finanzierte EinspeisevergĂŒtung fĂŒr zwanzig Jahre. Ohne das wĂŒrde nicht ein einziges Netzwindrad errichtet, weil es schlicht zu teuer wĂ€re; man wĂŒrde draufzahlen. Nach dem Wegfall der Förderung sind die Anlagen unprofitabel und werden abgerissen – oder aufgestockt, um weitere zwanzig Jahre subventioniert zu werden.

Die Liste der hier aufgefĂŒhrten Nachteile der Windkraftanlagen ist lange nicht vollstĂ€ndig, eine umfassende Darstellung der Probleme wĂŒrde mindestens eine komplette Zeitung fĂŒllen. Die meisten der Nachteile sind auch schon lange bekannt, auch den grĂŒnen Eliten. So diktierte ausgerechnet der gerade geschasste deutsche WirtschaftsstaatssekretĂ€r Patrick Graichen den Journalisten der Zeit bereits Ende 2014 ins Notizheft: «Wir haben uns geirrt bei der Energiewende. Nicht in ein paar Details, sondern in einem zentralen Punkt. Die vielen WindrĂ€der und Solaranlagen, die Deutschland baut, leisten nicht das, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen werden, die schlimmste Quelle von Treibhausgasen. Doch sie tun das nicht.»

Read full Article
See More
Available on mobile and TV devices
google store google store app store app store
google store google store app tv store app tv store amazon store amazon store roku store roku store
Powered by Locals