WaltiSiegrist
Trying to find the truth in the jungle
Interested? Want to learn more about the community?
Tim Osman alias Osama bin Laden

TIM OSMAN Died in 2001 --
In March 2000 the Chicago Tribune reports that an Afghan witness and "Western intelligence official" say bin Laden is suffering from severe kidney and liver failure. Link: http://articles.chicagotribune.com/2000-03-25/news/0003250085_1_laden-bin-religious-militia
This story was also picked up by CBS News in 2000, who outright lead with the title that "Bin Laden Reported to be Dying" from "kidney disease."
Link: http://web.archive.org/web/20010212010328/http://www.cbsnews.com/now/story/0,1597,172666-412,00.shtml
In July 2001, the South Asia Analysis Group reports: "Bin Laden, who suffers from renal deficiency, has been periodically undergoing dialysis in a Peshawar military hospital with the knowledge and approval of the Inter-Services Intelligence, (ISI) if not of Gen.Pervez Musharraf himself." Link: http://web.archive.org/web/20011007021426/http://www.saag.org/papers3/paper266.html
September to November 2001: bin Laden is Trapped in Afghanistan, Unable to Receive Kidney Treatments
In September 2001, PBS' Frontline interviews the former general counsel for the CIA, mentioning reports from 1998 that the DEA found out Osama bin Laden was undergoing kidney dialysis with a doctor in Peshwar. They mention further that the DEA wanted to poison bin Laden through his dialysis machine, but the CIA allegedy rejected this due to the ban on assassinations.
Link: http://www.pbs.org/wgbh/pages/frontline/shows/terrorism/interviews/smith.html In November 2001, The Guardian is reporting that French intelligence officials say bin Laden was flown to Dubai for kidney treatment in July of 2001, where he also met with several CIA agents and the head of Saudi intelligence. This story is also picked up by several French newspapers. Link: http://www.theguardian.com/world/2001/nov/01/afghanistan.terrorism In his first interview since 9/11, in November 2001 bin Laden talks to a Pakistani newspaper and claims that his "kidneys are all right" and denies visiting a hospital in Dubai the previous year (note that he may have visited one in Pakistan). In the same interview he also asserts, clearly lying, that he has "nuclear weapons." Link: http://dawn.com/news/5647/osama-claims-he-has-nukes-if-us-uses-n-arms-it-will-get-same-response/2
December 2001: bin Laden is Dead, Buried in Afghanistan In December of 2001, the New York Times reports on "high-level murmurings that bin Laden is dead." Link: http://www.nytimes.com/2001/12/26/international/asia/26LADE.html That same day,citing a Taliban source, Fox News reports that bin Laden has died due to an "untreated lung complication" from kidney disease. About 30 "close associates" reportedly attended bin Laden's funeral in the Tora Bora region of Afghanistan. A source concludes that the U.S. government and other forces are in a "mad search operation" but will never be able to locate the now-dead bin Laden, buried in an unmarked location. Link: http://www.foxnews.com/story/2001/12/26/report-bin-laden-already-dead/
Late December 2001 to March 2002: bin Laden's "Death Video" is Released In late December of 2001, after reports of bin Laden's funeral, a new video appears of a gaunt, sickly Osama bin Laden. The London Telegraph reports, verbatim: "The recording was dismissed by the Bush administration yesterday as sick propaganda possibly designed to mask the fact the al-Qa'eda leader was already dead." One aid further concludes that the video was created earlier in the event bin Laden is dead, who by December of 2001 was so heavily surrounded he would have been unable to escape to obtain kidney dialysis. Link: http://www.telegraph.co.uk/news/worldnews/asia/afghanistan/1366508/US-casts-doubt-on-bin-Ladens-latest-message.html
At this time CBS news also runs a story on bin Laden receiving kidney disease treatments in Pakistan the week before 9/11. Link:Osama bin Laden Near Death in 2002 (from Dan Rather CBS); US Government bin Laden LIE In January of 2002, The Guardian reports that the president of Pakistan speculates that bin Laden is now dead of untreated kidney disease based on video and photographs of a gaunt-looking bin Laden. Link: http://www.theguardian.com/world/2002/jan/19/afghanistan.oliverburkeman
In January of 2002, based on his analysis of video and photographs of bin Laden from December 2001, CNN's Dr. Sanjay Gupta says that bin Laden seems to be having renal failure. He notes kidney dialysis is expensive, and suggests bin Laden would need help in obtaining medical treatment. Link: http://edition.cnn.com/2002/HEALTH/01/21/gupta.otsc/
In March 2002, the BBC reports on an interview with bin Laden's wife, who speaks of bin Laden in the past tense, notes his failing kidney and frequent use of pills and other medicines. She says she has not seen her husband since September 2001, but holds out hope that he is still alive: "I feel deep inside me that he is still alive." She also notes that bin Laden's wish was to die in Afghanistan and nowhere else: "He never spoke to me about his intention to leave Afghanistan and always wished to die there. He told me once that if he ever left Afghanistan, it would be to meet his Creator." She also says that bin Laden "always suffered from kidney and stomach pains and that he "told me once that he was going to Pakistan for treatment." Link: http://news.bbc.co.uk/2/hi/world/monitoring/media_reports/1871182.stm
In March and April of 2002, U.S. officials downplay the threat of bin Laden, with Rumsfeld even saying the bin Laden threat has been "neutralized." Even Bush, called out for rarely mentioning bin Laden in 2002, admits: "We haven't heard from him [bin Laden] in a long time... I don't know where he is. I really just don't spend that much time on him, to be honest with you." Link: Bush: Truly not concerned about bin Laden (short version) In May 2002, ABC News reports on a new spliced-together tape from unknown time periods in which bin Laden appears "about the same" (that is, sickly-looking) as in the tape from December 2011. ABC News also says they have "learned intelligence reports indicate bin Laden had received a kidney transplant in Pakistan," but do not know when. Link: http://abcnews.go.com/International/story?id=79973&page=1
July 2002: FBI Chief Says bin Laden is Most Likely Dead; Nothing from bin Laden Since December 2001 In July 2002, the BBC reveals a bombshell: the FBI's counter-terrorism chief Dale Watson says bin Laden is '"probably dead." Conveniently, bin Laden's followers' claim that bin Laden will "not make more video statements until his group launches another attack on the United States." Link: http://news.bbc.co.uk/2/hi/south_asia/2135473.stm
In July 2002, CNN reports that bin Laden's close bodyguards were captured in February of 2002, but not bin Laden. The article also quotes mentions some high-level officials: "Some high-level U.S. officials are already convinced by such evidence that bin Laden, who has not been seen or heard from in months, is dead." Link: http://web.archive.org/web/20021204040117/http://www.cnn.com/2002/US/07/30/binladen.son/
In July 2002, Time Magazine reports that "intelligence officials are not certain whether Osama bin Laden is alive or dead" but that "they have found a tantalizing Dokument that suggests he was living at least as recently as the last days of December [of 2001]." Link: http://content.time.com/time/magazine/article/0,9171,1002840,00.html In July 2002, The New York Times runs another article on how Osama bin Laden is likely dead. The author notes how unusual it would be for bin Laden, known for his constant desire for media attention, would be silent for over half a year. Link: http://www.nytimes.com/2002/07/11/opinion/the-death-of-bin-ladenism.html
October 2002: Intelligence Officials Confirm bin Laden is Dead; bin Laden's Will is Released Also in October 2002 the D.C.-based news service The World Tribune, citing Israeli intelligence sources, reports that the United States and Israel have concluded that bin Laden died in Afghanistan in December 2001. They note that additional bin Laden messages are "probably fabrications," and that bin Laden's heir has been chosen. Link: http://web.archive.org/web/20021205223313/http://216.26.163.62/2002/me_terrorism_10_16.html
The president of Afghanistan also concludes that bin Laden is probably dead: "The more we don't hear of him, and the more time passes, there is the likelihood that he probably is either dead or seriously wounded somewhere." Link: http://edition.cnn.com/2002/WORLD/asiapcf/central/10/06/karzai.binladen/ In October 2002 CNN reports that U.S. intelligence officials have obtained Osama bin Laden's will, which is dated December 14, 2001 (approximately the same date as has been reported bin Laden's funeral in Tora Bora by Fox News and other outlets). CNN also reports that there has been no evidence of bin Laden since December of 2001. Link: http://edition.cnn.com/2002/WORLD/europe/10/26/binladen.will/
2002 Onwards: Efforts to Target bin Laden are Closed Down; bin Laden = "Elvis" In 2004, the LA Times quotes Donald Rumsfeld (who mixes up Hussein with bin Laden) as admitting: "We've not seen him [bin Laden] on a video since 2001." Link: http://newsmine.org/content.php?ol=9-11/binladen/death/rumsfeld-says-no-clues-to-bin-laden-since-2001.txt
In 2006 the New York Times reports the CIA had officially closed down the unit focused on capturing bin Laden the previous year. Link: http://www.nytimes.com/2006/07/04/washington/04intel.html?ex=1309665600&en=3779ed9b98bb9d22&ei=5088&partner=rssnyt&emc=rss
In 2006, U.S. and Pakistani officials say they have not received any information about bin Laden in years: "no tips from informants, no snippets from electronic intercepts, no points on any satellite image." The article rehashes the December 2001 video of bin Laden as the most recent evidence (other than a second-hand claim from 2003) of bin Laden's existence. Some commandos are now giving Osama bin Laden the codename "Elvis." Link: http://www.washingtonpost.com/wp-dyn/content/article/2006/09/09/AR2006090901105.html
The available reports overwhelmingly supports the view that bin Laden died of kidney failure in December of 2001. We have mainstream media reports from a variety of sources, and zero credible evidence since then, as admitted by top level offiicals. Even if you believe the official story, the evidence very strongly suggests some entity (either the CIA, Saudi Royal Family, the Pakistani government, or all the above) helped bin Laden survive long enough via medical treatments to be killed at a later point in time. This very well could be the "one big lie" Seymour Hersh has mentioned in The Guardian recently.

ALL INFORMATIONS ARE GATHERED and NOT written by me....!!

post photo preview
Interested? Want to learn more about the community?
What else you may like…
Videos
Posts
Articles
Strategie der Spannung

Wer hat diese Aufnahme einer Überwachungskamera freigegeben?

Was ist das Ziel?

Das sieht mir sehr nach Boston Marathon Bombing Terror aus

https://x.com/realwsiegrist/status/1870348497020395974?s=46

https://x.com/RealWsiegrist/status/1871834070843375661

https://x.com/RealWsiegrist/status/1871834410540040489

Die Story über den Attentäter von Magdeburg stinkt.
Warum hat niemand aus dem Krankenhaus, in dem er arbeitete, mal aus Neugier seine Social Media Accounts angeschaut, auf denen er davon faselte, Menschen töten zu wollen?
Wie konnte das den Behörden entgehen?
Wenn er den Islam hasste, warum fuhr er dann auf einen Weihnachtsmarkt und nicht in eine Moschee?

https://x.com/123Koko_/status/1870438709918589379

00:00:39
Der Mossad kontrolliert die Welt

Getarnter MOSSAD-Agent erklärt „60 Minutes“, wie sie die Welt durch unauffindbare Briefkastenfirmen kontrollieren...

Sie behaupten, das Drehbuch für die Welt zu schreiben...

Ihre eigenen Worte...
https://x.com/ReturnOfKappy/status/1870996484868768115

https://x.com/RealWsiegrist/status/1871113312684921071

David Icke
https://x.com/RealWsiegrist/status/1871113863846146298


https://x.com/RealWsiegrist/status/1871115772186984579

Zion
https://waltisiegrist.locals.com/upost/2486345/the-controversy-of-zion-douglas-reed

00:01:03
Tsunami

Dominik Kettner Sucharit Bhakdi

Die Menschen als Versuchskaninchen

Ich bin von Insidern aufgeklärt worden! (Prof. Dr. Sucharit Bhkadi packt aus)

https://x.com/RealWsiegrist/status/1866788055354396884

Corona, Ukraine und die Biowaffen
https://waltisiegrist.locals.com/upost/1835360/corona-ukraine-und-die-biowaffen

00:01:17

Unter vielen anderen wurde auch die Pharma Whistleblowerin Jane Bürgermeister, die uns bereits vor dem Schweinegrippen-Betrug und den Militäroperationen gewarnt hatte, von Twitter gelöscht!

Hier ein hochzensiertes Video von 2009
https://x.com/RealWsiegrist/status/1873031571726581844

Lebt Jane Burgermeister noch?

hier ihr Aufruf von 14. Dezember 2023

https://wearechange.at/wp-content/uploads/2024/12/FProofsMitsotakisTrumpHaveKilledMillionsThroughCovidVaccinesDeliberately.pdf

https://www.wissenschaftstehtauf.ch/FProofsMitsotakisTrumpHaveKilledMillionsThroughCovidVaccinesDeliberately.pdf

https://x.com/RealWsiegrist/status/1873028168774500362

https://x.com/RealWsiegrist/status/1873036168880701931

9/11 Wohin sind die wenigen Trümmer der Stahlskelett-Zwillingstürme verschwunden?

"Stahl wurde verdampft"

Was nicht "verdampft" ist, wurde rasch nach China abgeschoben

https://x.com/RealWsiegrist/status/1871954456893702394

9/11-Märchen für Erwachsene
https://waltisiegrist.locals.com/upost/1809122/volksverdummung

post photo preview

Das Testament des Terroristen? Wirklich?

https://x.com/RealWsiegrist/status/1871808562311115058

Zum Thema Strategie der Spannung kann man sich über die Feiertage ruhig mal die Dokumentation zum angeblichen Terroranschlag auf den Boston Marathon ansehen

https://x.com/RealWsiegrist/status/1871798453874851962

NATO/Gladio/Verdeckte Kriegsführung
https://waltisiegrist.locals.com/upost/1571799/manipulation-der-massen-durch-panik

post photo preview
post photo preview
Warum spricht niemand mehr darüber?
Der geheimgehaltene Wärmefaktor für den Planeten: Silicon Valley

Von James Glanz, New York Times

https://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html

* 22. Sept. 2012

 

SANTA CLARA, Kalifornien - Jeff Rothschilds Maschinen bei Facebook hatten ein Problem, von dem er wusste, dass er es sofort lösen musste. Sie waren dabei zu schmelzen.

Das Unternehmen hatte hier einen 40 mal 60 Fuß großen Mietraum mit Racks von Computerservern vollgestopft, die zum Speichern und Verarbeiten von Informationen aus den Mitgliederkonten benötigt wurden. Der Strom, der in die Computer floss, überhitzte die Ethernet-Buchsen und andere wichtige Komponenten.

Rothschild, der technische Leiter des Unternehmens, ging mit einigen Mitarbeitern auf Entdeckungsreise, um alle Ventilatoren zu kaufen, die sie finden konnten - "Wir haben alle Walgreens in der Gegend ausgeräumt", sagte er -, um kühle Luft auf die Geräte zu blasen und die Website vor dem Ausfall zu bewahren.

Das war Anfang 2006, als Facebook nur etwa 10 Millionen Nutzer und einen Hauptserver hatte. Heute erfordern die von fast einer Milliarde Menschen erzeugten Informationen überdimensionale Versionen dieser Einrichtungen, die als Rechenzentren bezeichnet werden, mit Reihen von Servern, die sich über Hunderttausende von Quadratmetern erstrecken, und alle mit industriellen Kühlsystemen.

 

Sie sind nur ein Bruchteil der Zehntausenden von Rechenzentren, die jetzt existieren, um die gesamte Explosion digitaler Informationen zu unterstützen. Jeden Tag werden gewaltige Datenmengen in Bewegung gesetzt, wenn Menschen mit einem harmlosen Klick oder Fingertipp Filme auf iTunes herunterladen, den Kontostand ihrer Kreditkarten auf der Visa-Website überprüfen, Yahoo-E-Mails mit angehängten Dateien verschicken, Produkte auf Amazon kaufen, auf Twitter posten oder online Zeitungen lesen.

Eine einjährige Untersuchung der New York Times hat gezeigt, dass diese Grundlage der Informationsindustrie in krassem Widerspruch zu ihrem Image der schlanken Effizienz und Umweltfreundlichkeit steht.

Die meisten Rechenzentren sind so konzipiert, dass sie riesige Mengen an Energie in einer unangemessen verschwenderischen Weise verbrauchen, wie Interviews und Dokumente zeigen. Online-Unternehmen lassen ihre Anlagen in der Regel rund um die Uhr mit maximaler Kapazität laufen, egal wie hoch die Nachfrage ist. Infolgedessen können die Rechenzentren 90 Prozent oder mehr des Stroms, den sie aus dem Netz beziehen, verschwenden, so die Times.

Um sich gegen Stromausfälle zu schützen, sind sie außerdem auf eine Reihe von Generatoren angewiesen, die Dieselabgase ausstoßen. Die Verschmutzung durch Rechenzentren wird von den Behörden zunehmend als Verstoß gegen die Vorschriften zur Luftreinhaltung gewertet, wie aus Dokumenten hervorgeht. Im Silicon Valley sind viele Rechenzentren im Toxic Air Contaminant Inventory der Landesregierung aufgeführt, einer Liste mit den größten stationären Dieselverschmutzern in der Region.

Nach Schätzungen von Branchenexperten, die für die Times zusammengestellt wurden, verbrauchen die digitalen Lagerhäuser weltweit etwa 30 Milliarden Watt Strom, was in etwa der Leistung von 30 Kernkraftwerken entspricht. Den Schätzungen zufolge entfallen ein Viertel bis ein Drittel dieses Verbrauchs auf die Rechenzentren in den Vereinigten Staaten.

 

"Für die meisten Menschen, selbst für Branchenkenner, ist es erschütternd, die Zahlen und die schiere Größe dieser Systeme zu verstehen", so Peter Gross, der an der Entwicklung von Hunderten von Rechenzentren beteiligt war. "Ein einziges Rechenzentrum kann mehr Strom verbrauchen als eine mittelgroße Stadt".

Die Energieeffizienz variiert stark von Unternehmen zu Unternehmen. Im Auftrag der Times analysierte das Beratungsunternehmen McKinsey & Company den Energieverbrauch von Rechenzentren und stellte fest, dass diese im Durchschnitt nur 6 bis 12 Prozent des Stroms, mit dem ihre Server betrieben werden, für die Durchführung von Berechnungen verwenden. Der Rest diente im Wesentlichen dazu, die Server im Leerlauf zu halten und für den Fall eines Aktivitätsanstiegs, der den Betrieb verlangsamen oder zum Absturz bringen könnte, bereitzuhalten.

Ein Server ist eine Art vergrößerter Desktop-Computer ohne Bildschirm und Tastatur, der Chips zur Datenverarbeitung enthält. Im Rahmen der Studie wurden rund 20.000 Server in etwa 70 großen Rechenzentren untersucht, die das gesamte Spektrum der Wirtschaft abdecken: Pharmaunternehmen, militärische Auftragnehmer, Banken, Medienunternehmen und Regierungsbehörden.

"Dies ist ein schmutziges Geheimnis der Branche, und niemand will der Erste sein, der sich schuldig bekennt", sagte ein leitender Angestellter der Branche, der nicht genannt werden möchte, um den Ruf seines Unternehmens zu schützen. "Wären wir eine Fertigungsindustrie, wären wir sofort aus dem Geschäft".

Diese physische Realität der Daten ist weit entfernt von der Mythologie des Internets, wo das Leben in der "virtuellen" Welt stattfindet und alle Arten von Daten in der "Cloud" gespeichert werden.

Die ineffiziente Energienutzung wird weitgehend durch eine symbiotische Beziehung zwischen den Nutzern, die eine sofortige Reaktion auf einen Mausklick verlangen, und den Unternehmen, die ihr Geschäft aufs Spiel setzen, wenn sie diese Erwartung nicht erfüllen, bestimmt.

Selbst wenn der Strom auf Hochtouren läuft, reicht das nicht aus, um die Branche zufrieden zu stellen. Zusätzlich zu den Generatoren verfügen die meisten großen Rechenzentren über riesige, sich drehende Schwungräder oder Tausende von Blei-Säure-Batterien - viele davon ähnlich wie Autobatterien -, um die Computer im Falle eines Netzausfalls von nur wenigen Hundertstelsekunden mit Strom zu versorgen - eine Unterbrechung, die die Server zum Absturz bringen könnte.

 

"Es ist eine Verschwendung", sagte Dennis P. Symanski, ein leitender Forscher am Electric Power Research Institute, einer gemeinnützigen Industriegruppe. "Das sind zu viele Versicherungspolicen."

 

Mindestens ein Dutzend großer Rechenzentren wurde allein in Virginia und Illinois wegen Verstößen gegen die Luftqualitätsvorschriften verwarnt, wie aus staatlichen Unterlagen hervorgeht. Amazon wurde über einen Zeitraum von drei Jahren in Nord-Virginia mit mehr als 24 Verstößen konfrontiert, darunter der Betrieb einiger seiner Generatoren ohne eine grundlegende Umweltgenehmigung.

Einige Unternehmen geben an, dass sie umfassend überarbeitete Software und Kühlsysteme einsetzen, um die Energieverschwendung zu verringern. Dazu gehören Facebook und Google, die auch ihre Hardware überarbeitet haben. Dennoch verbrauchen die Rechenzentren von Google nach jüngsten Angaben fast 300 Millionen Watt und die von Facebook etwa 60 Millionen Watt.

Viele dieser Lösungen sind ohne Weiteres verfügbar, aber in einer risikoscheuen Branche zögern die meisten Unternehmen laut Branchenexperten, umfassende Änderungen vorzunehmen.

Die Verbesserung oder auch nur die Bewertung des Bereichs wird durch die Geheimhaltung einer Branche erschwert, die weitgehend auf dem Zugriff auf die persönlichen Daten anderer Menschen beruht.

Aus Sicherheitsgründen geben die Unternehmen in der Regel nicht einmal die Standorte ihrer Rechenzentren bekannt, die in anonymen Gebäuden untergebracht sind und streng geschützt werden. Die Unternehmen schützen ihre Technologie auch aus Wettbewerbsgründen, sagt Michael Manos, ein langjähriger Branchenexperte. "All diese Dinge spielen ineinander und fördern diese geschlossene, nur für Mitglieder zugängliche Gruppe", sagte er.

 

Diese Geheimhaltung erstreckt sich oft auch auf die Energienutzung. Erschwerend kommt hinzu, dass keine einzelne Regierungsbehörde die Befugnis hat, die Branche zu überwachen. Tatsächlich war die Bundesregierung nicht in der Lage festzustellen, wie viel Energie ihre eigenen Rechenzentren verbrauchen, so Beamte, die an einer im letzten Jahr durchgeführten Umfrage beteiligt waren.

Die Umfrage ergab jedoch, dass die Zahl der Rechenzentren der Bundesregierung von 432 im Jahr 1998 auf 2.094 im Jahr 2010 gestiegen ist.

Um die Branche zu untersuchen, beschaffte sich die Times Tausende von Seiten lokaler, staatlicher und bundesstaatlicher Aufzeichnungen, einige davon durch Gesetze zur Informationsfreiheit, die über Industrieanlagen geführt werden, die große Mengen an Energie verbrauchen. Von den Umweltbehörden wurden Kopien von Genehmigungen für Stromerzeuger und Informationen über deren Emissionen eingeholt, die dazu beitrugen, einige Standorte von Rechenzentren und Details zu deren Betrieb zu ermitteln.

Neben der Überprüfung der Unterlagen von Stromversorgern besuchte die Times auch Rechenzentren im ganzen Land und führte Hunderte von Interviews mit derzeitigen und ehemaligen Mitarbeitern und Auftragnehmern.

Einige Analysten warnen davor, dass Unternehmen, die ihre Praktiken nicht ändern, angesichts der steigenden Datenmenge und des steigenden Energieverbrauchs irgendwann vor einem Umbruch in einer Branche stehen könnten, die schon öfters große Umwälzungen erlebt hat, so auch beim Platzen der ersten Internetblase in den späten 1990er Jahren.

"Das ist einfach nicht tragbar", sagte Mark Bramfitt, ein ehemaliger leitender Angestellter eines Versorgungsunternehmens, der heute als Berater für die Energie- und Informationstechnologiebranche tätig ist. "Sie werden auf eine Mauer stoßen".

Bytes in Milliardenhöhe

In einem FC-Barcelona-T-Shirt und karierten Bermudashorts schritt Andre Tran durch ein Yahoo-Rechenzentrum in Santa Clara, wo er als Site Operations Manager tätig war. Der Bereich von Herrn Tran - es gab unter anderem Server für Fantasy-Sport und Foto-Sharing - war ein gutes Beispiel für die zahllosen Computerräume, in denen die schwappenden Datenfluten des Planeten durchlaufen oder zur Ruhe kommen.

 

Ein Gang nach dem anderen mit Servern, deren gelbe, blaue und grüne Lichter leise blinkten, stand auf einem weißen Boden, der von kleinen runden Löchern durchbrochen war, die kalte Luft ausspuckten. In jedem Server befanden sich die sich drehenden Festplatten, auf denen die Daten gespeichert waren. Der einzige Hinweis darauf, dass das Zentrum von Yahoo betrieben wurde, dessen Name nirgends zu sehen war, fand sich in einem Gewirr von Kabeln, die in den für das Unternehmen typischen Farben Lila und Gelb gefärbt waren.

"Darauf könnten sich Tausende von E-Mails befinden", sagte Herr Tran und zeigte auf einen Lagergang. "Die Leute bewahren alte E-Mails und Anhänge ewig auf, da braucht man eine Menge Platz.

Dies ist das alltägliche Gesicht digitaler Informationen - Spielerstatistiken, die in Server fließen, die Fantasiepunkte und Ligaranglisten berechnen, Schnappschüsse von fast vergessenen Urlauben, die für immer in Speichergeräten aufbewahrt werden. Erst wenn man die Wiederholungen dieser und ähnlicher Transaktionen zusammenzählt, werden sie beeindruckend.

Jedes Jahr werden die Chips in den Servern schneller und die Speichermedien dichter und billiger, aber die rasende Datenproduktion wird noch eine Stufe höher.

Jeremy Burton, ein Experte für Datenspeicherung, sagte, dass der datenintensivste Kunde, mit dem er vor 10 Jahren in einem Computertechnologieunternehmen arbeitete, etwa 50.000 Gigabyte in seiner gesamten Datenbank hatte. (Die Datenspeicherung wird in Bytes gemessen. Der Buchstabe N zum Beispiel benötigt 1 Byte zum Speichern. Ein Gigabyte ist eine Milliarde Bytes an Informationen.)

Heute werden bei der Erstellung eines einzigen 3D-Animationsfilms etwa eine Million Gigabyte in einem Rechenzentrum verarbeitet und gespeichert, so Burton, der jetzt bei EMC arbeitet, einem Unternehmen, das sich auf die Verwaltung und Speicherung von Daten spezialisiert hat.

 

Allein einer der Kunden des Unternehmens, die New Yorker Börse, produziert täglich bis zu 2.000 Gigabyte an Daten, die über Jahre hinweg gespeichert werden müssen, fügte er hinzu.

 

EMC und die International Data Corporation schätzten gemeinsam, dass im vergangenen Jahr weltweit mehr als 1,8 Billionen Gigabyte an digitalen Informationen erzeugt wurden.

"Es ist ein regelrechter Wettlauf zwischen unserer Fähigkeit, Daten zu erzeugen, und unserer Fähigkeit, Daten zu speichern und zu verwalten", sagte Burton.

Nach Schätzungen von EMC wurden etwa drei Viertel dieser Daten von normalen Verbrauchern erzeugt.

Diese Verbraucher haben kein Gefühl dafür, dass Daten physisch sind oder dass ihre Speicherung Platz und Energie verbraucht, und haben die Gewohnheit entwickelt, riesige Datendateien wie Videos und Massen-E-Mails mit Fotoanhängen hin und her zu schicken. Selbst scheinbar alltägliche Handlungen wie das Ausführen einer App, um ein italienisches Restaurant in Manhattan oder ein Taxi in Dallas zu finden, erfordern, dass die Server eingeschaltet und bereit sind, die Informationen sofort zu verarbeiten.

Die Komplexität einer einfachen Transaktion ist für die meisten Nutzer ein Rätsel: Das Versenden einer Nachricht mit Fotos an einen Nachbarn könnte eine Reise durch Hunderte oder Tausende von Kilometern an Internetleitungen und mehrere Datenzentren erfordern, bevor die E-Mail auf der anderen Straßenseite ankommt.

"Wenn Sie jemandem sagen, dass er nicht auf YouTube zugreifen oder von Netflix herunterladen kann, wird er Ihnen sagen, dass das ein gottgegebenes Recht ist", so Bruce Taylor, Vizepräsident des Uptime Institute, einer Fachorganisation für Unternehmen, die Rechenzentren nutzen.

Um all diese digitalen Aktivitäten zu unterstützen, gibt es nach Angaben der International Data Corporation inzwischen weltweit mehr als drei Millionen Rechenzentren unterschiedlichster Größe.

 

Im Jahr 2010 verbrauchten Rechenzentren landesweit rund 76 Milliarden Kilowattstunden, was etwa 2 Prozent des gesamten Stromverbrauchs im Land entspricht. Dies geht aus einer Analyse von Jonathan G. Koomey hervor, einem Forschungsstipendiaten der Stanford University, der sich seit mehr als zehn Jahren mit dem Energieverbrauch von Rechenzentren beschäftigt. DatacenterDynamics, ein in London ansässiges Unternehmen, kam zu ähnlichen Zahlen.

Die Industrie argumentiert seit langem, dass die Computerisierung von Geschäftstransaktionen und alltäglichen Aufgaben wie Bankgeschäfte und das Lesen von Büchern in der Bibliothek unter dem Strich Energie und Ressourcen spart. Doch die Papierindustrie, deren Ablösung durch das Computerzeitalter von einigen vorausgesagt wurde, verbrauchte 2010 laut Zahlen des Census Bureau, die das Electric Power Research Institute für die Times überprüft hat, 67 Milliarden Kilowattstunden aus dem Netz.

Direkte Vergleiche zwischen den Branchen sind schwierig: Papier verbraucht zusätzliche Energie durch die Verbrennung von Zellstoffabfällen und den Transport der Produkte. In Rechenzentren werden ebenfalls Millionen von Laptops, Personalcomputern und mobilen Geräten eingesetzt.

Chris Crosby, Geschäftsführer des in Dallas ansässigen Unternehmens Compass Datacenters, sagte, es sei kein unmittelbares Ende der Ausbreitung der digitalen Infrastruktur in Sicht.

"Es gibt neue Technologien und Verbesserungen", sagte Crosby, "aber es läuft immer noch alles über ein Stromkabel."

Komatöse" Stromabzüge

Die Ingenieure von Viridity Software, einem Start-up-Unternehmen, das Unternehmen bei der Verwaltung von Energieressourcen unterstützt, waren nicht überrascht von dem, was sie auf dem Boden eines ausgedehnten Rechenzentrums in der Nähe von Atlanta entdeckten.

Viridity wurde an Bord geholt, um grundlegende Diagnosetests durchzuführen. Die Ingenieure stellten fest, dass die Einrichtung, wie Dutzende andere, die sie untersucht hatten, den Großteil ihres Stroms für Server verbrauchte, die kaum etwas anderes taten, als Strom zu verbrauchen, sagte Michael Rowan, der Chief Technology Officer von Viridity.

 

Ein leitender Beamter des Rechenzentrums hatte bereits den Verdacht, dass etwas nicht stimmte. Er hatte zuvor eine eigene informelle Untersuchung durchgeführt und Server, die er für "komatös" hielt, mit roten Aufklebern versehen - der Begriff, den Ingenieure für Server verwenden, die an das Stromnetz angeschlossen sind und Energie verbrauchen, obwohl ihre Prozessoren kaum oder gar keine Rechenarbeit leisten.

"Am Ende dieses Prozesses stellten wir fest, dass unser Rechenzentrum an den Masern erkrankt war", sagte der Beamte Martin Stephens während eines Web-Seminars mit Herrn Rowan. "Es gab so viele rote Markierungen, dass es unglaublich war."

Die Viridity-Tests bestätigten Herrn Stephens' Verdacht: Bei einer Stichprobe von 333 Servern, die 2010 überwacht wurden, erwies sich mehr als die Hälfte als komatös. Insgesamt nutzten fast drei Viertel der Server in der Stichprobe im Durchschnitt weniger als 10 Prozent ihrer Rechenleistung, um Daten zu verarbeiten.

Bei dem Betreiber des Rechenzentrums handelte es sich nicht um einen kleinen App-Entwickler oder ein Online-Glücksspielunternehmen, sondern um den Datenbankriesen LexisNexis. Und das war kein Einzelfall.

 

In vielen Einrichtungen werden Server mit Anwendungen beladen und auf unbestimmte Zeit laufen gelassen, selbst wenn fast alle Benutzer verschwunden sind oder neue Versionen der gleichen Programme anderswo laufen.

"Man muss bedenken, dass die Datenexplosion dies begünstigt", so Taylor vom Uptime Institute. "Ab einem bestimmten Punkt ist niemand mehr verantwortlich, denn niemand, absolut niemand, will in den Raum gehen und einen Server ausstecken."

 

Kenneth Brill, ein Ingenieur, der 1993 das Uptime Institute gründete, sagte, dass die geringe Auslastung mit der "Erbsünde" der Branche begann.

In den frühen 1990er Jahren, so Brill, stürzten Software-Betriebssysteme, die man heute als primitiv bezeichnen würde, ab, wenn sie zu viele Aufgaben zu erledigen hatten oder sogar ein- und ausgeschaltet wurden. Als Reaktion darauf ließen die Computertechniker selten mehr als eine Anwendung auf jedem Server laufen und hielten die Maschinen rund um die Uhr in Betrieb, ganz gleich, wie sporadisch diese Anwendung in Anspruch genommen wurde.

Während die Energieaufsichtsbehörden der Regierung die Verbraucher aufforderten, Computer auszuschalten, wenn sie nicht benutzt wurden, wurde die oberste Direktive in den Rechenzentren, Computer um jeden Preis laufen zu lassen.

Ein Absturz oder eine Verlangsamung könnte das Ende einer Karriere bedeuten, so Michael Tresh, ehemaliger leitender Beamter bei Viridity. In einem Bereich, der von Cleverness und Kühnheit geprägt war, regiert heute etwas anderes: die Angst vor dem Scheitern.

"Die Betreiber von Rechenzentren leben täglich in der Angst, ihren Arbeitsplatz zu verlieren", so Tresh, "und das liegt daran, dass das Unternehmen sie im Falle eines Ausfalls nicht unterstützen wird."

In der Fachsprache wird der Anteil der Gehirnleistung eines Computers, der für Berechnungen verwendet wird, als "Auslastung" bezeichnet.

McKinsey & Company, das Beratungsunternehmen, das die Auslastungszahlen für die Times analysiert hat, beobachtet das Thema seit mindestens 2008, als es einen Bericht veröffentlichte, der außerhalb der Branche kaum Beachtung fand. Die Zahlen sind hartnäckig niedrig geblieben: Die aktuellen Ergebnisse von 6 bis 12 Prozent sind nur geringfügig besser als die von 2008. Aufgrund von Vertraulichkeitsvereinbarungen ist McKinsey nicht in der Lage, die Unternehmen zu nennen, die in die Stichprobe einbezogen wurden.

 

David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner, sagte, dass seine eigene, kürzlich durchgeführte Umfrage bei einer großen Anzahl von Rechenzentren eine typische Auslastung von 7 bis 12 Prozent ergab.

"Das ist die Art und Weise, wie wir Rechenzentren seit Jahren überdimensioniert und betrieben haben", sagte Cappuccio. "Dieses Maß an Komfort kostet eine Menge Geld. Es kostet eine Menge Energie."

Server sind nicht die einzigen Komponenten in Rechenzentren, die Energie verbrauchen. Industrielle Kühlsysteme, Schaltkreise zur Aufrechterhaltung des Ladezustands von Notstrombatterien und die einfache Verlustleistung in der umfangreichen Verkabelung tragen alle ihren Teil zum Energieverbrauch bei.

In einem typischen Rechenzentrum können diese Verluste in Verbindung mit einer geringen Auslastung dazu führen, dass die Energieverschwendung das 30-fache der Strommenge beträgt, die für den eigentlichen Zweck des Rechenzentrums verwendet wird.

Einige Unternehmen, akademische Organisationen und Forschungsgruppen haben gezeigt, dass weitaus effizientere Verfahren möglich sind, auch wenn es schwierig ist, verschiedene Arten von Aufgaben zu vergleichen.

Das National Energy Research Scientific Computing Center, das aus Clustern von Servern und Großrechnern am Lawrence Berkeley National Laboratory in Kalifornien besteht, war im Juli zu 96,4 Prozent ausgelastet, so Jeff Broughton, der Leiter des Betriebs. Die Effizienz wird erreicht, indem große Aufträge in eine Warteschlange gestellt und so geplant werden, dass die Maschinen 24 Stunden am Tag fast voll ausgelastet sind.

Das in Santa Clara ansässige Unternehmen Power Assure vermarktet eine Technologie, die es kommerziellen Rechenzentren ermöglicht, Server sicher abzuschalten, wenn sie nicht benötigt werden - zum Beispiel über Nacht.

 

Doch trotz aggressiver Programme, mit denen Silicon Valley Power seine Großkunden zum Energiesparen bewegen will, ist es nicht gelungen, auch nur ein einziges Rechenzentrum in Santa Clara zum Einsatz dieser Technik zu bewegen, so Mary Medeiros McEnroe, Managerin für Energieeffizienzprogramme bei dem Versorgungsunternehmen.

"In der IT-Gemeinschaft herrscht Nervosität darüber, dass etwas nicht zur Verfügung steht, wenn sie es brauchen", so McEnroe.

 

Die von Herrn Stephens für LexisNexis Risk Solutions durchgeführte Rationalisierung des Rechenzentrums ist ein Beispiel für die möglichen Einsparungen.

In der ersten Phase des Projekts sagte er, dass er durch die Konsolidierung der Arbeit auf weniger Servern und die Aktualisierung der Hardware eine 25.000 Quadratmeter große Einrichtung auf 10.000 Quadratmeter verkleinern konnte.

Natürlich müssen Rechenzentren jederzeit über eine gewisse Reservekapazität verfügen, und eine 100-prozentige Auslastung ist nicht möglich. Sie müssen darauf vorbereitet sein, Verkehrsspitzen zu bewältigen.

Herr Symanski vom Electric Power Research Institute sagte, dass solche niedrigen Wirkungsgrade nur in der obskuren Logik der digitalen Infrastruktur Sinn machen.

 

"Man sieht sich das an und fragt sich: Wie um alles in der Welt kann man ein Unternehmen so führen?", sagte Symanski. Die Antwort ist oft die gleiche, sagte er: "Sie bekommen keinen Bonus für die Einsparungen bei der Stromrechnung. Sie bekommen einen Bonus dafür, dass das Rechenzentrum 99,999 Prozent der Zeit verfügbar ist."

Die bestgeplanten Pläne

In Manassas im US-Bundesstaat Virginia betreibt der Einzelhandelsriese Amazon Server für seine Cloud inmitten eines LKW-Depots, eines stillgelegten Getreidesilos, eines Holzlagers und von Schrott übersäten Grundstücken, auf denen Maschinen Müllladungen für das Recycling komprimieren.

Die Server sind in zwei Amazon-Rechenzentren untergebracht, die in drei Gebäuden untergebracht sind, die wie sperrige Lagerhäuser mit grünen, gewellten Wänden aussehen. Luftschächte, die groß genug sind, um industrielle Kühlsysteme unterzubringen, ziehen sich über die Dächer; riesige Dieselgeneratoren stehen in Reihen um das Gebäude herum.

Der Begriff "Cloud" wird oft allgemein verwendet, um die Funktionen eines Rechenzentrums zu beschreiben. Genauer gesagt handelt es sich um einen Service zur Vermietung von Rechenkapazität. Diese Einrichtungen werden in erster Linie über das nationale Stromnetz versorgt, aber es sind fast immer Generatoren und Batterien vorhanden, um Strom zu liefern, wenn das Netz ausfällt.

Die Standorte in Manassas gehören zu den mindestens acht großen Rechenzentren, die Amazon in Nord-Virginia betreibt, wie aus den Unterlagen des Umweltministeriums von Virginia hervorgeht.

Die Behörde ist mit Amazon vertraut. Nach vier Inspektionen ab Oktober 2010 wurde dem Unternehmen mitgeteilt, dass die Behörde eine Geldstrafe in Höhe von 554.476 Dollar verhängen würde, weil es Dieselgeneratoren installiert und wiederholt betrieben hatte, ohne die für den Betrieb in Virginia erforderlichen Standard-Umweltgenehmigungen einzuholen.

Auch wenn es keine Stromausfälle gibt, stoßen die Notstromaggregate Abgase aus, da sie regelmäßig getestet werden müssen.

 

Nach monatelangen Verhandlungen wurde die Strafe auf 261.638 Dollar reduziert. Bei der Beurteilung des "Grades der Schuld" wurden alle 24 Verstöße als "hoch" eingestuft.

Drew Herdener, ein Sprecher von Amazon, stimmte zu, dass das Unternehmen "nicht die richtigen Genehmigungen" erhalten hatte, bevor die Generatoren eingeschaltet wurden. "Alle diese Generatoren wurden nachträglich genehmigt und zugelassen", sagte Herdener.

Die Verstöße kamen zu einer Reihe kleinerer Verstöße in einem der Rechenzentren von Amazon in Ashburn, Virginia, im Jahr 2009 hinzu, für die das Unternehmen laut den Aufzeichnungen der Behörde 3.496 Dollar zahlte.

Von all den Dingen, die vom Internet erwartet wurden, kann man mit Sicherheit sagen, dass eine Saat für die Verbreitung von Notstromdieselgeneratoren nicht dazu gehörte.

Terry Darton, ein ehemaliger Manager der Umweltbehörde von Virginia, sagte, dass in seinem 14 Bezirke umfassenden Bundesstaat Virginia so viele Generatoren für Rechenzentren genehmigt wurden, dass sie fast die Leistung eines Kernkraftwerks erreichen.

"Es ist schockierend, wie viel potenzielle Energie zur Verfügung steht", sagte Darton, der im August in den Ruhestand ging.

Es liegen keine landesweiten Zahlen über Umweltverstöße durch Rechenzentren vor, aber eine Überprüfung mehrerer Umweltbezirke deutet darauf hin, dass die Zentren allmählich die Aufmerksamkeit der Aufsichtsbehörden im ganzen Land auf sich ziehen.

In den letzten fünf Jahren erhielten beispielsweise die Internetkonzerne Savvis und Equinix im Großraum Chicago Verstöße, wie aus den Unterlagen der Illinois Environmental Protection Agency hervorgeht. Neben Amazon haben die Behörden in Nord-Virginia auch Rechenzentren von Qwest, Savvis, VeriSign und NTT America beanstandet.

 

Trotz aller Vorsichtsmaßnahmen - dem enormen Stromfluss, den Batteriebänken und dem Aufgebot an Dieselgeneratoren - kommt es immer wieder zu Pannen in den Rechenzentren.

Vor allem Amazon hatte in den letzten Jahren eine Reihe von Ausfällen in Nord-Virginia zu verzeichnen. Bei einem dieser Ausfälle, der im Mai 2010 in einer Anlage in Chantilly auftrat, waren Unternehmen, die von Amazons Cloud abhängig sind, nach Angaben des Unternehmens mehr als eine Stunde lang offline - eine Ewigkeit in der Datenbranche.

Die Ermittlung der Ursache wurde zu einer eigenen Informationspanne.

Amazon gab bekannt, dass der Ausfall ausgelöst wurde, als ein Fahrzeug gegen einen Hochspannungsmast auf einer Straße in der Nähe eines unserer Rechenzentren prallte".

Wie sich herausstellte, handelte es sich bei dem Autounfall um einen Mythos, ein Missverständnis, das von einem örtlichen Elektrizitätswerker über einen Mitarbeiter des Rechenzentrums bis hin zur Amazon-Zentrale weitergegeben wurde. Stattdessen sagte Amazon, dass seine Backup-Ausrüstung irrtümlich einen Teil des Rechenzentrums abgeschaltet hat, nachdem Dominion Virginia Power sagte, dass es sich um einen Kurzschluss an einem Strommast handelte, der zwei kurzzeitige Ausfälle verursachte.

Herr Herdener von Amazon sagte, dass das Backup-System überarbeitet worden sei und dass "wir nicht erwarten, dass sich dieser Zustand wiederholt".

Die Ursache des Problems

Letztes Jahr wurde im Nordosten eine 1 Milliarde Dollar teure Zuleitung für das nationale Stromnetz in Betrieb genommen, die sich etwa 215 Meilen vom Südwesten Pennsylvanias durch die Allegheny Mountains in West Virginia schlängelt und in Loudon County, Virginia, endet.

 

Die Arbeiten wurden von Millionen von Steuerzahlern finanziert. Steven R. Herling, ein leitender Beamter bei PJM Interconnection, einer regionalen Behörde für das Stromnetz, sagte, dass die Notwendigkeit, die wie Pilze aus dem Boden schießenden Rechenzentren in Nord-Virginia zu versorgen, den Ausschlag für das Projekt in einer ansonsten schwachen Wirtschaft gegeben habe.

Laut Jim Norvelle, einem Sprecher von Dominion Virginia Power, dem größten Energieversorger der Region, verbrauchen die Rechenzentren in diesem Gebiet inzwischen fast 500 Millionen Watt Strom. Dominion schätzt, dass der Verbrauch in den nächsten fünf Jahren auf mehr als eine Milliarde Watt ansteigen könnte.

Rechenzentren gehören zu den begehrtesten Kunden der Versorgungsunternehmen. Viele Versorgungsunternehmen im ganzen Land werben um diese Einrichtungen, weil sie fast rund um die Uhr Strom verbrauchen. Ein großer, gleichmäßiger Verbrauch ist für die Versorgungsunternehmen rentabel, da sie so ihre eigenen Stromkäufe im Voraus planen und ihre Dienstleistungen nachts vermarkten können, wenn die Nachfrage anderer Kunden sinkt.

Bramfitt, der ehemalige Geschäftsführer eines Versorgungsunternehmens, befürchtet, dass diese Dynamik eine verschwenderische Industrie dazu ermutigt, an ihren Gewohnheiten festzuhalten, das Gaspedal durchzutreten. Selbst bei all der Energie und Hardware, die in das Feld fließen, glauben andere, dass es für die derzeitigen Methoden der Datenspeicherung und -verarbeitung eine Herausforderung sein wird, mit dem digitalen Tsunami Schritt zu halten.

Einige Branchenexperten glauben, dass die Lösung in der Cloud liegt: die Zentralisierung der Datenverarbeitung in großen und gut betriebenen Datenzentren. Diese Rechenzentren würden sich stark auf eine Technologie namens Virtualisierung stützen, die es Servern ermöglicht, ihre Identitäten zu großen, flexiblen Rechenressourcen zu verschmelzen, die je nach Bedarf an die Benutzer verteilt werden können, egal wo sie sich befinden.

Einer der Befürworter dieses Ansatzes ist Herr Koomey, der Experte für Rechenzentren aus Stanford. Er sagte jedoch, dass viele Unternehmen, die versuchen, ihre eigenen Rechenzentren zu verwalten, entweder im eigenen Haus oder in gemieteten Räumen, immer noch nicht mit der neuen Cloud-Technologie vertraut sind oder ihr misstrauisch gegenüberstehen. Leider sind diese Unternehmen für den Großteil des Energieverbrauchs von Rechenzentren verantwortlich, so Koomey.

Andere äußern eine tiefe Skepsis gegenüber der Cloud und sagen, dass der manchmal mystisch klingende Glaube an ihre Möglichkeiten durch die physische Beschaffenheit der Infrastruktur, die für ihre Unterstützung erforderlich ist, widerlegt wird.

 

Durch die Nutzung der Cloud ändert sich lediglich der Ort, an dem die Anwendungen ausgeführt werden", so Hank Seader, leitender Direktor für Forschung und Ausbildung beim Uptime Institute. "Alles läuft irgendwo in einem Rechenzentrum".

Manche fragen sich, ob die Sprache des Internets selbst ein Hindernis für das Verständnis ist, wie physisch es ist und wahrscheinlich auch bleiben wird. Nehmen wir zum Beispiel die Frage der Datenspeicherung, sagte Randall H. Victora, ein Professor für Elektrotechnik an der Universität von Minnesota, der über magnetische Speichergeräte forscht.

"Wenn jemand sagt: 'Ich speichere etwas in der Cloud, dann brauchen wir keine Festplatten mehr' - dann ist die Cloud ein Festplattenlaufwerk", so Victora. "Wir bekommen sie auf die eine oder andere Weise. Wir wissen es nur nicht."

Was auch immer in den Unternehmen geschieht, es ist klar, dass die Erwartungen der Verbraucher den Bedarf an einer solch gewaltigen Infrastruktur weitgehend bestimmen.

"Das ist es, was das massive Wachstum antreibt - die Erwartung der Endnutzer, alles, jederzeit und überall nutzen zu können", sagt David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner. "Wir sind die Verursacher des Problems".

Read full Article
Unlautere Methoden gegen eine dissidente Journalistin.
Vorwürfe gegen Bundesrätin Keller-Sutters PR-Chef

Katharina Fontana (NZZ 13.6.23)

Es ist ein eher unüblicher Vorgang, dass sich eine Bundesrätin im Parlament für das Vorleben eines Chefbeamten erklären muss. In der nationalrätlichen Fragestunde vom Montag musste Finanzministerin Karin Keller-Sutter genau das tun, und man darf davon ausgehen, dass sie dies trotz ihrem Lächeln nicht amüsant fand. Konkret geht es um Pascal Hollenstein. Er ist seit wenigen Wochen verantwortlich für die Kommunikation des Finanzdepartements. Hollenstein war viele Jahre lang Journalist, bis 2022 nahm er die Stelle als Leiter Publizistik bei CH Media ein und war in dieser Funktion ein Schwergewicht in der Medienszene.

Einsatz für das «Team Jolanda»

Als er im Mai seinen neuen Job im Finanzdepartement antrat, erfolgte dies unter Nebengeräuschen. Denn Hollenstein tauchte als eine der Hauptfiguren in den sogenannten #Hateleaks auf, welche die Tamedia-Journalistin Michèle Binswanger ab Mitte Mai auf einem Internetportal portionenweise veröffentlichte. Bei den #Hateleaks handelt es sich um Auszüge aus einem privaten Chat eines Netzwerks, das im Jahr 2020 von Jolanda Spiess-Hegglin ins Leben gerufen worden war und mehrere Mitstreiterinnen umfasste. Ziel der linksfeministischen Frauengruppe war es offenbar, die ungeliebte Binswanger zu diskreditieren, und zwar gründlich: «Unser Ziel muss es sein, dass sie als Journalistin auswandern kann», wird aus dem Chat zitiert. Hintergrund des Aufruhrs war das geplante Buch, das Binswanger über die Skandalnacht der Zuger Landammannfeier schreiben und das Spiess-Hegglin verhindern wollte – ohne Erfolg.

Im Chat der Frauengruppe taucht auch der Name von Hollenstein auf, und zwar als Freund und Helfer. Laut den #Hateleaks soll er einen für einen Journalisten eigentümlich engen Austausch mit Jolanda Spiess-Hegglin gepflegt und journalistisch getarnte Öffentlichkeitsarbeit zu ihren Gunsten betrieben haben – «Hochverrat am Leser» nennt es Binswangers Portal. Tatsächlich war Hollensteins engagierter journalistischer Einsatz für Spiess-Hegglin und die stattliche Zahl von Artikeln, die er ihrer Sache widmete, in der Medienszene nicht unbemerkt geblieben. Hollenstein war allerdings nicht der einzige Journalist, den man dem «Team Jolanda» zuordnen konnte, es gab bzw. gibt auch weitere. Ebenso wie es Journalisten gab bzw. gibt, für die Spiess-Hegglin eine unwiderstehliche Reizfigur ist, gegen die sie seit Jahren unerbittlich anschreiben.

Dürre Worte der Chefin

Dasselbe Bild zeigt sich in der Politik. Definitiv nicht im «Team Jolanda» befinden sich die SVP-Nationalräte Thomas Matter und Andreas Glarner. Sie brachten das Thema #Hateleaks und Hollensteins mutmassliche Verstrickungen ins Parlament und wollten von Karin Keller-Sutter wissen, wie der Bundesrat das Verhalten von Hollenstein beurteile und ob er als Kommunikationschef noch tragbar sei.

Die Antwort, die Keller-Sutter den beiden Fragestellern gab, war denkbar kurz. «Der in den Fragen formulierte Vorwurf bezieht sich auf Artikel aus einer früheren Tätigkeit der angesprochenen Person. Der Bundesrat hat keinen Anlass, hierzu Stellung zu nehmen.» Dass sich Keller-Sutter nicht öffentlich über das frühere Verhalten ihres frischgebackenen Kommunikationschefs äussern will, ist nicht wirklich erstaunlich. Die dürren Worte bedeuten umgekehrt aber nicht, dass sich die imagebewusste und auf saubere Verhältnisse bedachte Keller-Sutter keine Gedanken über die Personalie macht. Von Hollenstein selber ist in dieser Angelegenheit nichts zu hören, er scheint die ungemütliche Sache aussitzen zu wollen.

Read full Article
post photo preview
Die dunkle Seite der Windkraft
Die Politik propagiert Windräder als günstige und ökologische Energieform. In Wirklichkeit sind Windparks ökologisch und wirtschaftlich verheerend.

 

https://weltwoche.ch/story/die-dunkle-seite-der-windkraft/

 

Windräder, Fotovoltaikanlagen und Elektroautos gelten dem modernen Europäer und Amerikaner als Sinnbild der sauberen, modernen und klimaschützenden Wirtschaft und Energieversorgung. Aber ist dieses politmedial vermittelte Bild realistisch? Klare Antwort: Nein.

Es fängt schon bei der Modernität der Windkraftanlagen an – wer gerne Hollywoodfilme schaut, entdeckt die kleinen, vielflügeligen Anlagen in fast jedem Film, der auf einem Bauernhof in der Vergangenheit spielt. Kein Wunder: In den riesigen USA waren oder sind viele abgelegene Farmen nicht an das Stromnetz der Metropolen angeschlossen. Sie produzieren dann ihren Strom mit Windrädern halt selber und legen die entsprechenden Arbeiten in die Zeitfenster, wenn der Wind weht. Das spart zudem Geld, weil man nicht die Infrastruktur der öffentlichen Netze mit bezahlen muss.

Die amerikanischen Bauern sind mit ihrer schlauen Strategie auf der Welt nicht alleine – auch in Indien, so erzählte mir ein Gaststudent in Jena, werden eigene Windkraftanlagen von landwirtschaftlichen Grossbetrieben des riesigen Subkontinentes für den Eigenverbrauch genutzt. Ins öffentliche Netz speisen sie aber nicht ein, weil die Siedlungen dauerhaft grossen Bedarf haben, der von wetterabhängigen Lieferanten nicht gedeckt werden kann.

Riesiger Flächenbedarf

Flatterstrom, Grundlast, Leistungsdichte und Erntefaktor – mit diesen Fachausdrücken lässt sich der energetische Unsinn der Windkraft umreissen. Die Begriffe gehören zu einem technischen Vokabular, das den grünen Politikern, Öko-Professoren, Energiewende-Journalisten und Klimaklebern der deutschsprachigen Länder in der Regel unbekannt ist. Da sass die Vizepräsidentin des Deutschen Bundestages, Katrin Göring-Eckardt, neulich in einer Talkshow und erklärte allen Ernstes, die Elektronen der grundlastfähigen Kernkraftwerke würden die Stromleitungen verstopfen und deswegen müssten die Windräder trotz Wind abgeschaltet werden. Dabei ist es so: Gerade Deutschland hat fast immer zu viel oder zu wenig Energie aus erneuerbaren Quellen im Netz (Flatterstrom). Ist zu wenig Strom im Netz, müssen die schnell hochfahrbaren Gaskraftwerke das ausgleichen, zusätzlich die Kohlemeiler. Ist zu viel Windstrom im Netz, müssen viele Propeller aus dem Wind gedreht werden, um eine Überlastung zu vermeiden. Ausserdem wird (nach dem Atomausstieg eher: wurde) der überschüssige Strom ins Ausland geleitet, was aufgrund der Lage Deutschlands in Mitteleuropa allerdings gut möglich ist. Zusätzlich wird – dem Vernehmen nach – von der Deutschen Bahn und anderen Betrieben, die grosse Elektromotoren besitzen, der überschüssige Strom «vernichtet», also von den Maschinen in Abwärme umgewandelt.

Auch ohne diese Probleme sind Windkraftanlagen energetisch und wirtschaftlich nicht sinnvoll, da ihre Leistungsdichte viel zu gering ist. Gemeint ist damit, wie viel Energie pro Zeiteinheit eine Maschine bereitstellen kann. Zum Vergleich: Energiemais liefert 0,2 Watt pro Quadratmeter Fläche, Fotovoltaik 10 bis 15, Wind in den Mittelgebirgen (Hessen) 45 Watt, Wasserkraft etwa 100 000, Kohle 250 000 und Urankernkraft 300 000 Watt. Man kann sich also leicht vorstellen, dass man viel mehr «erneuerbare» Kraftanlagen auf viel mehr Fläche benötigt, um dieselbe Menge elektrischer Energie – wie ein Kernkraftwerk – zu erzeugen. Beispiel: Um Deutschland ausschliesslich mit Windstrom zu versorgen, müsste man das Bundesland Bayern komplett mit Propelleranlagen vollstellen.

Um Deutschland mit Windstrom zu versorgen, müsste man Bayern komplett mit Propeller vollstellen.

Damit hängt der sogenannte Erntefaktor zusammen – das ist die Menge an Energie, die man herausbekommt, geteilt durch die investierte Energie. Auch hier rangiert die Windenergie mit dem Verhältnis 3,9 unterhalb der Wirtschaftlichkeitsschwelle gemäss OECD-Beurteilung von 7 bis 8 – im Gegensatz zu Gas- und Kohlekraftwerken mit etwa 30 und Kernkraftwerken mit etwa 75. Die neuesten Reaktortypen sollen sogar Erntefaktoren von bis zu 7000 erreichen.

Tote Vögel, Trockenheit

Neben den grundsätzlich schlechten thermodynamischen Werten schneidet die Windkraft, auch praktisch gesehen, schlecht ab: Die vom Hersteller angegebene Leistungsfähigkeit eines Rades, die Nennleistung, ist in der Regel graue Theorie, da sie nur bei optimalen Windverhältnissen erreicht wird – an Land selten. So verwundert es nicht, dass im Mittel die Volllaststunden bei Nennleistung nur knapp 19 Prozent der gesamten Betriebszeit ausmachen.

Hinzu kommt der ökologische Unsinn der Windkraft: Im Vordergrund stehen Vogelschlag und Klimaveränderung durch die Windräder selber. Dass Vögel und Fledertiere in grosser Zahl den Riesenpropellern zum Opfer fallen, ist allgemein bekannt und wird auch von Verfechtern der sogenannten erneuerbaren Energien nicht bestritten – zu viele tote Vögel und Fledermäuse finden sich am Boden. Zur Verteidigung wird argumentiert, dass Katzen und Autos viel mehr fliegende Sympathieträger töten. Das mag korrekt sein – aber wieso ein Argument? Wenn Verkehr und Haustiere schon so viele fliegende Wildtiere töten, sollte man weitere Todesursachen vermeiden, statt sie zu fördern. Ausserdem reissen Katzen zumeist siedlungsnahe Kleinvögel wie Meisen und Amseln und keine Bussarde und Rotmilane – die teilweise geschützten Greifer werden exklusiv von Windradflügeln erschlagen.

Eine im letzten Jahrzehnt zunehmend bekannter werdende Gefahr der Windparks ist die Klimaveränderung. Kürzlich gab der besonders durch Youtube bekannte Konstanzer Physikprofessor Gerd Ganteför, beileibe kein scharfer Kritiker der Klimakrisentheorie, dem Nordkurier ein Interview, in dem er auf die Austrocknung der betreffenden Regionen hinwies. Der Mechanismus ist einfach: Windräder nehmen dem Wind seine Energie – dafür sind sie ja da. Der verlangsamte Wind bewirkt Verdampfung – was wegen der geringeren Verdunstungskälte zu erhöhten Temperaturen führt.

Gesundheitlicher Unsinn

Ganteför wunderte sich dabei, dass es nur wenige Studien zu dem Thema gibt. Warum, ist klar: Findet eine Studie heraus, dass sich Region X zweimal schneller als der Rest der Welt erwärmt, fliesst das Fördergeld in Mengen. Will ein Wissenschaftler aber untersuchen, welche negativen Auswirkungen die Windfarmen haben, sind die mächtigen Profiteure der angeblichen Klimakrise weniger interessiert, das zu finanzieren. Wird es doch einmal untersucht, zum Beispiel durch Konrad Voge in Deutschland, zeigt sich eine klare Korrelation zwischen der seit 2001 heftig zunehmenden Windradverbreitung und der Niederschlagsreduktion in den Bundesländern mit vielen Windparks.

Ein weiterer verschwiegener Problempunkt ist die Entsorgung der Windkraftanlagen. Nichts hält ewig – auch die sehr robust gebauten dänischen und deutschen Windräder nicht. Die Haltbarkeit der Konstruktionen basiert vor allem auf dem massiven Einsatz von Stahlbeton – allein die Fundamente haben Ausmasse, die sich der Bürger beim Spaziergang unter dem Propeller nicht vorstellen kann. Diese bleiben nach dem Abriss einer Anlage in der Regel im Boden, weil das Heben oder Abfräsen des gigantischen Metall-Beton-Pfropfens extrem teuer wäre – der erhebliche Profit des Betreibers über zwanzig Jahre wäre dann zu gering oder ganz dahin. Selbst wenn also in ferner Zukunft die deutsche oder dänische Windkraftindustrie weitgehend beerdigt und abgetragen würde, lagerten immer noch Gigatonnen Beton-Stahl-Material auf dem Meeresboden oder unter Wiesen und Wäldern – für Jahrhunderte, Jahrtausende.

Hinzu kommt eine Verbundstoffmischung der besonders windbelasteten Rotorblätter – sie bestehen in verschiedener Kombination aus Balsaholz, Epoxidharz (und Ähnlichem) sowie Aluminium- oder Karbonfaserstreben. So stabil diese Materialien auch sein mögen – wiederverwerten lassen sie sich meist nicht, eigentlich nur verbrennen. In den USA, in Wisconsin, wurden sogar viele alte Rotorblätter schlicht vergraben, weil man sie nicht verbrennen konnte.

Windkraftanlagen werden nicht in Städten, in denen die grüne Hauptwählerklientel wohnt, sondern fernab der Metropolen auf dem Land errichtet. Dessen Bewohnerschaft, eher strukturkonservativ und selten grün wählend, klagt über den Verlust von Heimat und Landschaftsbild, wenn die Politiker und ihre Förderklientel die Hightech-Industrieanlagen in Wälder und auf Wiesen stellen. Im Januar wurde vermeldet, dass die Berliner Regierung 2 Prozent der Fläche Deutschlands mit Windrädern pflastern will – tatsächlich wird es auf mehr hinauslaufen, da eine moderne Grossanlage mit Anfahrtswegen für Schwerlastfahrzeuge und so weiter erheblichen Flächenbedarf hat.

Neben dem eher emotional begründeten Argument des Heimatverlustes zeichnet sich immer deutlich ab, dass bewusst nicht hörbarer Infraschall (unter 16 Hertz) die Gesundheit nicht weniger Bürger belastet. Das niederfrequente Brummen erreicht hohe Schalldruckpegel von hundert Dezibel (ugs. «Lautstärke») und Reichweiten von zehn Kilometern. Es kann daher sehr wohl wahrgenommen werden und stört die Gesundheit besonders empfindlicher Anwohner. Da es nicht alle Menschen oder die Mehrheit betrifft, ist die Quellenlage uneindeutig – und Windkraftgegner und Befürworter bewerten das Phänomen nach eigener Interessenlage.

Windräder nehmen dem Wind seine Energie. Der verlangsamte Wind bewirkt Verdampfung.

Schliesslich sticht der finanzielle Unsinn der Windkraft ins Auge: die zeitlich befristete öffentliche Förderung. Neben Dänemark ist Deutschland mit knapp 30 000 Windkraftanlagen eine Hauptzone der weltweiten Windnutzung. Wobei das Land mit weniger als der Hälfte des Anteils an der mitteleuropäischen Tiefebene eigentlich nicht besonders windreich ist – der küstenreiche Nachbar im Norden ist da viel besser gestellt. Das zeigt sich beim Anteil an der deutschen Stromerzeugung: 2021 lieferten die Windräder nur 111 Milliarden Kilowattstunden von insgesamt 517 Milliarden (entspricht 21 Prozent). Im selben Jahr kamen zudem erstmals seit langem keine weiteren Anlagen hinzu – die Zahl schrumpfte sogar von rund 29 600 auf 28 200. Grund dafür ist der zunehmende Widerstand von Umweltschützern und Anwohnern in den Gemeinden.

Subventionsleichen

Wirtschaftlich sind Windräder, die das öffentliche Netz versorgen, noch nie gewesen. Deswegen werden deutsche Anlagen nach zwanzig Jahren meist abgebaut, und zwar aus folgendem Grund: Das Erneuerbare-Energien-Gesetz (EEG) garantiert den Betreibern eine steuerlich finanzierte Einspeisevergütung für zwanzig Jahre. Ohne das würde nicht ein einziges Netzwindrad errichtet, weil es schlicht zu teuer wäre; man würde draufzahlen. Nach dem Wegfall der Förderung sind die Anlagen unprofitabel und werden abgerissen – oder aufgestockt, um weitere zwanzig Jahre subventioniert zu werden.

Die Liste der hier aufgeführten Nachteile der Windkraftanlagen ist lange nicht vollständig, eine umfassende Darstellung der Probleme würde mindestens eine komplette Zeitung füllen. Die meisten der Nachteile sind auch schon lange bekannt, auch den grünen Eliten. So diktierte ausgerechnet der gerade geschasste deutsche Wirtschaftsstaatssekretär Patrick Graichen den Journalisten der Zeit bereits Ende 2014 ins Notizheft: «Wir haben uns geirrt bei der Energiewende. Nicht in ein paar Details, sondern in einem zentralen Punkt. Die vielen Windräder und Solaranlagen, die Deutschland baut, leisten nicht das, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen werden, die schlimmste Quelle von Treibhausgasen. Doch sie tun das nicht.»

Read full Article
See More
Available on mobile and TV devices
google store google store app store app store
google store google store app tv store app tv store amazon store amazon store roku store roku store
Powered by Locals