WaltiSiegrist
The history of the Neocon takeover of the USA (a 4 part analysis)
By Paul Fitzgerald and Elizabeth Gould
March 25, 2023
post photo preview

 

Part 1 – American Imperialism Leads the World into Dante’s Vision of Hell

“The Gate of Hell” by Gustave Doré for Dante’s “Inferno.” (Wikimedia)

https://commons.wikimedia.org/wiki/File:Inferno_Canto_3_line_9.jpg

Lasciate ogne speranza, voi ch’intrate. (Abandon all hope ye who enter here.)”

—Dante, “The Divine Comedy,” Inferno (Part 1), Canto 3, Line 9

Before the Tomahawk Missiles start flying between Moscow and New York, Americans had better educate themselves fast about the forces and the people who claim that Russia covered up a Syrian government gas attack on its own people. Proof no longer seems to matter in the rush to further transform the world into Dante’s vision of Hell. Accusations made by anonymous sources, spurious sources and outright frauds have become enough. Washington’s paranoia and confusion bear an uncanny resemblance to the final days of the Third Reich, when the leadership in Berlin became completely unglued. Tensions have been building since fall with accusations that Russian media interfered with our presidential election and is a growing threat to America’s national security. The latest WikiLeaks release strongly suggested that it was the CIA’s own contract hackers behind Hillary Clinton’s email leaks and not Russians. The U.S. has a long reputation of accusing others of things they didn’t do and planting fake news stories to back it up in order to provide a cause for war. The work of secret counter intelligence services is to misinform the public in order to shape opinion and that’s what this is. The current U.S. government campaign to slander Russia over anything and everything it does bears all the earmarks of a classic disinformation campaign but this time even crazier. Considering that Washington has put Russia, China and Iran on its anti-globalist hit-list from which no one is allowed to escape, drummed up charges against them shouldn’t come as a surprise. But accusing the Russians of undermining American democracy and interfering in an election is tantamount to an act of war and that simply is not going to wash. This time the United States is not demonizing an ideological enemy (USSR) or a religious one (al Qaeda, ISIS, Daesh etc.). It’s making this latest venture into the blackest of propaganda a race war, the way the Nazis made their invasion of Russia a race war in 1941 and that is not a war the United States can justify or win.

The level and shrillness of the latest disinformation campaign has been growing for some time. But the American public has lived in a culture of fake news (formerly known as propaganda) for so long many have grown to accept fake news as real news. George Orwell saw this coming and here it is. As a big supporter of U.S. military intervention in Cuba and avowed practitioner of “yellow journalism”, in 1897 William Randolph Hearst admonished the illustrator he’d sent to Cuba who’d found no war to illustrate; “You furnish the pictures and I’ll furnish the war.” Hearst eventually got his war and America’s experiment in imperialism was off and running.

Americans should know by now that their country’s wars are fertile ground for biased, one-sided, xenophobic, fake news and the United States has been in a permanent state of war since 1941. Although the targets have shifted over the years, the purpose of the propaganda hasn’t. Most cultures are coerced, cajoled or simply threatened into accepting known falsehoods demonizing their enemies during wartime but no matter how frequently repeated or cleverly told—no lie can hold if the war never ends. The legendary Cold Warrior, Time and Life Magazine’s Henry Luce considered his personal fight against Communism to be “a declaration of private war.” He’d even asked one of his executives whether or not the idea was probably “unlawful and probably mad?” Nonetheless, despite his doubts about his own sanity, Luce allowed the CIA to use his Time/Life as a cover for the agency’s operations and to provide credentials to CIA personnel.

Luce was not alone in his service to the CIA’s propaganda wars. Recently declassified documents reveal the CIA’s propaganda extended to all the mainstream media outlets. Dozens of the most respected journalists and opinion makers during the Cold War considered it a privilege to keep American public opinion from straying away from CIA control.

Now that the new Cold War has turned hot, we are led to believe that the Russians have breached this wall of not-so-truthful journalists and rattled the foundation of everything we are supposed to hold dear about the purity of the U.S. election process and “freedom of the press” in America.

Black propaganda is all about lying. Authoritarian governments lie regularly. Totalitarian governments do it so often nobody believes them. A government based on democratic principles like the United States is supposed to speak the truth, but when the U.S. government’s own documents reveal it has been lying over and over again for decades, the jig is up.

Empires have been down this road before and it doesn’t end well. Americans are now being told they should consider all Russian opinion as fake and ignore any information that challenges the mainstream media and U.S. government on what is truth and what is the lie. But for the first time in memory Americans have become aware that the people Secretary of State Colin Powell once called “the crazies”, have taken the country over the cliff.

The neoconservative hitmen and hit-ladies of Washington have a long list of targets that pass from generation to generation. Their influence on American government has been catastrophic yet it never seems to end. Senator J. William Fulbright identified their irrational system for making endless war in Vietnam 45 years ago in a New Yorker article titled Reflections in Thrall to Fear.

“The truly remarkable thing about this Cold War psychology is the totally illogical transfer of the burden of proof from those who make charges to those who question them… The Cold Warriors, instead of having to say how they knew that Vietnam was part of a plan for the Communization of the world, so manipulated the terms of the public discussion as to be able to demand that the skeptics prove that it was not. If the skeptics could not then the war must go on—to end it would be recklessly risking the national security.”

Fulbright realized that Washington’s resident crazies had turned the world inside out by concluding, “We come to the ultimate illogic: war is the course of prudence and sobriety until the case for peace is proved under impossible rules of evidence [or never]–or until the enemy surrenders. Rational men cannot deal with each other on this basis.” But these were not rational men and their need to further their irrational quest only increased with the loss of the Vietnam War.

Having long forgotten the lessons of Vietnam and after a tragic repeat in Iraq that the highly respected General William Odom considered “equivalent to the Germans at Stalingrad,” the crazies are at it again. With no one to stop them, they have kicked off an updated version of the Cold War against Russia as if nothing had changed since the last one ended in 1992. The original Cold War was immensely expensive to the United States and was conducted at the height of America’s military and financial power. The United States is no longer that country. Since it was supposedly about the ideological “threat” of Communism, Americans need to ask before it’s too late exactly what kind of threat does a Capitalist/Christian Russia pose to the leader of the “Free World” this time?

Muddying the waters in a way not seen since Senator Joe McCarthy and the height of the Red Scare in the 1950s, the “Countering Disinformation and Propaganda Act” signed into law without fanfare by Obama in December 2016 officially authorizes a government censorship bureaucracy comparable only to George Orwell’s fictional Ministry of Truth in his novel 1984. Referred to as “The Global Engagement Center,” the official purpose of the new bureaucracy will be to “recognize, understand, expose, and counter foreign state and non-state propaganda and disinformation efforts aimed at undermining United States national security interests.” But the real purpose of this totally Orwellian Center will be to manage, eliminate or censor any dissenting views that challenge Washington’s newly manufactured version of the truth and to intimidate, harass or jail anyone who tries. Criminalizing dissent is nothing new in time of war, but after 16 years of ceaseless warfare in Afghanistan, a Stalingrad–like defeat in Iraq and with Henry Kissinger advising President Trump on foreign policy, the Global Engagement Center has already assumed the characteristics of a dangerous farce.

The brilliant American satirical songwriter of the 1950s and 60s Tom Lehrer once attributed his early retirement to Henry Kissinger, saying “Political satire became obsolete [in 1973] when Henry Kissinger was awarded the Nobel Peace Prize.” Kissinger’s duplicitous attempts at securing an “honorable peace” in America’s war in Vietnam deserved at least ridicule. His long, drawn out negotiations extended the war for four years at the cost of 22,000 American lives and countless Vietnamese. According to University of California researcher Larry Berman, author of 2001’s No Peace, No Honor: Nixon, Kissinger, and Betrayal in Vietnam, the Paris peace accords negotiated by Kissinger were never even expected to work, but were only to serve as a justification for a brutal and permanent air war once they were violated. Berman writes, “Nixon recognized that winning the peace, like the war would be impossible to achieve, but he planned for indefinite stalemate by using the B 52s to prop up the government of South Vietnam until the end of his presidency… but Watergate derailed the plan.”

The Vietnam War had broken the eastern establishment’s hold over foreign policy long before Nixon and Kissinger’s entry onto the scene. Détente with the Soviet Union had come about during the Johnson administration in an effort to bring some order out of the chaos and Kissinger had carried it through Nixon and Ford. But while dampening one crisis, détente created an even worse one by breaking open the longstanding internal-deep-state-struggle for control of U.S. policy toward the Soviet Union. Vietnam represented more than just a strategic defeat; it represented a conceptual failure in the half-century battle to contain Soviet-style Communism. The Pentagon Papers revealed the extent of the U.S. government’s deceit and incompetence but rather than concede that defeat and chart a new course, its proponents fought back with a Machiavellian ideological campaign known as the experiment in competitive analysis or for short; Team B.

Writing in the Los Angeles Times in August 2004 in an article titled It’s Time to Bench “Team B”, Lawrence J. Korb, a Senior Fellow at the Center for American Progress and assistant secretary of defense from 1981 to 1985 came forward on what he knew to be the real tragedy represented by 9/11. “The reports of the Sept. 11 commission and the Senate Select Committee on Intelligence missed the real problem facing the intelligence community, which is not organization or culture but something known as the “Team B” concept. And the real villains are the hard-liners who created the concept out of an unwillingness to accept the unbiased and balanced judgments of intelligence professionals.”

Part 2 – How Neocons Push for War by Cooking the Books

An 1898 cartoon features newspaper publishers Joseph Pulitzer and William Randolph Hearst dressed as a cartoon character of the day, a satire of their papers’ role in drumming up U.S. public opinion for war by Leon Barritt (Wikimedia)) https://commons.wikimedia.org/wiki/File:PulitzerHearstWarYellowKids.jpg

Most Americans outside of Washington policy circles don’t know about Team B, where it came from or what it did, nor are they aware of its roots in the Fourth International, the Trotskyist branch of the Communist International. Lawrence J. Korb, a Senior Fellow at the Center for American Progress and assistant secretary of defense from 1981 to 1985 attributed the intelligence failure represented by 9/11 to Team B and had this to say about it in a 2004 article for the Los Angeles Times.

“The roots of the problem go back to May 6, 1976, when the director of Central Intelligence, George H.W. Bush, created the first Team B… The concept of a “competitive analysis” of the data done by an alternative team had been opposed by William Colby, Bush’s predecessor as CIA director and a career professional… Although the Team B report contained little factual data it was enthusiastically received by conservative groups such as the Committee on the Present Danger. But the report turned out to be grossly inaccurate… Team B was right about one thing. The CIA estimate was indeed flawed. But it was flawed in the other direction.”

Korb went on to explain that a 1978 Senate Select Committee on Intelligence review concluded; “that the selection of Team B members had yielded a flawed composition of political views and biases. And a 1989 review concluded that the Soviet threat had been ‘substantially overestimated’ in the CIA’s annual intelligence estimates… Still, the failure of Team B in 1976 did not deter the hard-liners from challenging the CIA’s judgments for the next three decades.”

Now long forgotten, the origins of the Team B “problem” actually stretched back to the radical political views and biases of James Burnham, his association with the Communist Revolutionary Leon Trotsky and the creation of powerful eastern establishment ad hoc groups; the Committee on the Present Danger and the American Security Council. From the outset of the Cold War in the late 1940s an odd coalition of ex-Trotskyist radicals and right wing business associations had lobbied heavily for big military budgets, advanced weapons systems and aggressive action to confront Soviet Communism. Vietnam was intended to prove the brilliance of their theories, but as described by author Fred Kaplan, “Vietnam brought out the dark side of nearly everyone inside America’s national security machine. And it exposed something seamy and disturbing about the very enterprise of the defense intellectuals. It revealed that the concept of force underlying all their formulations and scenarios was an abstraction, practically useless as a guide to action.” (Wizards of Armageddon page. 336) Kaplan ends by writing “The disillusionment for some became nearly total.” Vietnam represented more than just a strategic defeat for America’s defense intellectuals; it represented a conceptual failure in the half-century battle to contain Soviet-style Communism but for Team B, that disillusionment represented the opportunity of a lifetime.

Trotskyist Intellectuals become The New York Intellectuals become Defense Intellectuals

Populated by an inbred class of former Trotskyist intellectuals, the Team B approach represented a radical transformation of America’s national security bureaucracy into a new kind of elitist cult. In the 1960s Robert McNamara’s numbers and statistics justified bad policy decisions, now personal agendas and ethnic grudges would turn American foreign policy into an ideological crusade. Today those in control of that crusade fight desperately to maintain their grip, but only by de-encrypting the evolution of this secret “double government” can anyone understand America’s unrelenting post-Vietnam drift into despotism over the last 40 years.

Rooted in what can only be described as cult thinking, the Team B experiment tore down what was left of the CIA’s pre-Vietnam professional objectivity by subjecting it to politicization. Earlier in the decade, the CIA’s Office of Strategic Research (OSR) had been pressured by Nixon and Kissinger to corrupt their analysis to justify increased defense spending but the Team B’s ideological focus and partisan makeup so exaggerated the threat, the process could never return to normal.

The campaign was driven by the Russophobic neoconservative cabal which included Paul Wolfowitz, Richard Pipes, Richard Perle and a handful of old anti-Soviet hardliners like Paul Nitze and General Danny Graham. It began with a 1974 article in the Wall Street Journal by the famed nuclear strategist and former Trotskyist Albert Wohlstetter decrying America’s supposed nuclear vulnerability. It ended 2 years later with a ritualistic bloodletting at the CIA, signaling that ideology and not fact-based analysis had gained an exclusive hold on America’s bureaucracy.

The ideology referred to as Neoconservatism can claim many godfathers if not godmothers. Roberta Wohlstetter’s reputation as one of RAND’s preeminent Cold Warriors was equal to her husband’s. The couple’s infamous parties at their Santa Monica home acted as a kind of initiation rite for the rising class of “defense intellectual”. But the title of founding-father might best be applied to James Burnham. A convert from Communist revolutionary Leon Trotsky’s inner circle, Burnham’s 1941, The Managerial Revolution and 1943’s The Machiavellians: Defenders of Freedom championed the anti-democratic takeover then occurring in Nazi Germany and Fascist Italy while in1945’s Lenin’s Heir he switched his admiration, if only tongue in cheek, from Trotsky to Stalin.

George Orwell criticized Burnham’s cynical elitist vision in his 1946 essay Second Thoughts on James Burnham, writing “What Burnham is mainly concerned to show [in The Machiavellians] is that a democratic society has never existed and, so far as we can see, never will exist. Society is of its nature oligarchical, and the power of the oligarchy always rests upon force and fraud… Power can sometimes be won and maintained without violence, but never without fraud.”

Orwell is said to have modelled his novel 1984 on Burnham’s vision of the coming totalitarian state which he described as “a new kind of society, neither capitalist nor Socialist, and probably based upon slavery.”

As a Princeton and Oxford educated English scholar (one of his professor’s at Balliol College was J.R.R Tolkien) Burnham landed a position as a writer and an instructor in the philosophy department at New York University just in time for the 1929 Wall Street crash. Although initially uninterested in politics and hostile to Marxism, by 1931Burnham had become radicalized by the Great Depression and alongside fellow NYU philosophy instructor Sidney Hook, drawn to Marxism.

Burnham found Trotsky’s use of “dialectical materialism” to explain the interplay between the human and the historical forces in his History of the Russian Revolution to be brilliant. His subsequent review of Trotsky’s book would bring the two men together and begin for Burnham a six year odyssey through America’s Communist left that would in this strange saga, ultimately transform him into the agent of its destruction.

As founder of the Red Army and a firebrand Marxist, Trotsky had dedicated his life to the spread of a worldwide Communist revolution. Stalin opposed Trotsky’s views as too ambitious and the power struggle that followed Lenin’s death splintered the party. By their very nature the Trotskyists were expert at infighting, infiltration and disruption. Burnham reveled in his role as a Trotskyist intellectual and the endless debates over the fundamental principle of Communism (dialectical materialism) behind Trotsky’s crusade. The Communist Manifesto approved the tactic of subverting larger and more populist political parties (entrism) and following Trotsky’s expulsion from the Communist party in November 1927, his followers exploited it. The most well-known example of entrism was the so called “French Turn” when in 1934 the French Trotskyists entered the much larger French Socialist Party the SFIO with the intention of winning over the more militant elements to their side.

That same year the American followers of Trotsky in the Communist League of America, the CLA did a French turn on the American Workers Party, the AWP in a move that elevated the AWP’s James Burnham into the role of a Trotsky lieutenant and chief advisor.

Burnham liked the toughness of the Bolsheviks and despised the weakness of the liberals. According to his biographer Daniel Kelly, “He took great pride in what he saw as its hard-headed view of the world in contrast to philosophies rooted in ‘dreams and illusions.’” He also delighted in the tactics of infiltrating and subverting other leftist parties and in 1935 “fought tirelessly for the French turn” of another and far larger Socialist Party the SP some twenty thousand strong. The Trotskyists intended “to capture its left wing and its youth division, the Young People’s Socialist League (YPSL),” Kelly writes “and take the converts with them when they left.”

Burnham remained a “Trotskyist Intellectual” from 1934 until 1940. But although he labored six years for the party, it was said of him that he was never of the party and as the new decade began he renounced both Trotsky and “the ‘philosophy of Marxism’ dialectical materialism” altogether. He summed up his feelings in a letter of resignation on May 21, 1940. “Of the most important beliefs, which have been associated with the Marxist Movement, whether in its reformist, Leninist, Stalinist or Trotskyist variants, there is virtually none which I accept in its traditional form. I regard these beliefs as either false or obsolete or meaningless; or in a few cases, as at best true only in a form so restricted and modified as no longer properly to be called Marxist.”

In 1976 Burnham wrote to a legendary secret agent whom biographer Kelly referred to as “the British political analyst Brian Crozier” that he had never swallowed dialectical materialism or the ideology of Marxism but was merely being pragmatic given the rise of Hitler and the Depression.

But given the influential role Burnham would come to play in creating the new revolutionary class of neoconservatives, and their central role in using Trotsky’s tactics to lobby against any relationship with the Soviet Union, it’s hard to believe Burnham’s involvement with Trotsky’s Fourth International was only an intellectual exercise in pragmatism

Part 3 – How the CIA Created a Fake Western Reality for ‘Unconventional Warfare’

“The Evil Spirits of the Modern Day Press”. Puck US magazine 1888 https://commons.wikimedia.org/wiki/File:Puck112188c.jpg ) [Public domain] via Wikimedia Commons

The odd, psychologically conflicted and politically divisive ideology referred to as Neoconservatism can claim many godfathers. Irving Kristol, father of William Kristol, Albert Wohlstetter, Daniel Bell, Norman Podhoretz and Sidney Hook come to mind and there are many others. But in both theory and its practice the title of founding-father of the neoconservative agenda of endless warfare that rules the thinking of America’s defense and foreign policies today might best be applied to James Burnham.

His writings in the 1930s provided a refined Oxford intellectual’s gloss to the Socialist Workers party and as a close advisor to Communist revolutionary Leon Trotsky and his Fourth International he learned the tactics and strategies of infiltration and political subversion first hand. Burnham reveled in his role as a “Trotskyist intellectual” pulling dirty tricks on his political foes in competing Marxist movements by turning their loyalties and looting their best talent.

Burnham renounced his allegiance to Trotsky and Marxism in all its forms in1940 but he would take their tactics and strategies for infiltration and subversion with him and would turn their method of dialectical materialism against them. His 1941book The Managerial Revolution would bring him fame and fortune and establish him as an astute, if not exactly accurate political prophet chronicling the rise of a new class of technocratic elite. His next book The Machiavellians would confirm his movement away from Marxist idealism to a very cynical and often cruel realism with his belief in the inevitable failure of democracy and the rise of the oligarch. In 1943 he would put it all to use in a memo for the U.S. Office of Strategic Services the OSS in which his Trotskyist anti-Stalinism would find its way into the agency’s thinking. And in his 1947 book The Struggle for the World, Burnham would expand his confrontational/adversarial dialectic toward the Soviet Union into a permanent, apocalyptic policy of endless war. By 1947 James Burnham’s transformation from Communist radical to New World Order American conservative was complete. His Struggle for the World had done a French Turn on Trotsky’s permanent Communist revolution and turned it into a permanent battle plan for a global American empire. All that was needed to complete Burnham’s dialectic was a permanent enemy and that would require a sophisticated psychological campaign to keep the hatred of Russia alive for generations.

The rise of the Machiavellians

In 1939 Sidney Hook, Burnham’s colleague at NYU and fellow Marxist philosopher had helped to found an anti-Stalinist Committee for Cultural Freedom as part of a campaign against Moscow. During the war Hook too had abandoned Marxism and like Burnham somehow found himself in the warm embrace of the right-wing of America’s intelligence community during and after World War II. Hook was viewed by the Communist Party as a traitor and “counter-revolutionary reptile” for his activities and by 1942 was informing on his fellow comrades to the FBI.

Selling impoverished and dispossessed European elites on the virtues of American culture was essential to building America’s empire after the war and Burnham’s early writings proved the inspiration from which a new counter-culture of “Freedom” would be built. As veterans of internecine Trotskyist warfare both Burnham and Hook were practiced at the arts of infiltration and subversion and with Burnham’s The Machiavellians: Defenders of Freedom as their blueprint they set out to color anything the Soviets did or said with dark intent.

As Burnham articulated clearly in his Machiavellians, his version of Freedom meant anything but intellectual freedom or those freedoms defined by America’s Constitution. What it really meant was conformity and submission. Burnham’s Freedom only applied to those intellectuals (the Machiavellians) willing to tell people the hard truth about the unpopular political realities they faced. These were the realities that would usher in a brave new world of the managerial class who would set about denying Americans the very democracy they thought they already owned. As Orwell observed about Burnham’s Machiavellian beliefs in his 1946 Second Thoughts, “Power can sometimes be won or maintained without violence, but never without fraud, because it is necessary to use the masses…”

By 1949 the CIA was actively in the business of defrauding the masses by secretly supporting the so called non-Communist left and behaving as if it was just a spontaneous outgrowth of a free society. By turning the left to the service of its expanding empire the CIA was applying a French Turn of its own by picking the best and the brightest and the creation of the National Security State in 1947 institutionalized it. Assisted by Britain’s Information Research Department the IRD, the CIA recruited key former Soviet disinformation agents trained before the war who had managed non-Communist front groups for Moscow and put them to work. As Frances Stoner Saunders writes in her book, The Cultural Cold War, “these former propagandists for the Soviets were recycled, bleached of the stain of Communism, embraced by government strategists who saw in their conversion an irresistible opportunity to sabotage the Soviet propaganda machine which they had once oiled.”

By its own admission the CIA’s strategy of promoting the non-Communist left would become the theoretical foundation of the Agency’s political operations against Communism for over the next two decades. But the no holds barred cultural war against Soviet Communism began in earnest in March 1949 when a group of 800 prominent literary and artistic figures gathered at New York’s Waldorf Astoria Hotel for a Soviet sponsored “Cultural and Scientific” conference that would sue for peace. Both Sydney Hook and James Burnham were already actively involved in enlisting recruits to counter Moscow’s Communist Information Bureau’s (Cominform) efforts to influence Western Opinion. But the Waldorf conference gave them an opportunity for dirty tricks they could only have prayed for.

Demonstrators organized by a right-wing coalition of Catholic groups and the American legion heckled the guests as they arrived. Catholic nuns knelt in prayer for the souls of the Communist atheists in attendance. Gathered upstairs in a tenth floor bridal suite a gang of ex-Trotskyists and Communists led by Hook intercepted the conference’s mail, doctored official press releases and published pamphlets challenging speakers to admit their Communist past.

In the end the entire conference became a twisted theatre of the absurd and Hook and Burnham would use it to sell Frank Wisner at the CIA’s Office of Policy Coordination on taking the show on the road.

The Congress for Cultural Freedom: By Hook or by Crook

Drawing on the untapped power of the Fourth International, the coming out party came on June 26, 1950 at the Titania Palace in occupied Berlin. Named for Hook’s 1939 concept for a cultural committee, The Congress for Cultural Freedom’s fourteen-point “Freedom Manifesto” was to identify the West with freedom. And since everything about the West was said to be free, free, free then it went without saying everything about the Soviet Union wasn’t.

Organized by Burnham and Hook, the American delegation represented a who’s who of America’s post war intellectuals. Tickets to Berlin were paid for by Wisner’s Office of Policy Coordination through front organizations as well as the Department of State which helped arrange travel, expenses and publicity. According to CIA Historian Michael Warner the conference’s sponsor’s considered it money well spent with one Defense Department representative calling it “unconventional warfare at its best.”

Burnham functioned as a critical connection between Wisner’s office and the intelligentsia moving from the extreme left to the extreme right with ease. Burnham found the Congress to be a place to inveigh not just against Communism but against the non-communist left as well and left many wondering whether his views weren’t as dangerous to liberal democracy as Communism. According to Frances Stoner Saunders, members of the British delegation found the rhetoric coming out of the Congress to be a deeply troubling sign of things to come. “Hugh Trevor-Roper was appalled by the provocative tone… ‘There was a speech by Franz Borkenau which was very violent and indeed almost hysterical. He spoke in German and I regret to say that as I listened and I heard the baying voices of approval from the huge audiences, I felt, well, these are the same people who seven years ago were probably baying in the same way to similar German denunciations of Communism coming from Dr. Goebbels in the Sports Palast. And I felt, well, what sort of people are we identifying with? That was the greatest shock to me. There was a moment during the Congress when I felt that we were being invited to summon up Beelzebub in order to defeat Stalin.’”

The Congress for Cultural Freedom didn’t need Beelzebub, it already had him in the form of Burnham, Hook and Wisner and by 1952 the party was just getting started. Burnham worked overtime for Wisner legitimizing the Congress as a platform for the Machiavellians alongside ex-Communists and even Nazis, including SS General Reinhard Gehlen and his German Army intelligence unit which had been brought into the CIA after the war, intact. E. Howard Hunt, Watergate “plumber” famous as a CIA dirty trickster remembered Burnham in his memoirs, “Burnham was a consultant to OPC on virtually every subject of interest to our organization… He had extensive contacts in Europe and, by virtue of his Trotskyite background, was something of an authority on domestic and foreign Communist parties and front organizations.”

In 1953 Burnham was called upon again by Wisner to reach beyond Communism to help overthrow the democratically elected Mohammed Mossadegh in Teheran apparently because Wisner thought the plan needed “a touch of Machiavelli.” But Burnham’s greatest contribution as a Machiavellian was yet to come. His book The Machiavellians: Defenders of Freedom would become the CIA’s manual for displacing Western culture with an alternative doctrine for endless conflict in a world of oligarchs and in the end open the gates to an Inferno from which there would be no return.

Part 4 – The Final Stage of the Machiavellian Elites’ Takeover of America

From Trotsky to Burnham, from Burnham to Machiavelli and Machiavelli to neoconservatism, the circle of British imperialism closes

Cover of the 1550 edition of Machiavelli’s Il Principe and La Vita di Castruccio Castracani da Lucca.

public domain wiki commons https://commons.wikimedia.org/wiki/File:Machiavelli_Principe_Cover_Page.jpg

The recent assertion by the Trump White House that Damascus and Moscow released “false narratives” to mislead the world about the April 4 Sarin gas attack in Khan Shaykhun, Syria is a dangerous next step in the “fake news” propaganda war launched in the final days of the Obama administration. It is a step whose deep roots in Communist Trotsky’s Fourth International must be understood before deciding whether American democracy can be reclaimed.

Muddying the waters of accountability in a way not seen since Senator Joe McCarthy at the height of the Red Scare in the 1950s, the “Countering Disinformation and Propaganda Act” signed into law without fanfare by Obama in December 2016 officially authorized a government censorship bureaucracy comparable only to George Orwell’s fictional Ministry of Truth in his novel 1984. Referred to as “The Global Engagement Center,” the official purpose of this new bureaucracy is to “recognize, understand, expose, and counter foreign state and non-state propaganda and disinformation efforts aimed at undermining United States national security interests.” The real purpose of this Orwellian nightmare is to cook the books on anything that challenges Washington’s neoconservative pro war narrative and to intimidate, harass or jail anyone who tries. As has already been demonstrated by President Trump’s firing of Tomahawk missiles at a Syrian government airbase, it is a recipe for a world war and like it or not, that war has already begun.

This latest attack on Russia’s supposed false narrative takes us right back to 1953 and the beginnings of the cultural war between East and West. Its roots are tied to the Congress for Cultural Freedom, to James Burnham’s pivot from Trotsky’s Fourth International to right-wing conservatism and to the rise of the neoconservative Machiavellians as a political force. As James Burnham’s The Struggle for the World stressed, the Third World War had already begun with the 1944 Communist-led Greek sailors’ revolt. In Burnham’s Manichean thinking the West was under siege. George Kennan’s Cold War policy of containment was no different than Neville Chamberlain’s policy of appeasement. Détente with the Soviet Union amounted to surrender. Peace was only a disguise for war and that war would be fought with politics, subversion, terrorism and psychological warfare. Soviet influence had to be rolled back wherever possible. That meant subverting the Soviet Union and its proxies and when necessary, subverting Western democracies as well.

The true irony of today’s late stage efforts by Washington to monopolize “truth” and attack alternate narratives isn’t just in its blatant contempt for genuine free speech. The real irony is that the entire “Freedom Manifesto” employed by the United States and Britain since World War II was never free at all; but a concoction of the CIA’s Psychological Strategy Board’s (PSB) comprehensive psychological warfare program waged on friend and foe alike.

The CIA would come to view the entire program beginning with the 1950 Berlin conference to be a landmark in the Cold War not just for solidifying the CIA’s control over the non-Communist left and the West’s “free” intellectuals, but for enabling the CIA to secretly disenfranchise Europeans and Americans from their own political culture in such a way they would never really know it.

As historian Christopher Lasch wrote in 1969 of the CIA’s cooptation of the American left, “The modern state… is an engine of propaganda, alternately manufacturing crises and claiming to be the only instrument that can effectively deal with them. This propaganda, in order to be successful, demands the cooperation of writers, teachers, and artists not as paid propagandists or state-censored time-servers but as ‘free’ intellectuals capable of policing their own jurisdictions and of enforcing acceptable standards of responsibility within the various intellectual professions.”

Key to turning these “free” intellectuals against their own interests was the CIA’s doctrinal program for Western cultural transformation contained in the document PSB D-33/2. PSB D-33/2 foretells of a “long-term intellectual movement, to: break down world-wide doctrinaire thought patterns” while “creating confusion, doubt and loss of confidence” in order to “weaken objectively the intellectual appeal of neutralism and to predispose its adherents towards the spirit of the West;” to “predispose local elites to the philosophy held by the planners,” while employing local elites “would help to disguise the American origin of the effort so that it appears to be a native development.”

While declaring itself as an antidote to Communist totalitarianism, one internal critic of the Program, PSB officer Charles Burton Marshall, viewed PSB D-33/2 itself as frighteningly totalitarian, interposing “a wide doctrinal system” that “accepts uniformity as a substitute for diversity,” embracing “all fields of human thought – all fields of intellectual interests, from anthropology and artistic creations to sociology and scientific methodology;” concluding, “That is just about as totalitarian as one can get.”

Burnham’s Machiavellian elitism lurks in every shadow of the document. As recounted in Frances Stoner Saunder’s The Cultural Cold War, “Marshall also took issue with the PSB’s reliance on ‘non-rational social theories’ which emphasized the role of an elite ‘in the manner reminiscent of Pareto, Sorel, Mussolini and so on.’ Weren’t these the models used by James Burnham in his book the Machiavellians? Perhaps there was a copy usefully to hand when PSB D-33/2 was being drafted. More likely, James Burnham himself was usefully to hand.”

Burnham was more than just at hand when it came to secretly implanting a fascist philosophy of extreme elitism into America’s Cold War orthodoxy. With The Machiavellians, Burnham had composed the manual that forged the old Trotskyist left together with a right-wing Anglo/American elite. The political offspring of that volatile union would be called neoconservatism whose overt mission would be to roll back Russian/Soviet influence everywhere. Its covert mission would be to reassert a British cultural dominance over the emerging Anglo/American Empire and maintain it through propaganda.

Hard at work on that task since 1946 was the secret Information Research Department of the British and Commonwealth Foreign Office known as the IRD.

Rarely spoken of in the context of CIA-funded secret operations, the IRD served as a covert anti-Communist propaganda unit from 1946 until 1977. According to Paul Lashmar and James Oliver, authors of Britain’s Secret Propaganda War, “the vast IRD enterprise had one sole aim: To spread its ceaseless propaganda output (i.e. a mixture of outright lies and distorted facts) among top-ranking journalists who worked for major agencies and magazines, including Reuters and the BBC, as well as every other available channel. It worked abroad to discredit communist parties in Western Europe which might gain a share of power by entirely democratic means, and at home to discredit the British Left”.

IRD was to become a self-fulfilling disinformation machine for the far-right-wing of the international intelligence elite, at once offering fabricated and distorted information to “independent” news outlets and then using the laundered story as “proof” of the false story’s validity. One such front enterprise established with CIA money was Forum World Features, operated at one time by Burnham acolyte Brian Rossiter Crozier. Described by Burnham’s biographer Daniel Kelly as a “British political analyst” in reality the legendary Brian Crozier functioned for over fifty years as one of Britain’s top propagandists and secret agents.

If anyone today is shocked by the biased, one-sided, xenophobic rush to judgement alleging Russian influence over the 2016 presidential election, they need look no further than to Brian Crozier’s closet for the blueprints. As we were told outright by an American military officer during the first war in Afghanistan in 1982, the U.S. didn’t need “proof the Soviets used poison gas” and they don’t need proof against Russia now. Crozier might best be described as a daydream believer, a dangerous imperialist who acts out his dreams with open eyes. From the beginning of the Cold War until his death in 2012 Crozier and his protégé Robert Moss propagandized on behalf of military dictators Francisco Franco and Augusto Pinochet, organized private intelligence organizations to destabilize governments in the Middle East, Asia, Latin America and Africa and worked to delegitimize politicians in Europe and Britain viewed as insufficiently anti-Communist. The mandate of his Institute for the Study of Conflict (ISC) set up in 1970 was to expose the supposed KGB campaign of worldwide subversion and put out stories smearing anyone who questioned it as a dupe, a traitor or Communist spy. Crozier regarded The Machiavellians as a major formative influence in his own intellectual development, and wrote in 1976 “indeed it was this book above all others that first taught me how [emphasis Crozier] to think about politics”. The key to Crozier’s thinking was Burnham’s distinction between the “formal” meaning of political speech and the “real”, a concept which was of course grasped only by elites. In a 1976 article Crozier marveled at how Burnham’s understanding of politics had spanned 600 years and how the use of “the formal” to conceal “the real” was no different today than when used by Dante Alighieri’s “presumably enlightened Medieval mind.” “The point is as valid now as it was in ancient times and in the Florentine Middle Ages, or in 1943. Overwhelmingly, political writers and speakers still use Dante’s method. Depending on the degree of obfuscation required (either by circumstances or the person’s character), the divorce between formal and real meaning is more of less absolute.”

But Crozier was more than just a strategic thinker. Crozier was a high level covert political agent who put Burnham’s talent for obfuscation and his Fourth International experience to use to undermine détente and set the stage for rolling back the Soviet Union.

In a secret meeting at a City of London bank in February 1977 he even patented a private sector operational intelligence organization known at the 6th International (6I) to pick up where Burnham left off; politicizing and of course privatizing many of the dirty tricks the CIA and other intelligence services could no longer be caught doing. As he explained in his memoir Free Agent, the name 6I was chosen “Because the Fourth International split. The Fourth International was the Trotskyist one, and when it split, this meant that, on paper there were five Internationals. In the numbers game, we would constitute the Sixth International, or ‘6I’”.

Croziers cooperation with numerous “able and diligent Congressional staffers” as well as “the remarkable General Vernon (‘Dick’) Walters, recently retired as Deputy Director of Central Intelligence,..” cemented the rise of the neoconservatives. When Carter caved in to the Team B and his neoconservative National Security Advisor Zbigniew Brzezinski’s plot to lure the Soviets and into their own Vietnam in Afghanistan it fulfilled Burnham’s mission and delivered the world to the Machiavellians without anyone being the wiser. As George Orwell wrote in his Second Thoughts on James Burnham, “What Burnham is mainly concerned to show [in The Machiavellians] is that a democratic society has never existed and, so far as we can see, never will exist. Society is of its nature oligarchical, and the power of the oligarchy always rests upon force and fraud… Power can sometimes be won and maintained without violence, but never without fraud.”

Today Burnham’s use of Dante’s political Treatise, De Monarchia to explain his Medieval understanding of politics might best be swapped for Dante’s Divine Comedy, a paranoid comedy of errors in which the door to hell swings open to one and all, including the elites regardless of their status. Or as they say in Hell, Lasciate ogne speranza, voi ch’intrate. Abandon hope all ye who enter here.

Paul Fitzgerald and Elizabeth Gould are the authors of Invisible History: Afghanistan’s Untold Story, Crossing Zero The AfPak War at the Turning Point of American Empire and The Voice. Visit their websites at invisiblehistory and grailwerk

sources:

Part 1: American Imperialism Leads the World Into Dante’s Vision of Hell

Part 2: How Neocons Push for War by Cooking the Books

Part 3: How the CIA Created a Fake Western Reality for ‘Unconventional Warfare’

Part 4 – The Final Stage of the Machiavellian Elites’ Takeover of America

The Essential Saker: from the trenches of the emerging multipolar world

community logo
Join the WaltiSiegrist Community
To read more articles like this, sign up and join my community today
0
What else you may like…
Videos
Posts
Articles
Cali-Fornication

25 Jahre später
😳 Ist der Song "Californication" prophetisch für die heutige Zeit?
(🇩🇪 dt. Untertitel)

Schon erstaunlich dieses Paralellen!

👉 Natürlich darf gerne jeder reininterpretieren was er möchte, aber ich denke dem ein oder anderen wird Ähnliches dazu einfallen....

👉 Jedenfalls werden heisse Eisen angefasst: Klimadebatte, geozentrisches Weltbild, Bevölkerungskontrolle, Fake-Behauptung der Raumfahrt ...ein richtiger SCHWURBELSONG 😳😆

Empfehle mal das Wort "Fornication" zu googeln 😁

https://t.me/traukeinempromioffiziell/4918

https://x.com/RealWsiegrist/status/1783041651620901360

00:01:01
"Der Bundesrat ist schlicht und einfach überfordert"

Die sagt nicht irgendwer, sondern zweimaliger Bundespräsident Ueli Maurer!

Zum Beispiel hat er keine Ahnung, dass es eine immune Behörde in der Schweiz namens GAVI gibt!

https://x.com/RealWsiegrist/status/1778362805889933713

00:06:28
Schöner Anlass, trauriger Grund
00:04:52

Die Wirtschaftsprofessorin Caroline Fohlin wurde von Beamten brutal zu Boden geworfen.

Was war ihr Verbrechen?

Friedlich gegen Völkermord zu protestieren.

Willkommen in den Vereinigten Staaten von Israel.

https://x.com/KhayamTV/status/1783718985374322860

https://x.com/RealWsiegrist/status/1783737595215679770

post photo preview

Popcorn für uns Verschwörungstheoretiker. Die Welt ist eine Bühne…

Pascal Najadi bei Alex Jones. Die Reaktion von Alex Jones ist interessant.

https://x.com/RealAlexJones/status/1782542697510711374

https://x.com/RealWsiegrist/status/1782580016519188821

https://x.com/barbouillech/status/1723307813424816455?s=20

post photo preview

Erst später habe ich angefangen, Fragen zu stellen. Warum betraf AIDS vor allem schwule Männer im Westen, aber heterosexuelle Paare in Afrika? Woher kam die Krankheit plötzlich? Warum wird über etwas, das so tödlich ist und für das es keine Heilung gibt, heutzutage nicht mehr viel gesprochen? Wenn es keine Heilung gibt, wie funktioniert dann die Behandlung?

Am Rande meines Bewusstseins wusste ich, dass es Menschen gab, die das offizielle HIV- und AIDS-Narrativ in Frage stellten. Ich habe sie nicht als Verrückte abgetan, sondern einfach mit den Schultern gezuckt. Ich war kein wacher Normalbürger, wie ich es heute bin. Ich schlief fest und hinterfragte nicht.

Die COVID-Jahre haben alles verändert. Sie bringen mich dazu, alles in Frage zu stellen, was ich für selbstverständlich gehalten habe, vor allem, wenn die Quelle die Regierung und die Mainstream-Medien sind.

Mysteriöse Herkunft, keine Behandlung, tödlicher, weit verbreiteter, ansteckender Virus, Angstporno, Einsatz ...

post photo preview
post photo preview
Warum spricht niemand mehr darüber?
Der geheimgehaltene Wärmefaktor für den Planeten: Silicon Valley

Von James Glanz, New York Times

https://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html

* 22. Sept. 2012

 

SANTA CLARA, Kalifornien - Jeff Rothschilds Maschinen bei Facebook hatten ein Problem, von dem er wusste, dass er es sofort lösen musste. Sie waren dabei zu schmelzen.

Das Unternehmen hatte hier einen 40 mal 60 Fuß großen Mietraum mit Racks von Computerservern vollgestopft, die zum Speichern und Verarbeiten von Informationen aus den Mitgliederkonten benötigt wurden. Der Strom, der in die Computer floss, überhitzte die Ethernet-Buchsen und andere wichtige Komponenten.

Rothschild, der technische Leiter des Unternehmens, ging mit einigen Mitarbeitern auf Entdeckungsreise, um alle Ventilatoren zu kaufen, die sie finden konnten - "Wir haben alle Walgreens in der Gegend ausgeräumt", sagte er -, um kühle Luft auf die Geräte zu blasen und die Website vor dem Ausfall zu bewahren.

Das war Anfang 2006, als Facebook nur etwa 10 Millionen Nutzer und einen Hauptserver hatte. Heute erfordern die von fast einer Milliarde Menschen erzeugten Informationen überdimensionale Versionen dieser Einrichtungen, die als Rechenzentren bezeichnet werden, mit Reihen von Servern, die sich über Hunderttausende von Quadratmetern erstrecken, und alle mit industriellen Kühlsystemen.

 

Sie sind nur ein Bruchteil der Zehntausenden von Rechenzentren, die jetzt existieren, um die gesamte Explosion digitaler Informationen zu unterstützen. Jeden Tag werden gewaltige Datenmengen in Bewegung gesetzt, wenn Menschen mit einem harmlosen Klick oder Fingertipp Filme auf iTunes herunterladen, den Kontostand ihrer Kreditkarten auf der Visa-Website überprüfen, Yahoo-E-Mails mit angehängten Dateien verschicken, Produkte auf Amazon kaufen, auf Twitter posten oder online Zeitungen lesen.

Eine einjährige Untersuchung der New York Times hat gezeigt, dass diese Grundlage der Informationsindustrie in krassem Widerspruch zu ihrem Image der schlanken Effizienz und Umweltfreundlichkeit steht.

Die meisten Rechenzentren sind so konzipiert, dass sie riesige Mengen an Energie in einer unangemessen verschwenderischen Weise verbrauchen, wie Interviews und Dokumente zeigen. Online-Unternehmen lassen ihre Anlagen in der Regel rund um die Uhr mit maximaler Kapazität laufen, egal wie hoch die Nachfrage ist. Infolgedessen können die Rechenzentren 90 Prozent oder mehr des Stroms, den sie aus dem Netz beziehen, verschwenden, so die Times.

Um sich gegen Stromausfälle zu schützen, sind sie außerdem auf eine Reihe von Generatoren angewiesen, die Dieselabgase ausstoßen. Die Verschmutzung durch Rechenzentren wird von den Behörden zunehmend als Verstoß gegen die Vorschriften zur Luftreinhaltung gewertet, wie aus Dokumenten hervorgeht. Im Silicon Valley sind viele Rechenzentren im Toxic Air Contaminant Inventory der Landesregierung aufgeführt, einer Liste mit den größten stationären Dieselverschmutzern in der Region.

Nach Schätzungen von Branchenexperten, die für die Times zusammengestellt wurden, verbrauchen die digitalen Lagerhäuser weltweit etwa 30 Milliarden Watt Strom, was in etwa der Leistung von 30 Kernkraftwerken entspricht. Den Schätzungen zufolge entfallen ein Viertel bis ein Drittel dieses Verbrauchs auf die Rechenzentren in den Vereinigten Staaten.

 

"Für die meisten Menschen, selbst für Branchenkenner, ist es erschütternd, die Zahlen und die schiere Größe dieser Systeme zu verstehen", so Peter Gross, der an der Entwicklung von Hunderten von Rechenzentren beteiligt war. "Ein einziges Rechenzentrum kann mehr Strom verbrauchen als eine mittelgroße Stadt".

Die Energieeffizienz variiert stark von Unternehmen zu Unternehmen. Im Auftrag der Times analysierte das Beratungsunternehmen McKinsey & Company den Energieverbrauch von Rechenzentren und stellte fest, dass diese im Durchschnitt nur 6 bis 12 Prozent des Stroms, mit dem ihre Server betrieben werden, für die Durchführung von Berechnungen verwenden. Der Rest diente im Wesentlichen dazu, die Server im Leerlauf zu halten und für den Fall eines Aktivitätsanstiegs, der den Betrieb verlangsamen oder zum Absturz bringen könnte, bereitzuhalten.

Ein Server ist eine Art vergrößerter Desktop-Computer ohne Bildschirm und Tastatur, der Chips zur Datenverarbeitung enthält. Im Rahmen der Studie wurden rund 20.000 Server in etwa 70 großen Rechenzentren untersucht, die das gesamte Spektrum der Wirtschaft abdecken: Pharmaunternehmen, militärische Auftragnehmer, Banken, Medienunternehmen und Regierungsbehörden.

"Dies ist ein schmutziges Geheimnis der Branche, und niemand will der Erste sein, der sich schuldig bekennt", sagte ein leitender Angestellter der Branche, der nicht genannt werden möchte, um den Ruf seines Unternehmens zu schützen. "Wären wir eine Fertigungsindustrie, wären wir sofort aus dem Geschäft".

Diese physische Realität der Daten ist weit entfernt von der Mythologie des Internets, wo das Leben in der "virtuellen" Welt stattfindet und alle Arten von Daten in der "Cloud" gespeichert werden.

Die ineffiziente Energienutzung wird weitgehend durch eine symbiotische Beziehung zwischen den Nutzern, die eine sofortige Reaktion auf einen Mausklick verlangen, und den Unternehmen, die ihr Geschäft aufs Spiel setzen, wenn sie diese Erwartung nicht erfüllen, bestimmt.

Selbst wenn der Strom auf Hochtouren läuft, reicht das nicht aus, um die Branche zufrieden zu stellen. Zusätzlich zu den Generatoren verfügen die meisten großen Rechenzentren über riesige, sich drehende Schwungräder oder Tausende von Blei-Säure-Batterien - viele davon ähnlich wie Autobatterien -, um die Computer im Falle eines Netzausfalls von nur wenigen Hundertstelsekunden mit Strom zu versorgen - eine Unterbrechung, die die Server zum Absturz bringen könnte.

 

"Es ist eine Verschwendung", sagte Dennis P. Symanski, ein leitender Forscher am Electric Power Research Institute, einer gemeinnützigen Industriegruppe. "Das sind zu viele Versicherungspolicen."

 

Mindestens ein Dutzend großer Rechenzentren wurde allein in Virginia und Illinois wegen Verstößen gegen die Luftqualitätsvorschriften verwarnt, wie aus staatlichen Unterlagen hervorgeht. Amazon wurde über einen Zeitraum von drei Jahren in Nord-Virginia mit mehr als 24 Verstößen konfrontiert, darunter der Betrieb einiger seiner Generatoren ohne eine grundlegende Umweltgenehmigung.

Einige Unternehmen geben an, dass sie umfassend überarbeitete Software und Kühlsysteme einsetzen, um die Energieverschwendung zu verringern. Dazu gehören Facebook und Google, die auch ihre Hardware überarbeitet haben. Dennoch verbrauchen die Rechenzentren von Google nach jüngsten Angaben fast 300 Millionen Watt und die von Facebook etwa 60 Millionen Watt.

Viele dieser Lösungen sind ohne Weiteres verfügbar, aber in einer risikoscheuen Branche zögern die meisten Unternehmen laut Branchenexperten, umfassende Änderungen vorzunehmen.

Die Verbesserung oder auch nur die Bewertung des Bereichs wird durch die Geheimhaltung einer Branche erschwert, die weitgehend auf dem Zugriff auf die persönlichen Daten anderer Menschen beruht.

Aus Sicherheitsgründen geben die Unternehmen in der Regel nicht einmal die Standorte ihrer Rechenzentren bekannt, die in anonymen Gebäuden untergebracht sind und streng geschützt werden. Die Unternehmen schützen ihre Technologie auch aus Wettbewerbsgründen, sagt Michael Manos, ein langjähriger Branchenexperte. "All diese Dinge spielen ineinander und fördern diese geschlossene, nur für Mitglieder zugängliche Gruppe", sagte er.

 

Diese Geheimhaltung erstreckt sich oft auch auf die Energienutzung. Erschwerend kommt hinzu, dass keine einzelne Regierungsbehörde die Befugnis hat, die Branche zu überwachen. Tatsächlich war die Bundesregierung nicht in der Lage festzustellen, wie viel Energie ihre eigenen Rechenzentren verbrauchen, so Beamte, die an einer im letzten Jahr durchgeführten Umfrage beteiligt waren.

Die Umfrage ergab jedoch, dass die Zahl der Rechenzentren der Bundesregierung von 432 im Jahr 1998 auf 2.094 im Jahr 2010 gestiegen ist.

Um die Branche zu untersuchen, beschaffte sich die Times Tausende von Seiten lokaler, staatlicher und bundesstaatlicher Aufzeichnungen, einige davon durch Gesetze zur Informationsfreiheit, die über Industrieanlagen geführt werden, die große Mengen an Energie verbrauchen. Von den Umweltbehörden wurden Kopien von Genehmigungen für Stromerzeuger und Informationen über deren Emissionen eingeholt, die dazu beitrugen, einige Standorte von Rechenzentren und Details zu deren Betrieb zu ermitteln.

Neben der Überprüfung der Unterlagen von Stromversorgern besuchte die Times auch Rechenzentren im ganzen Land und führte Hunderte von Interviews mit derzeitigen und ehemaligen Mitarbeitern und Auftragnehmern.

Einige Analysten warnen davor, dass Unternehmen, die ihre Praktiken nicht ändern, angesichts der steigenden Datenmenge und des steigenden Energieverbrauchs irgendwann vor einem Umbruch in einer Branche stehen könnten, die schon öfters große Umwälzungen erlebt hat, so auch beim Platzen der ersten Internetblase in den späten 1990er Jahren.

"Das ist einfach nicht tragbar", sagte Mark Bramfitt, ein ehemaliger leitender Angestellter eines Versorgungsunternehmens, der heute als Berater für die Energie- und Informationstechnologiebranche tätig ist. "Sie werden auf eine Mauer stoßen".

Bytes in Milliardenhöhe

In einem FC-Barcelona-T-Shirt und karierten Bermudashorts schritt Andre Tran durch ein Yahoo-Rechenzentrum in Santa Clara, wo er als Site Operations Manager tätig war. Der Bereich von Herrn Tran - es gab unter anderem Server für Fantasy-Sport und Foto-Sharing - war ein gutes Beispiel für die zahllosen Computerräume, in denen die schwappenden Datenfluten des Planeten durchlaufen oder zur Ruhe kommen.

 

Ein Gang nach dem anderen mit Servern, deren gelbe, blaue und grüne Lichter leise blinkten, stand auf einem weißen Boden, der von kleinen runden Löchern durchbrochen war, die kalte Luft ausspuckten. In jedem Server befanden sich die sich drehenden Festplatten, auf denen die Daten gespeichert waren. Der einzige Hinweis darauf, dass das Zentrum von Yahoo betrieben wurde, dessen Name nirgends zu sehen war, fand sich in einem Gewirr von Kabeln, die in den für das Unternehmen typischen Farben Lila und Gelb gefärbt waren.

"Darauf könnten sich Tausende von E-Mails befinden", sagte Herr Tran und zeigte auf einen Lagergang. "Die Leute bewahren alte E-Mails und Anhänge ewig auf, da braucht man eine Menge Platz.

Dies ist das alltägliche Gesicht digitaler Informationen - Spielerstatistiken, die in Server fließen, die Fantasiepunkte und Ligaranglisten berechnen, Schnappschüsse von fast vergessenen Urlauben, die für immer in Speichergeräten aufbewahrt werden. Erst wenn man die Wiederholungen dieser und ähnlicher Transaktionen zusammenzählt, werden sie beeindruckend.

Jedes Jahr werden die Chips in den Servern schneller und die Speichermedien dichter und billiger, aber die rasende Datenproduktion wird noch eine Stufe höher.

Jeremy Burton, ein Experte für Datenspeicherung, sagte, dass der datenintensivste Kunde, mit dem er vor 10 Jahren in einem Computertechnologieunternehmen arbeitete, etwa 50.000 Gigabyte in seiner gesamten Datenbank hatte. (Die Datenspeicherung wird in Bytes gemessen. Der Buchstabe N zum Beispiel benötigt 1 Byte zum Speichern. Ein Gigabyte ist eine Milliarde Bytes an Informationen.)

Heute werden bei der Erstellung eines einzigen 3D-Animationsfilms etwa eine Million Gigabyte in einem Rechenzentrum verarbeitet und gespeichert, so Burton, der jetzt bei EMC arbeitet, einem Unternehmen, das sich auf die Verwaltung und Speicherung von Daten spezialisiert hat.

 

Allein einer der Kunden des Unternehmens, die New Yorker Börse, produziert täglich bis zu 2.000 Gigabyte an Daten, die über Jahre hinweg gespeichert werden müssen, fügte er hinzu.

 

EMC und die International Data Corporation schätzten gemeinsam, dass im vergangenen Jahr weltweit mehr als 1,8 Billionen Gigabyte an digitalen Informationen erzeugt wurden.

"Es ist ein regelrechter Wettlauf zwischen unserer Fähigkeit, Daten zu erzeugen, und unserer Fähigkeit, Daten zu speichern und zu verwalten", sagte Burton.

Nach Schätzungen von EMC wurden etwa drei Viertel dieser Daten von normalen Verbrauchern erzeugt.

Diese Verbraucher haben kein Gefühl dafür, dass Daten physisch sind oder dass ihre Speicherung Platz und Energie verbraucht, und haben die Gewohnheit entwickelt, riesige Datendateien wie Videos und Massen-E-Mails mit Fotoanhängen hin und her zu schicken. Selbst scheinbar alltägliche Handlungen wie das Ausführen einer App, um ein italienisches Restaurant in Manhattan oder ein Taxi in Dallas zu finden, erfordern, dass die Server eingeschaltet und bereit sind, die Informationen sofort zu verarbeiten.

Die Komplexität einer einfachen Transaktion ist für die meisten Nutzer ein Rätsel: Das Versenden einer Nachricht mit Fotos an einen Nachbarn könnte eine Reise durch Hunderte oder Tausende von Kilometern an Internetleitungen und mehrere Datenzentren erfordern, bevor die E-Mail auf der anderen Straßenseite ankommt.

"Wenn Sie jemandem sagen, dass er nicht auf YouTube zugreifen oder von Netflix herunterladen kann, wird er Ihnen sagen, dass das ein gottgegebenes Recht ist", so Bruce Taylor, Vizepräsident des Uptime Institute, einer Fachorganisation für Unternehmen, die Rechenzentren nutzen.

Um all diese digitalen Aktivitäten zu unterstützen, gibt es nach Angaben der International Data Corporation inzwischen weltweit mehr als drei Millionen Rechenzentren unterschiedlichster Größe.

 

Im Jahr 2010 verbrauchten Rechenzentren landesweit rund 76 Milliarden Kilowattstunden, was etwa 2 Prozent des gesamten Stromverbrauchs im Land entspricht. Dies geht aus einer Analyse von Jonathan G. Koomey hervor, einem Forschungsstipendiaten der Stanford University, der sich seit mehr als zehn Jahren mit dem Energieverbrauch von Rechenzentren beschäftigt. DatacenterDynamics, ein in London ansässiges Unternehmen, kam zu ähnlichen Zahlen.

Die Industrie argumentiert seit langem, dass die Computerisierung von Geschäftstransaktionen und alltäglichen Aufgaben wie Bankgeschäfte und das Lesen von Büchern in der Bibliothek unter dem Strich Energie und Ressourcen spart. Doch die Papierindustrie, deren Ablösung durch das Computerzeitalter von einigen vorausgesagt wurde, verbrauchte 2010 laut Zahlen des Census Bureau, die das Electric Power Research Institute für die Times überprüft hat, 67 Milliarden Kilowattstunden aus dem Netz.

Direkte Vergleiche zwischen den Branchen sind schwierig: Papier verbraucht zusätzliche Energie durch die Verbrennung von Zellstoffabfällen und den Transport der Produkte. In Rechenzentren werden ebenfalls Millionen von Laptops, Personalcomputern und mobilen Geräten eingesetzt.

Chris Crosby, Geschäftsführer des in Dallas ansässigen Unternehmens Compass Datacenters, sagte, es sei kein unmittelbares Ende der Ausbreitung der digitalen Infrastruktur in Sicht.

"Es gibt neue Technologien und Verbesserungen", sagte Crosby, "aber es läuft immer noch alles über ein Stromkabel."

Komatöse" Stromabzüge

Die Ingenieure von Viridity Software, einem Start-up-Unternehmen, das Unternehmen bei der Verwaltung von Energieressourcen unterstützt, waren nicht überrascht von dem, was sie auf dem Boden eines ausgedehnten Rechenzentrums in der Nähe von Atlanta entdeckten.

Viridity wurde an Bord geholt, um grundlegende Diagnosetests durchzuführen. Die Ingenieure stellten fest, dass die Einrichtung, wie Dutzende andere, die sie untersucht hatten, den Großteil ihres Stroms für Server verbrauchte, die kaum etwas anderes taten, als Strom zu verbrauchen, sagte Michael Rowan, der Chief Technology Officer von Viridity.

 

Ein leitender Beamter des Rechenzentrums hatte bereits den Verdacht, dass etwas nicht stimmte. Er hatte zuvor eine eigene informelle Untersuchung durchgeführt und Server, die er für "komatös" hielt, mit roten Aufklebern versehen - der Begriff, den Ingenieure für Server verwenden, die an das Stromnetz angeschlossen sind und Energie verbrauchen, obwohl ihre Prozessoren kaum oder gar keine Rechenarbeit leisten.

"Am Ende dieses Prozesses stellten wir fest, dass unser Rechenzentrum an den Masern erkrankt war", sagte der Beamte Martin Stephens während eines Web-Seminars mit Herrn Rowan. "Es gab so viele rote Markierungen, dass es unglaublich war."

Die Viridity-Tests bestätigten Herrn Stephens' Verdacht: Bei einer Stichprobe von 333 Servern, die 2010 überwacht wurden, erwies sich mehr als die Hälfte als komatös. Insgesamt nutzten fast drei Viertel der Server in der Stichprobe im Durchschnitt weniger als 10 Prozent ihrer Rechenleistung, um Daten zu verarbeiten.

Bei dem Betreiber des Rechenzentrums handelte es sich nicht um einen kleinen App-Entwickler oder ein Online-Glücksspielunternehmen, sondern um den Datenbankriesen LexisNexis. Und das war kein Einzelfall.

 

In vielen Einrichtungen werden Server mit Anwendungen beladen und auf unbestimmte Zeit laufen gelassen, selbst wenn fast alle Benutzer verschwunden sind oder neue Versionen der gleichen Programme anderswo laufen.

"Man muss bedenken, dass die Datenexplosion dies begünstigt", so Taylor vom Uptime Institute. "Ab einem bestimmten Punkt ist niemand mehr verantwortlich, denn niemand, absolut niemand, will in den Raum gehen und einen Server ausstecken."

 

Kenneth Brill, ein Ingenieur, der 1993 das Uptime Institute gründete, sagte, dass die geringe Auslastung mit der "Erbsünde" der Branche begann.

In den frühen 1990er Jahren, so Brill, stürzten Software-Betriebssysteme, die man heute als primitiv bezeichnen würde, ab, wenn sie zu viele Aufgaben zu erledigen hatten oder sogar ein- und ausgeschaltet wurden. Als Reaktion darauf ließen die Computertechniker selten mehr als eine Anwendung auf jedem Server laufen und hielten die Maschinen rund um die Uhr in Betrieb, ganz gleich, wie sporadisch diese Anwendung in Anspruch genommen wurde.

Während die Energieaufsichtsbehörden der Regierung die Verbraucher aufforderten, Computer auszuschalten, wenn sie nicht benutzt wurden, wurde die oberste Direktive in den Rechenzentren, Computer um jeden Preis laufen zu lassen.

Ein Absturz oder eine Verlangsamung könnte das Ende einer Karriere bedeuten, so Michael Tresh, ehemaliger leitender Beamter bei Viridity. In einem Bereich, der von Cleverness und Kühnheit geprägt war, regiert heute etwas anderes: die Angst vor dem Scheitern.

"Die Betreiber von Rechenzentren leben täglich in der Angst, ihren Arbeitsplatz zu verlieren", so Tresh, "und das liegt daran, dass das Unternehmen sie im Falle eines Ausfalls nicht unterstützen wird."

In der Fachsprache wird der Anteil der Gehirnleistung eines Computers, der für Berechnungen verwendet wird, als "Auslastung" bezeichnet.

McKinsey & Company, das Beratungsunternehmen, das die Auslastungszahlen für die Times analysiert hat, beobachtet das Thema seit mindestens 2008, als es einen Bericht veröffentlichte, der außerhalb der Branche kaum Beachtung fand. Die Zahlen sind hartnäckig niedrig geblieben: Die aktuellen Ergebnisse von 6 bis 12 Prozent sind nur geringfügig besser als die von 2008. Aufgrund von Vertraulichkeitsvereinbarungen ist McKinsey nicht in der Lage, die Unternehmen zu nennen, die in die Stichprobe einbezogen wurden.

 

David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner, sagte, dass seine eigene, kürzlich durchgeführte Umfrage bei einer großen Anzahl von Rechenzentren eine typische Auslastung von 7 bis 12 Prozent ergab.

"Das ist die Art und Weise, wie wir Rechenzentren seit Jahren überdimensioniert und betrieben haben", sagte Cappuccio. "Dieses Maß an Komfort kostet eine Menge Geld. Es kostet eine Menge Energie."

Server sind nicht die einzigen Komponenten in Rechenzentren, die Energie verbrauchen. Industrielle Kühlsysteme, Schaltkreise zur Aufrechterhaltung des Ladezustands von Notstrombatterien und die einfache Verlustleistung in der umfangreichen Verkabelung tragen alle ihren Teil zum Energieverbrauch bei.

In einem typischen Rechenzentrum können diese Verluste in Verbindung mit einer geringen Auslastung dazu führen, dass die Energieverschwendung das 30-fache der Strommenge beträgt, die für den eigentlichen Zweck des Rechenzentrums verwendet wird.

Einige Unternehmen, akademische Organisationen und Forschungsgruppen haben gezeigt, dass weitaus effizientere Verfahren möglich sind, auch wenn es schwierig ist, verschiedene Arten von Aufgaben zu vergleichen.

Das National Energy Research Scientific Computing Center, das aus Clustern von Servern und Großrechnern am Lawrence Berkeley National Laboratory in Kalifornien besteht, war im Juli zu 96,4 Prozent ausgelastet, so Jeff Broughton, der Leiter des Betriebs. Die Effizienz wird erreicht, indem große Aufträge in eine Warteschlange gestellt und so geplant werden, dass die Maschinen 24 Stunden am Tag fast voll ausgelastet sind.

Das in Santa Clara ansässige Unternehmen Power Assure vermarktet eine Technologie, die es kommerziellen Rechenzentren ermöglicht, Server sicher abzuschalten, wenn sie nicht benötigt werden - zum Beispiel über Nacht.

 

Doch trotz aggressiver Programme, mit denen Silicon Valley Power seine Großkunden zum Energiesparen bewegen will, ist es nicht gelungen, auch nur ein einziges Rechenzentrum in Santa Clara zum Einsatz dieser Technik zu bewegen, so Mary Medeiros McEnroe, Managerin für Energieeffizienzprogramme bei dem Versorgungsunternehmen.

"In der IT-Gemeinschaft herrscht Nervosität darüber, dass etwas nicht zur Verfügung steht, wenn sie es brauchen", so McEnroe.

 

Die von Herrn Stephens für LexisNexis Risk Solutions durchgeführte Rationalisierung des Rechenzentrums ist ein Beispiel für die möglichen Einsparungen.

In der ersten Phase des Projekts sagte er, dass er durch die Konsolidierung der Arbeit auf weniger Servern und die Aktualisierung der Hardware eine 25.000 Quadratmeter große Einrichtung auf 10.000 Quadratmeter verkleinern konnte.

Natürlich müssen Rechenzentren jederzeit über eine gewisse Reservekapazität verfügen, und eine 100-prozentige Auslastung ist nicht möglich. Sie müssen darauf vorbereitet sein, Verkehrsspitzen zu bewältigen.

Herr Symanski vom Electric Power Research Institute sagte, dass solche niedrigen Wirkungsgrade nur in der obskuren Logik der digitalen Infrastruktur Sinn machen.

 

"Man sieht sich das an und fragt sich: Wie um alles in der Welt kann man ein Unternehmen so führen?", sagte Symanski. Die Antwort ist oft die gleiche, sagte er: "Sie bekommen keinen Bonus für die Einsparungen bei der Stromrechnung. Sie bekommen einen Bonus dafür, dass das Rechenzentrum 99,999 Prozent der Zeit verfügbar ist."

Die bestgeplanten Pläne

In Manassas im US-Bundesstaat Virginia betreibt der Einzelhandelsriese Amazon Server für seine Cloud inmitten eines LKW-Depots, eines stillgelegten Getreidesilos, eines Holzlagers und von Schrott übersäten Grundstücken, auf denen Maschinen Müllladungen für das Recycling komprimieren.

Die Server sind in zwei Amazon-Rechenzentren untergebracht, die in drei Gebäuden untergebracht sind, die wie sperrige Lagerhäuser mit grünen, gewellten Wänden aussehen. Luftschächte, die groß genug sind, um industrielle Kühlsysteme unterzubringen, ziehen sich über die Dächer; riesige Dieselgeneratoren stehen in Reihen um das Gebäude herum.

Der Begriff "Cloud" wird oft allgemein verwendet, um die Funktionen eines Rechenzentrums zu beschreiben. Genauer gesagt handelt es sich um einen Service zur Vermietung von Rechenkapazität. Diese Einrichtungen werden in erster Linie über das nationale Stromnetz versorgt, aber es sind fast immer Generatoren und Batterien vorhanden, um Strom zu liefern, wenn das Netz ausfällt.

Die Standorte in Manassas gehören zu den mindestens acht großen Rechenzentren, die Amazon in Nord-Virginia betreibt, wie aus den Unterlagen des Umweltministeriums von Virginia hervorgeht.

Die Behörde ist mit Amazon vertraut. Nach vier Inspektionen ab Oktober 2010 wurde dem Unternehmen mitgeteilt, dass die Behörde eine Geldstrafe in Höhe von 554.476 Dollar verhängen würde, weil es Dieselgeneratoren installiert und wiederholt betrieben hatte, ohne die für den Betrieb in Virginia erforderlichen Standard-Umweltgenehmigungen einzuholen.

Auch wenn es keine Stromausfälle gibt, stoßen die Notstromaggregate Abgase aus, da sie regelmäßig getestet werden müssen.

 

Nach monatelangen Verhandlungen wurde die Strafe auf 261.638 Dollar reduziert. Bei der Beurteilung des "Grades der Schuld" wurden alle 24 Verstöße als "hoch" eingestuft.

Drew Herdener, ein Sprecher von Amazon, stimmte zu, dass das Unternehmen "nicht die richtigen Genehmigungen" erhalten hatte, bevor die Generatoren eingeschaltet wurden. "Alle diese Generatoren wurden nachträglich genehmigt und zugelassen", sagte Herdener.

Die Verstöße kamen zu einer Reihe kleinerer Verstöße in einem der Rechenzentren von Amazon in Ashburn, Virginia, im Jahr 2009 hinzu, für die das Unternehmen laut den Aufzeichnungen der Behörde 3.496 Dollar zahlte.

Von all den Dingen, die vom Internet erwartet wurden, kann man mit Sicherheit sagen, dass eine Saat für die Verbreitung von Notstromdieselgeneratoren nicht dazu gehörte.

Terry Darton, ein ehemaliger Manager der Umweltbehörde von Virginia, sagte, dass in seinem 14 Bezirke umfassenden Bundesstaat Virginia so viele Generatoren für Rechenzentren genehmigt wurden, dass sie fast die Leistung eines Kernkraftwerks erreichen.

"Es ist schockierend, wie viel potenzielle Energie zur Verfügung steht", sagte Darton, der im August in den Ruhestand ging.

Es liegen keine landesweiten Zahlen über Umweltverstöße durch Rechenzentren vor, aber eine Überprüfung mehrerer Umweltbezirke deutet darauf hin, dass die Zentren allmählich die Aufmerksamkeit der Aufsichtsbehörden im ganzen Land auf sich ziehen.

In den letzten fünf Jahren erhielten beispielsweise die Internetkonzerne Savvis und Equinix im Großraum Chicago Verstöße, wie aus den Unterlagen der Illinois Environmental Protection Agency hervorgeht. Neben Amazon haben die Behörden in Nord-Virginia auch Rechenzentren von Qwest, Savvis, VeriSign und NTT America beanstandet.

 

Trotz aller Vorsichtsmaßnahmen - dem enormen Stromfluss, den Batteriebänken und dem Aufgebot an Dieselgeneratoren - kommt es immer wieder zu Pannen in den Rechenzentren.

Vor allem Amazon hatte in den letzten Jahren eine Reihe von Ausfällen in Nord-Virginia zu verzeichnen. Bei einem dieser Ausfälle, der im Mai 2010 in einer Anlage in Chantilly auftrat, waren Unternehmen, die von Amazons Cloud abhängig sind, nach Angaben des Unternehmens mehr als eine Stunde lang offline - eine Ewigkeit in der Datenbranche.

Die Ermittlung der Ursache wurde zu einer eigenen Informationspanne.

Amazon gab bekannt, dass der Ausfall ausgelöst wurde, als ein Fahrzeug gegen einen Hochspannungsmast auf einer Straße in der Nähe eines unserer Rechenzentren prallte".

Wie sich herausstellte, handelte es sich bei dem Autounfall um einen Mythos, ein Missverständnis, das von einem örtlichen Elektrizitätswerker über einen Mitarbeiter des Rechenzentrums bis hin zur Amazon-Zentrale weitergegeben wurde. Stattdessen sagte Amazon, dass seine Backup-Ausrüstung irrtümlich einen Teil des Rechenzentrums abgeschaltet hat, nachdem Dominion Virginia Power sagte, dass es sich um einen Kurzschluss an einem Strommast handelte, der zwei kurzzeitige Ausfälle verursachte.

Herr Herdener von Amazon sagte, dass das Backup-System überarbeitet worden sei und dass "wir nicht erwarten, dass sich dieser Zustand wiederholt".

Die Ursache des Problems

Letztes Jahr wurde im Nordosten eine 1 Milliarde Dollar teure Zuleitung für das nationale Stromnetz in Betrieb genommen, die sich etwa 215 Meilen vom Südwesten Pennsylvanias durch die Allegheny Mountains in West Virginia schlängelt und in Loudon County, Virginia, endet.

 

Die Arbeiten wurden von Millionen von Steuerzahlern finanziert. Steven R. Herling, ein leitender Beamter bei PJM Interconnection, einer regionalen Behörde für das Stromnetz, sagte, dass die Notwendigkeit, die wie Pilze aus dem Boden schießenden Rechenzentren in Nord-Virginia zu versorgen, den Ausschlag für das Projekt in einer ansonsten schwachen Wirtschaft gegeben habe.

Laut Jim Norvelle, einem Sprecher von Dominion Virginia Power, dem größten Energieversorger der Region, verbrauchen die Rechenzentren in diesem Gebiet inzwischen fast 500 Millionen Watt Strom. Dominion schätzt, dass der Verbrauch in den nächsten fünf Jahren auf mehr als eine Milliarde Watt ansteigen könnte.

Rechenzentren gehören zu den begehrtesten Kunden der Versorgungsunternehmen. Viele Versorgungsunternehmen im ganzen Land werben um diese Einrichtungen, weil sie fast rund um die Uhr Strom verbrauchen. Ein großer, gleichmäßiger Verbrauch ist für die Versorgungsunternehmen rentabel, da sie so ihre eigenen Stromkäufe im Voraus planen und ihre Dienstleistungen nachts vermarkten können, wenn die Nachfrage anderer Kunden sinkt.

Bramfitt, der ehemalige Geschäftsführer eines Versorgungsunternehmens, befürchtet, dass diese Dynamik eine verschwenderische Industrie dazu ermutigt, an ihren Gewohnheiten festzuhalten, das Gaspedal durchzutreten. Selbst bei all der Energie und Hardware, die in das Feld fließen, glauben andere, dass es für die derzeitigen Methoden der Datenspeicherung und -verarbeitung eine Herausforderung sein wird, mit dem digitalen Tsunami Schritt zu halten.

Einige Branchenexperten glauben, dass die Lösung in der Cloud liegt: die Zentralisierung der Datenverarbeitung in großen und gut betriebenen Datenzentren. Diese Rechenzentren würden sich stark auf eine Technologie namens Virtualisierung stützen, die es Servern ermöglicht, ihre Identitäten zu großen, flexiblen Rechenressourcen zu verschmelzen, die je nach Bedarf an die Benutzer verteilt werden können, egal wo sie sich befinden.

Einer der Befürworter dieses Ansatzes ist Herr Koomey, der Experte für Rechenzentren aus Stanford. Er sagte jedoch, dass viele Unternehmen, die versuchen, ihre eigenen Rechenzentren zu verwalten, entweder im eigenen Haus oder in gemieteten Räumen, immer noch nicht mit der neuen Cloud-Technologie vertraut sind oder ihr misstrauisch gegenüberstehen. Leider sind diese Unternehmen für den Großteil des Energieverbrauchs von Rechenzentren verantwortlich, so Koomey.

Andere äußern eine tiefe Skepsis gegenüber der Cloud und sagen, dass der manchmal mystisch klingende Glaube an ihre Möglichkeiten durch die physische Beschaffenheit der Infrastruktur, die für ihre Unterstützung erforderlich ist, widerlegt wird.

 

Durch die Nutzung der Cloud ändert sich lediglich der Ort, an dem die Anwendungen ausgeführt werden", so Hank Seader, leitender Direktor für Forschung und Ausbildung beim Uptime Institute. "Alles läuft irgendwo in einem Rechenzentrum".

Manche fragen sich, ob die Sprache des Internets selbst ein Hindernis für das Verständnis ist, wie physisch es ist und wahrscheinlich auch bleiben wird. Nehmen wir zum Beispiel die Frage der Datenspeicherung, sagte Randall H. Victora, ein Professor für Elektrotechnik an der Universität von Minnesota, der über magnetische Speichergeräte forscht.

"Wenn jemand sagt: 'Ich speichere etwas in der Cloud, dann brauchen wir keine Festplatten mehr' - dann ist die Cloud ein Festplattenlaufwerk", so Victora. "Wir bekommen sie auf die eine oder andere Weise. Wir wissen es nur nicht."

Was auch immer in den Unternehmen geschieht, es ist klar, dass die Erwartungen der Verbraucher den Bedarf an einer solch gewaltigen Infrastruktur weitgehend bestimmen.

"Das ist es, was das massive Wachstum antreibt - die Erwartung der Endnutzer, alles, jederzeit und überall nutzen zu können", sagt David Cappuccio, Managing Vice President und Leiter der Forschungsabteilung des Technologieforschungsunternehmens Gartner. "Wir sind die Verursacher des Problems".

Read full Article
Unlautere Methoden gegen eine dissidente Journalistin.
Vorwürfe gegen Bundesrätin Keller-Sutters PR-Chef

Katharina Fontana (NZZ 13.6.23)

Es ist ein eher unüblicher Vorgang, dass sich eine Bundesrätin im Parlament für das Vorleben eines Chefbeamten erklären muss. In der nationalrätlichen Fragestunde vom Montag musste Finanzministerin Karin Keller-Sutter genau das tun, und man darf davon ausgehen, dass sie dies trotz ihrem Lächeln nicht amüsant fand. Konkret geht es um Pascal Hollenstein. Er ist seit wenigen Wochen verantwortlich für die Kommunikation des Finanzdepartements. Hollenstein war viele Jahre lang Journalist, bis 2022 nahm er die Stelle als Leiter Publizistik bei CH Media ein und war in dieser Funktion ein Schwergewicht in der Medienszene.

Einsatz für das «Team Jolanda»

Als er im Mai seinen neuen Job im Finanzdepartement antrat, erfolgte dies unter Nebengeräuschen. Denn Hollenstein tauchte als eine der Hauptfiguren in den sogenannten #Hateleaks auf, welche die Tamedia-Journalistin Michèle Binswanger ab Mitte Mai auf einem Internetportal portionenweise veröffentlichte. Bei den #Hateleaks handelt es sich um Auszüge aus einem privaten Chat eines Netzwerks, das im Jahr 2020 von Jolanda Spiess-Hegglin ins Leben gerufen worden war und mehrere Mitstreiterinnen umfasste. Ziel der linksfeministischen Frauengruppe war es offenbar, die ungeliebte Binswanger zu diskreditieren, und zwar gründlich: «Unser Ziel muss es sein, dass sie als Journalistin auswandern kann», wird aus dem Chat zitiert. Hintergrund des Aufruhrs war das geplante Buch, das Binswanger über die Skandalnacht der Zuger Landammannfeier schreiben und das Spiess-Hegglin verhindern wollte – ohne Erfolg.

Im Chat der Frauengruppe taucht auch der Name von Hollenstein auf, und zwar als Freund und Helfer. Laut den #Hateleaks soll er einen für einen Journalisten eigentümlich engen Austausch mit Jolanda Spiess-Hegglin gepflegt und journalistisch getarnte Öffentlichkeitsarbeit zu ihren Gunsten betrieben haben – «Hochverrat am Leser» nennt es Binswangers Portal. Tatsächlich war Hollensteins engagierter journalistischer Einsatz für Spiess-Hegglin und die stattliche Zahl von Artikeln, die er ihrer Sache widmete, in der Medienszene nicht unbemerkt geblieben. Hollenstein war allerdings nicht der einzige Journalist, den man dem «Team Jolanda» zuordnen konnte, es gab bzw. gibt auch weitere. Ebenso wie es Journalisten gab bzw. gibt, für die Spiess-Hegglin eine unwiderstehliche Reizfigur ist, gegen die sie seit Jahren unerbittlich anschreiben.

Dürre Worte der Chefin

Dasselbe Bild zeigt sich in der Politik. Definitiv nicht im «Team Jolanda» befinden sich die SVP-Nationalräte Thomas Matter und Andreas Glarner. Sie brachten das Thema #Hateleaks und Hollensteins mutmassliche Verstrickungen ins Parlament und wollten von Karin Keller-Sutter wissen, wie der Bundesrat das Verhalten von Hollenstein beurteile und ob er als Kommunikationschef noch tragbar sei.

Die Antwort, die Keller-Sutter den beiden Fragestellern gab, war denkbar kurz. «Der in den Fragen formulierte Vorwurf bezieht sich auf Artikel aus einer früheren Tätigkeit der angesprochenen Person. Der Bundesrat hat keinen Anlass, hierzu Stellung zu nehmen.» Dass sich Keller-Sutter nicht öffentlich über das frühere Verhalten ihres frischgebackenen Kommunikationschefs äussern will, ist nicht wirklich erstaunlich. Die dürren Worte bedeuten umgekehrt aber nicht, dass sich die imagebewusste und auf saubere Verhältnisse bedachte Keller-Sutter keine Gedanken über die Personalie macht. Von Hollenstein selber ist in dieser Angelegenheit nichts zu hören, er scheint die ungemütliche Sache aussitzen zu wollen.

Read full Article
post photo preview
Die dunkle Seite der Windkraft
Die Politik propagiert Windräder als günstige und ökologische Energieform. In Wirklichkeit sind Windparks ökologisch und wirtschaftlich verheerend.

 

https://weltwoche.ch/story/die-dunkle-seite-der-windkraft/

 

Windräder, Fotovoltaikanlagen und Elektroautos gelten dem modernen Europäer und Amerikaner als Sinnbild der sauberen, modernen und klimaschützenden Wirtschaft und Energieversorgung. Aber ist dieses politmedial vermittelte Bild realistisch? Klare Antwort: Nein.

Es fängt schon bei der Modernität der Windkraftanlagen an – wer gerne Hollywoodfilme schaut, entdeckt die kleinen, vielflügeligen Anlagen in fast jedem Film, der auf einem Bauernhof in der Vergangenheit spielt. Kein Wunder: In den riesigen USA waren oder sind viele abgelegene Farmen nicht an das Stromnetz der Metropolen angeschlossen. Sie produzieren dann ihren Strom mit Windrädern halt selber und legen die entsprechenden Arbeiten in die Zeitfenster, wenn der Wind weht. Das spart zudem Geld, weil man nicht die Infrastruktur der öffentlichen Netze mit bezahlen muss.

Die amerikanischen Bauern sind mit ihrer schlauen Strategie auf der Welt nicht alleine – auch in Indien, so erzählte mir ein Gaststudent in Jena, werden eigene Windkraftanlagen von landwirtschaftlichen Grossbetrieben des riesigen Subkontinentes für den Eigenverbrauch genutzt. Ins öffentliche Netz speisen sie aber nicht ein, weil die Siedlungen dauerhaft grossen Bedarf haben, der von wetterabhängigen Lieferanten nicht gedeckt werden kann.

Riesiger Flächenbedarf

Flatterstrom, Grundlast, Leistungsdichte und Erntefaktor – mit diesen Fachausdrücken lässt sich der energetische Unsinn der Windkraft umreissen. Die Begriffe gehören zu einem technischen Vokabular, das den grünen Politikern, Öko-Professoren, Energiewende-Journalisten und Klimaklebern der deutschsprachigen Länder in der Regel unbekannt ist. Da sass die Vizepräsidentin des Deutschen Bundestages, Katrin Göring-Eckardt, neulich in einer Talkshow und erklärte allen Ernstes, die Elektronen der grundlastfähigen Kernkraftwerke würden die Stromleitungen verstopfen und deswegen müssten die Windräder trotz Wind abgeschaltet werden. Dabei ist es so: Gerade Deutschland hat fast immer zu viel oder zu wenig Energie aus erneuerbaren Quellen im Netz (Flatterstrom). Ist zu wenig Strom im Netz, müssen die schnell hochfahrbaren Gaskraftwerke das ausgleichen, zusätzlich die Kohlemeiler. Ist zu viel Windstrom im Netz, müssen viele Propeller aus dem Wind gedreht werden, um eine Überlastung zu vermeiden. Ausserdem wird (nach dem Atomausstieg eher: wurde) der überschüssige Strom ins Ausland geleitet, was aufgrund der Lage Deutschlands in Mitteleuropa allerdings gut möglich ist. Zusätzlich wird – dem Vernehmen nach – von der Deutschen Bahn und anderen Betrieben, die grosse Elektromotoren besitzen, der überschüssige Strom «vernichtet», also von den Maschinen in Abwärme umgewandelt.

Auch ohne diese Probleme sind Windkraftanlagen energetisch und wirtschaftlich nicht sinnvoll, da ihre Leistungsdichte viel zu gering ist. Gemeint ist damit, wie viel Energie pro Zeiteinheit eine Maschine bereitstellen kann. Zum Vergleich: Energiemais liefert 0,2 Watt pro Quadratmeter Fläche, Fotovoltaik 10 bis 15, Wind in den Mittelgebirgen (Hessen) 45 Watt, Wasserkraft etwa 100 000, Kohle 250 000 und Urankernkraft 300 000 Watt. Man kann sich also leicht vorstellen, dass man viel mehr «erneuerbare» Kraftanlagen auf viel mehr Fläche benötigt, um dieselbe Menge elektrischer Energie – wie ein Kernkraftwerk – zu erzeugen. Beispiel: Um Deutschland ausschliesslich mit Windstrom zu versorgen, müsste man das Bundesland Bayern komplett mit Propelleranlagen vollstellen.

Um Deutschland mit Windstrom zu versorgen, müsste man Bayern komplett mit Propeller vollstellen.

Damit hängt der sogenannte Erntefaktor zusammen – das ist die Menge an Energie, die man herausbekommt, geteilt durch die investierte Energie. Auch hier rangiert die Windenergie mit dem Verhältnis 3,9 unterhalb der Wirtschaftlichkeitsschwelle gemäss OECD-Beurteilung von 7 bis 8 – im Gegensatz zu Gas- und Kohlekraftwerken mit etwa 30 und Kernkraftwerken mit etwa 75. Die neuesten Reaktortypen sollen sogar Erntefaktoren von bis zu 7000 erreichen.

Tote Vögel, Trockenheit

Neben den grundsätzlich schlechten thermodynamischen Werten schneidet die Windkraft, auch praktisch gesehen, schlecht ab: Die vom Hersteller angegebene Leistungsfähigkeit eines Rades, die Nennleistung, ist in der Regel graue Theorie, da sie nur bei optimalen Windverhältnissen erreicht wird – an Land selten. So verwundert es nicht, dass im Mittel die Volllaststunden bei Nennleistung nur knapp 19 Prozent der gesamten Betriebszeit ausmachen.

Hinzu kommt der ökologische Unsinn der Windkraft: Im Vordergrund stehen Vogelschlag und Klimaveränderung durch die Windräder selber. Dass Vögel und Fledertiere in grosser Zahl den Riesenpropellern zum Opfer fallen, ist allgemein bekannt und wird auch von Verfechtern der sogenannten erneuerbaren Energien nicht bestritten – zu viele tote Vögel und Fledermäuse finden sich am Boden. Zur Verteidigung wird argumentiert, dass Katzen und Autos viel mehr fliegende Sympathieträger töten. Das mag korrekt sein – aber wieso ein Argument? Wenn Verkehr und Haustiere schon so viele fliegende Wildtiere töten, sollte man weitere Todesursachen vermeiden, statt sie zu fördern. Ausserdem reissen Katzen zumeist siedlungsnahe Kleinvögel wie Meisen und Amseln und keine Bussarde und Rotmilane – die teilweise geschützten Greifer werden exklusiv von Windradflügeln erschlagen.

Eine im letzten Jahrzehnt zunehmend bekannter werdende Gefahr der Windparks ist die Klimaveränderung. Kürzlich gab der besonders durch Youtube bekannte Konstanzer Physikprofessor Gerd Ganteför, beileibe kein scharfer Kritiker der Klimakrisentheorie, dem Nordkurier ein Interview, in dem er auf die Austrocknung der betreffenden Regionen hinwies. Der Mechanismus ist einfach: Windräder nehmen dem Wind seine Energie – dafür sind sie ja da. Der verlangsamte Wind bewirkt Verdampfung – was wegen der geringeren Verdunstungskälte zu erhöhten Temperaturen führt.

Gesundheitlicher Unsinn

Ganteför wunderte sich dabei, dass es nur wenige Studien zu dem Thema gibt. Warum, ist klar: Findet eine Studie heraus, dass sich Region X zweimal schneller als der Rest der Welt erwärmt, fliesst das Fördergeld in Mengen. Will ein Wissenschaftler aber untersuchen, welche negativen Auswirkungen die Windfarmen haben, sind die mächtigen Profiteure der angeblichen Klimakrise weniger interessiert, das zu finanzieren. Wird es doch einmal untersucht, zum Beispiel durch Konrad Voge in Deutschland, zeigt sich eine klare Korrelation zwischen der seit 2001 heftig zunehmenden Windradverbreitung und der Niederschlagsreduktion in den Bundesländern mit vielen Windparks.

Ein weiterer verschwiegener Problempunkt ist die Entsorgung der Windkraftanlagen. Nichts hält ewig – auch die sehr robust gebauten dänischen und deutschen Windräder nicht. Die Haltbarkeit der Konstruktionen basiert vor allem auf dem massiven Einsatz von Stahlbeton – allein die Fundamente haben Ausmasse, die sich der Bürger beim Spaziergang unter dem Propeller nicht vorstellen kann. Diese bleiben nach dem Abriss einer Anlage in der Regel im Boden, weil das Heben oder Abfräsen des gigantischen Metall-Beton-Pfropfens extrem teuer wäre – der erhebliche Profit des Betreibers über zwanzig Jahre wäre dann zu gering oder ganz dahin. Selbst wenn also in ferner Zukunft die deutsche oder dänische Windkraftindustrie weitgehend beerdigt und abgetragen würde, lagerten immer noch Gigatonnen Beton-Stahl-Material auf dem Meeresboden oder unter Wiesen und Wäldern – für Jahrhunderte, Jahrtausende.

Hinzu kommt eine Verbundstoffmischung der besonders windbelasteten Rotorblätter – sie bestehen in verschiedener Kombination aus Balsaholz, Epoxidharz (und Ähnlichem) sowie Aluminium- oder Karbonfaserstreben. So stabil diese Materialien auch sein mögen – wiederverwerten lassen sie sich meist nicht, eigentlich nur verbrennen. In den USA, in Wisconsin, wurden sogar viele alte Rotorblätter schlicht vergraben, weil man sie nicht verbrennen konnte.

Windkraftanlagen werden nicht in Städten, in denen die grüne Hauptwählerklientel wohnt, sondern fernab der Metropolen auf dem Land errichtet. Dessen Bewohnerschaft, eher strukturkonservativ und selten grün wählend, klagt über den Verlust von Heimat und Landschaftsbild, wenn die Politiker und ihre Förderklientel die Hightech-Industrieanlagen in Wälder und auf Wiesen stellen. Im Januar wurde vermeldet, dass die Berliner Regierung 2 Prozent der Fläche Deutschlands mit Windrädern pflastern will – tatsächlich wird es auf mehr hinauslaufen, da eine moderne Grossanlage mit Anfahrtswegen für Schwerlastfahrzeuge und so weiter erheblichen Flächenbedarf hat.

Neben dem eher emotional begründeten Argument des Heimatverlustes zeichnet sich immer deutlich ab, dass bewusst nicht hörbarer Infraschall (unter 16 Hertz) die Gesundheit nicht weniger Bürger belastet. Das niederfrequente Brummen erreicht hohe Schalldruckpegel von hundert Dezibel (ugs. «Lautstärke») und Reichweiten von zehn Kilometern. Es kann daher sehr wohl wahrgenommen werden und stört die Gesundheit besonders empfindlicher Anwohner. Da es nicht alle Menschen oder die Mehrheit betrifft, ist die Quellenlage uneindeutig – und Windkraftgegner und Befürworter bewerten das Phänomen nach eigener Interessenlage.

Windräder nehmen dem Wind seine Energie. Der verlangsamte Wind bewirkt Verdampfung.

Schliesslich sticht der finanzielle Unsinn der Windkraft ins Auge: die zeitlich befristete öffentliche Förderung. Neben Dänemark ist Deutschland mit knapp 30 000 Windkraftanlagen eine Hauptzone der weltweiten Windnutzung. Wobei das Land mit weniger als der Hälfte des Anteils an der mitteleuropäischen Tiefebene eigentlich nicht besonders windreich ist – der küstenreiche Nachbar im Norden ist da viel besser gestellt. Das zeigt sich beim Anteil an der deutschen Stromerzeugung: 2021 lieferten die Windräder nur 111 Milliarden Kilowattstunden von insgesamt 517 Milliarden (entspricht 21 Prozent). Im selben Jahr kamen zudem erstmals seit langem keine weiteren Anlagen hinzu – die Zahl schrumpfte sogar von rund 29 600 auf 28 200. Grund dafür ist der zunehmende Widerstand von Umweltschützern und Anwohnern in den Gemeinden.

Subventionsleichen

Wirtschaftlich sind Windräder, die das öffentliche Netz versorgen, noch nie gewesen. Deswegen werden deutsche Anlagen nach zwanzig Jahren meist abgebaut, und zwar aus folgendem Grund: Das Erneuerbare-Energien-Gesetz (EEG) garantiert den Betreibern eine steuerlich finanzierte Einspeisevergütung für zwanzig Jahre. Ohne das würde nicht ein einziges Netzwindrad errichtet, weil es schlicht zu teuer wäre; man würde draufzahlen. Nach dem Wegfall der Förderung sind die Anlagen unprofitabel und werden abgerissen – oder aufgestockt, um weitere zwanzig Jahre subventioniert zu werden.

Die Liste der hier aufgeführten Nachteile der Windkraftanlagen ist lange nicht vollständig, eine umfassende Darstellung der Probleme würde mindestens eine komplette Zeitung füllen. Die meisten der Nachteile sind auch schon lange bekannt, auch den grünen Eliten. So diktierte ausgerechnet der gerade geschasste deutsche Wirtschaftsstaatssekretär Patrick Graichen den Journalisten der Zeit bereits Ende 2014 ins Notizheft: «Wir haben uns geirrt bei der Energiewende. Nicht in ein paar Details, sondern in einem zentralen Punkt. Die vielen Windräder und Solaranlagen, die Deutschland baut, leisten nicht das, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen werden, die schlimmste Quelle von Treibhausgasen. Doch sie tun das nicht.»

Read full Article
See More
Available on mobile and TV devices
google store google store app store app store
google store google store app tv store app tv store amazon store amazon store roku store roku store
Powered by Locals