06131-237384info@bueso.de

Computer-Klimamodelle: Voodoo für Wissenschaftler

[i]Die Klimamodellmacher ignorieren die über Jahrhunderte
angesammelten historischen Meßwerte und gehen statt dessen von
willkürlichen Annahmen aus. Obwohl ihre
Ergebnisse mit der Realität nicht in Einklang zu bringen sind, dienen
sie den
Politikern als Grundlage weitreichender Entscheidungen.[/i]

Die Klimamodelle sind die „Bibel“ für die Verfechter der
These von der globalen Erwärmung. Das Problem ist, daß diese Computermodelle
nicht die Realität darstellen. Wie mir einer der führenden Klimamodellmacher
erklärte, verwenden die Klimamodelle „keine der beobachteten Temperaturdaten
direkt“. Ein anderer verkündete: „Die Temperaturaufzeichnungen sind
irrelevant.“ Mit anderen Worten: Die Klimamodelle sind ein vorsätzlicher
Betrug, und viele Menschen in diesem Geschäft, die öffentlich von den
„Gefahren“ der angeblich anthropogenen („vom Menschen verursachten“)
Klimaerwärmung reden, wissen das auch.

Der jüngste Bericht des Weltklimarates (IPCC), der am 4. Mai
2007 veröffentlicht wurde (die „Zusammenfassung“ für Politiker wurde bereits am
2. Februar 2007 publiziert), beruht fast ausschließlich auf Computermodellen.
Eines der Hauptprobleme bei diesen Modellen ist, daß die von ihnen gemachten
Annahmen nicht nachprüfbar sind.

Die Modelle können nicht durch kontrollierte physikalische
Experimente erstellt werden, wie etwa im Ingenieurwesen. Man kann das Klima
nicht auf eine Werkbank spannen und einstellen. Man kann bei unserem
gegenwärtig unvollkommenen Verständnis von Wetter und Klima lediglich mutmaßen.
Wollte man beispielsweise eine Brennstoffzelle für ein Kernkraftwerk erproben,
könnte man ein Modell davon machen und austesten, wo die heißen Stellen und die
Radioaktivität sind, und man könnte sie dann so ausgestalten, daß sie
effektiver wird. Aber beim Klima weiß man nicht, wie die Atmosphäre arbeitet
oder wie die Ozeane wirken - jedenfalls nicht gut genug, um ein Modell davon
anzufertigen. Es handelt sich um vielschichtige Systeme mit zahlreichen
Druckänderungen und Temperaturinversionen, die man unmöglich modellieren kann.

Als ich auf einem Atom-U-Boot arbeitete, nutzten wir
beispielsweise diese Temperaturinversionen im Ozean, um uns zu verstecken und
uns unsichtbar zu machen, da bestimmte Schichten für die Sonargeräte undurchdringlich
waren. Man konnte buchstäblich nur wenige Meter von einem anderen U-Boot
entfernt sein, ohne daß es uns aufspüren konnte. Temperaturänderungen
beeinträchtigen die aktiven und passiven Funktionen (Senden und Empfangen) der Sonargeräte.

Das gleiche gilt für das industrielle „Benchmarking“, wenn
statt realer Experimente Computermodelle verwendet werden. Als Mercedes sich
beim Bau der sog. A-Klasse auf Computermodelle verließ, ohne einen physischen
Prototyp davon zu bauen, war das ein Fehlschlag: das Auto kippte um, wenn man
eine Kurve scharf nahm. Dem Computermodell zufolge hätte alles in Ordnung sein
sollen. Das gleiche gilt für einige Geländefahrzeuge, und das führte und führt
noch immer zu Unfällen.

Die Computermodelle für das Klima sind ein Beispiel für das,
was Lyndon LaRouche als Linearisierung im Kleinen bezeichnet, wenn man nämlich
versucht, ein nichtlineares, dynamisches System durch ein lineares Modell
darzustellen. Die linearen Modelle ignorieren die menschliche Kreativität und
die physikalische Wirklichkeit.

Die Klimamodelle entsprechen nicht den gemessenen Daten. Das
letzte Kapitel des jüngsten IPCC-Berichtes führt dafür sogar einige Beispiele
an. So zeigen beispielsweise die Temperaturmodelle für die Atmosphäre einen
stetigen Anstieg der Temperatur, was mit der Hypothese der vom Menschen
verursachten Klimaerwärmung übereinstimmt. Die gemessenen Daten zeigen jedoch
mehrere verschiedene Schichten, in denen sich der Temperaturverlauf umkehrt. An
einigen Stellen ist die Temperatur in der Troposphäre (der untersten Schicht
der Atmosphäre) viel niedriger als in der Stratosphäre (der nächsthöheren
Schicht der Atmosphäre) - also genau umgekehrt wie in den Computermodellen.

Ein weiteres Beispiel ist das Modell des Gurus der
Klimaerwärmung James Hanson, jetzt beim Goddard-Institut für Weltraumstudien.
Es war die erste dynamische, dreidimensionale Darstellung des Klimas und wurde
1981 veröffentlicht. Das Modell sagte einen stetigen Temperaturanstieg in den
achtziger und neunziger Jahren voraus, aber die gemessenen Daten, die Hansen
für sein Modell verwendete, zeigen gar keinen Trend, nur Aufwärts- und
Abwärtsbewegungen.

Damals sagten die heute führenden Vertreter der These der
globalen Erwärmung bei der Betrachtung dieser Daten, daß keine vom Menschen
verursachte Erwärmung erkennbar sei. Aber in den neunziger Jahren kamen die
gleichen Wissenschaftler seltsamerweise zu dem Schluß, daß das vom Menschen
erzeugte CO[sub]2[/sub] den Trend des Modells verursache. Auf diese Diskrepanz
angesprochen, antwortete Tom Wigley, der frühere Direktor der
Klimaforschungsgruppe der britischen East Anglia Universität: „Die
Klimaaufzeichnungen sind irrelevant. Wichtig ist der Treibhauseffekt.“[sup]1[/url][/sup]

Die Temperatur-Hysterie

Wir alle haben gehört, daß die Temperatur der Welt in den
letzten 100 Jahren um 0,6°C angestiegen sei. Wo kommt diese Zahl her?

Dieser Temperaturanstieg wurde aus drei verschiedenen
Datenreihen errechnet - den „Weltweiten Temperaturaufzeichnungen“ der
Smithsonian Institution in Washington, den Daten des Globalen Historischen
Klimanetzwerks am Goddard-Institut für Weltraumstudien und den Daten des
historischen Klimanetzwerks der USA bei der Nationalen Ozeanographischen und
Atmosphärischen Behörde.

Und hier kommt Voodoo ins Spiel: Sie nehmen den
Monatsdurchschnitt der Wetterstationen dieser drei Datenreihen (wobei einige
Stationen identisch sind. Die weltweiten Temperaturaufzeichnungen decken die
Jahre von 1850-1940 ab, die Daten des Globalen Historischen Klimanetzwerks die
der Jahre von 1950 bis heute und die Daten des historischen Klimanetzwerks der
USA die Jahre seit 1896.)

Nach Errechnung der Monatsdurchschnitte wird die Geschichte
der Meßstationen untersucht - ob sie sich nahe an Flughäfen befinden, in
Städten, oder ob sie irgendwann verlegt wurden. Und dann entscheiden die
Modellmacher, wie die Daten korrigiert werden müssen, um den sog.
„Wärmeinsel-Effekt“, fehlende Jahre und andere Faktoren zu berücksichtigen,
weil es keine einheitlichen Standards für die Messungen gibt; jedes Land hat
seine eigenen Methoden. Dann wird aus den „Monatsdurchschnitten“ der
„Jahresdurchschnitt“ errechnet.

Ein Wort zur „durchschnittlichen Welttemperatur“: Die
globale Durchschnittstemperatur ist für die Untersuchung des Klimawandels ohne
Bedeutung. So bedeutet die angebliche Erhöhung der globalen
Durchschnittstemperatur um 0,6°C gar nichts, wenn in St. Petersburg -21°C
gemessen werden. Natürlich kann man einen globalen Temperaturdurchschnitt von
beispielsweise 25°C errechnen. Zeigt das nun einen Erwärmungs- oder einen
Abkühlungstrend? Das hängt ganz davon ab, wo man sich befindet! Stellen Sie
sich vor, sie hätten einen Fuß in einem Eimer mit Eiswasser, und den anderen in
einem Eimer mit kochendem Wasser. Durchschnittlich betrachtet ist das sehr angenehm!

Die Modellmacher nehmen die Rohdaten für einen Zeitraum von
dreißig Jahren, das waren für den Datensatz der Klimaforschungsgruppe des
US-Energieministeriums von 1985 die Jahre 1951-1980. Sie errechnen dann einen
Durchschnittswert für diese „Referenzperiode“ als Maßstab, nach dem der gesamte
Datensatz beurteilt wird, auch für die Jahre vor dieser dreißigjährigen
Referenzperiode. Die positiven und negativen Abweichungen beim Vergleich der
Referenzperiode zum jeweiligen Jahresdurchschnitt ergeben eine
Temperaturanomalie, die dann graphisch dargestellt wird.

Der Anstieg der Temperatur um 0,6°C bezieht sich also auf
eine Temperaturanomalie, und nicht auf eine reale Temperatur. Man ebnet zuerst
wie mit der Kreissäge alle Unterschiede ein, und es ergibt sich eine
Temperaturanomalie, die mit nichts Realem korrespondiert. Und das übernehmen
die Politiker, ohne danach zu fragen, wie dieser „Anstieg“ errechnet wird.

Wenn man die realen Datensätze und die Faktoren, nach denen
die Modellmacher ihre Stationen ausgewählt haben, nicht kennt, ist es nicht möglich,
diese Zahl nachzukontrollieren. Vor 1985 konnte man in der technischen
Literatur noch die Liste der Wetterstationen finden, die für die Erstellung des
jeweiligen Modells herangezogen wurden. Seit 1985, während die Diskussion über
die globale Erwärmung immer heftiger wurde, weigern sich die Modellmacher, die
Namen und Standorte der herangezogenen Stationen zu veröffentlichen!

Heute gibt es in den USA 1200 Wetterstationen. Sie werden
von Freiwilligen betreut, von denen einige pensionierte Mitarbeiter des
Nationalen Wetterdienstes sind. Die Stationen sind wegen der Sparmaßnahmen des
Nationalen Wetterdienstes in schlechtem Zustand. Viele von ihnen liegen an
bizarren Orten - etwa direkt an den Startbahnen von Flughäfen, vor den
Abwärmeleitungen von Klimaanlagen oder bei Müllverbrennungsanlagen, und sind
somit kaum repräsentativ für die Beurteilung der natürlichen Temperatur.

Eine Gruppe von Freiwilligen, die diese Stationen
überprüfte, um die Lage zu verbessern, hat bisher 300 von ihnen lokalisiert.
Das Ergebnis findet man auf [url:"http://www.surfacestations.org/]www.surfacestations.org[/url].
Weltweit gab es früher 5000 Wetterstationen, aber nachdem etliche aufgegeben
wurden, sind es heute nur noch etwa 3600. Das ist, insbesondere angesichts der
Aufregung über die angeblich katastrophalen Auswirkungen der Klimaerwärmung, erbärmlich.

Auch ohne die unkontrollierbaren Manipulationen der
Modellmacher sind diese Daten nicht sehr zuverlässig. Dabei ist zu beachten,
daß die Modellmacher erklären, sie nutzten statistische Methoden, um die
schlechte Qualität der Daten zu korrigieren, aber sie haben ihre Methoden nicht
veröffentlicht, sodaß andere Wissenschaftler sie nicht überprüfen können.

Aber so schlecht diese Meßwerte auch sein mögen - sie werden
von den Computermodellen des IPCC gar nicht verwendet! Auf eine schriftliche
Anfrage des Verfassers antwortete Gavin Schmidt, ein prominenter
Klimamodellmacher des Goddard-Instituts für Weltraumstudien: „Die für die
Projektionen des IPCC verwendeten Computermodelle nutzen keine der beobachteten
Temperaturdaten direkt. Sie sind vielmehr Berechnungen aufgrund annähernder
erster Prinzipien, und verwenden nur die Verteilung der Sonneneinstrahlung im
Verlauf der Jahreszeiten, die Form der Kontinente und die Änderungen in der
Zusammensetzung der Atmosphäre, d.h. der Treibhausgase. Alles andere ist errechnet.“

Zurück zu den Annahmen der Modelle

Nun, wie kommt man von einem Anstieg der Temperatur um 0,6°C
in den letzten 100 Jahren zur Vorhersage eines Anstiegs um 2-4°C in den
kommenden 100 Jahren? Diese Frage führt uns zurück zu den Annahmen, die bei den
Computermodellen vorausgesetzt werden. Der vorhergesagte Temperaturanstieg
beruht auf der Annahme der Modellmacher, daß eine Verdoppelung des CO[sub]2[/sub]-Gehalts
eine zusätzliche Leistung von 3,42 W/m[sup]2[/sup] bedeutet, die auf die
Erdoberfläche zurückgeworfen und einen Temperaturanstieg um 2-4°C auslösen
wird. Das derzeit in der Atmosphäre gemessene CO[sub]2[/sub] erzeugt nur knapp
1 W/m[sup]2[/sup] zusätzlicher Leistung.

Der größte Teil des ersten Kapitels des IPCC-Berichts
behandelt den sogenannten Strahlungsantrieb („radiative forcing“). Dabei nehmen
die Modellmacher an, daß das CO[sub]2[/sub] sich linear vermehrt, und daß die
Wirkung ebenfalls linear steigt. Aber Forscher, die sich intensiv mit dem CO[sub]2[/sub]
befaßt haben, wie Dr. Sherwood Idso, erklärten, die ersten zusätzlichen 20% des
CO[sub]2[/sub] in der Atmosphäre hätten die größte Wirkung bei der
Rückstrahlung der Wärmestrahlung auf die Erdoberfläche, und diese
Rückstrahlungswirkung lasse bei weiter steigendem CO[sub]2[/sub]-Anteil wegen
des sich ändernden proportionalen Anteils der übrigen Gase in der Atmosphäre nach.

Die Klimamodellmacher sagen, dieser Anstieg werde aufgrund
der vom Menschen verursachten CO[sub]2[/sub]-Emissionen in den kommenden 100
Jahren erfolgen. Dabei setzen sie jedoch voraus, daß die Änderung des CO[sub]2[/sub]-Anteils
dem Temperaturanstieg vorangeht. Tatsächlich zeigen jedoch die
Temperaturmeßwerte für die vergangenen mehreren Millionen Jahre, daß in der
Regel der Temperaturanstieg dem CO[sub]2[/sub]-Anstieg voranging. Der Anstieg
des CO[sub]2[/sub]-Anteils der Atmosphäre folgt dem Anstieg der Temperatur mit
einer Verzögerung von ca. 300-600 Jahren!

Das Kind wird mit dem Badewasser ausgeschüttet

Die Modellmacher schönen ihre Daten, um die Anomalien
loszuwerden; so werden beispielsweise die Temperaturdatenreihen eines Jahrhunderts
so „geglättet“, daß man die Nullpunktverschiebung („Drift“) des Computermodells
nicht mehr erkennen kann. Diese Verschiebung wird dort sichtbar, wo die
Computermodelle selbst bei der Verarbeitung der Daten anomale Werte erzeugen.
Aber wie will man wissen, ob diese Abweichung, die das Modell erzeugt, nicht
genau den Trend zeigt, nach dem man sucht? Die Modellmacher betrachten sie als
einen Computerfehler, den sie dann „korrigieren“. Aber gerade die sog. Drift
könnte etwas aussagen.

Die Grundlagen der Klimamodelle wurden in den letzten 20-30
Jahren nicht verbessert, auch wenn sie der gestiegenen Rechnerleistung angepaßt
wurden. Aber sie werden als unfehlbar betrachtet und sollen die Zukunft
pünktlich wie eine Uhr vorhersagen. Aber das Universum, das Klima und die
Menschen sind keine Uhren. Dennoch sind der US-Kongreß und viele Regierungen
bereit, aufgrund dessen, was uns die Klimamodelle über die „vom Menschen
verursachte Klimaerwärmung“ sagen, ihre Volkswirtschaften stillzulegen, was
viele Milliarden Dollar und zahllose Menschenleben kosten wird.

[i]Greg Murphy diente früher auf einem Atom-U-Boot der
US-Marine und ist Mitarbeiter des [/i]Executive Intelligence Review[i] und des
Wissenschaftsmagazins [/i]21 Century Science & Technology[i]. Er führte
zahlreiche Interviews mit Vertretern beider Seiten in der Klimadebatte, so mit
Dick Taverne, Mitglied des britischen Oberhauses und ehemaliges Mitglied von
Greenpeace, Dr. Paul Reiter, medizinischer Entomologe am Pasteur-Institut in
Paris, Dr. Pierry Corbyn, Astrophysiker und Gründer von Weather Action Long
Range Forecasters, und Dr. Nils-Axel Mörner, Leiter der Abteilung für
Paläogeophysik und Geodynamik der Universität Stockholm, einem bekannten
Experten für Änderungen der Höhe des Meeresspiegels.[/i]

 

 

[list]
[item]Wigley wurde in dem Film „The Greenhouse Conspiracy“ aus
dem Jahr 1990, der in Großbritannien von dem Fernsehsender [i]Channel 4[/i]
ausgestrahlt wurde, interviewt. [/item]
[/list]

Werden Sie aktiv!

Die Bürgerrechtsbewegung Solidarität erhält ihre Finanzmittel weder durch staatliche Parteienfinanzierung noch von großen kommerziellen Geldgebern. Wir finanzieren uns ausschließlich durch Mitgliedsbeiträge und Spenden,

deshalb brauchen wir Ihre Unterstützung!

JETZT UNTERSTÜTZEN