Klimahysterie - was ist dran?

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

Kapitel 1

Gibt es eine wesentliche Erwärmung über die normalen Schwankungen hinaus?

Schon diese einfach klingende Frage ist nicht leicht zu beantworten. Warum? Es gibt schlicht weder Aufzeichnungen der Durchschnittstemperatur der Erde, noch solche der nördlichen Halbkugel, die präzise Aussagen über die Temperaturentwicklung der letzten hundert Jahre oder gar darüber hinaus zulassen würden. Niemand kann deshalb mit Fug und Recht behaupten, zu wissen, was normal ist.

Aus diesem Grund behilft man sich mit willkürlich gewählten Jahresdaten, ernennt diese ebenso willkürlich zur Normalität und folgerichtig alle Abweichungen davon zur Anomalie.

Bereits der negative Begriff der Anomalie zeigt, wohin man steuern will. So verwendet das IPCC – aber auch nicht immer – die (uns eigentlich unbekannte) Globaltemperatur von 1750. Rein zufällig liegt diese Temperatur in der Nähe eines Minimums, der kleinen Eiszeit. Darauf werden sämtliche Hochrechnungen bezogen, darunter auch jene Linie von 2 °C, die man hofft, bis 2100 nicht zu überschreiten. Von diesen 2 °C Begrenzung sind übrigens bereits 1 °C verfrühstückt, denn Auslöser der ganzen Hysterie ist ja die Erwärmung im 20. Jahrhundert.

Zurück zu den Messungen. Was es gibt und genutzt wird, sind indirekte Messungen – Proxydaten – aus Baumringen, Ernteaufzeichnungen, historischen Beschreibungen, Isotopenbestimmungen in Eisbohrkernen und ähnliches. Erst seit etwa 145 Jahren werden breiter angelegte methodische Temperaturaufzeichnungen angefertigt.18

Die frühesten Messungen stammen aus Europa. Danach folgten die USA und Australien, zum Schluß – wenn auch wesentlich sporadischer – der Rest der Welt. Waren um 1860 erst etwa 300 Wetterstationen im Einsatz, wurden im Jahre 1970 weltweit etwa 6.000 Wetterstationen gezählt. Danach wurden es wieder weniger. Nach Angaben der WMO sind es heute nur noch 1.400.

Erst seit 1979 umrunden Wettersatelliten die Erde, die eine verläßliche Datenbasis für die Entwicklung der Durchschnittstemperaturen der oberen Atmosphärenschichten liefern.

Die Durchschnittstemperatur der Erde

In der Natur gibt es keine Durchschnittstemperatur, sondern nur lokale Temperaturen. Temperatur ist eine physikalische Größe, die von vielen anderen physikalischen Größen abhängt, nur lokal entsteht und deswegen auch nur lokal gemessen werden kann. Und nur diese lokalen Temperaturen konnte man relativ ungenau – jedenfalls bis Ende 1979 – messen. Dagegen ist die Durchschnittstemperatur ein künstliches Konstrukt, das erst vor kurzem erfunden wurde. Eine physikalische Bedeutung – und nur diese ist wichtig – hat sie nicht. Weil die Erde nie im thermischen Gleichgewicht ist, gibt es keine reale Durchschnittstemperatur. Sie hat daher etwa soviel Sinn wie die Durchschnittstelefonnummer von Berlin. Auch die würde keiner verwenden.

Nicht nur deshalb ist ihre Ermittlung kompliziert, mit Fehlern behaftet und oft chronisch falsch. Warum aber ist das so?, fragt man sich. Ein Thermometer ablesen kann doch jeder. Sicher. Nur nicht jeder gleich gut, gleich genau und regelmäßig genug, und vor allem: Die dafür verwendeten Thermometer zeigen die punktuelle Temperatur der lokalen Umgebung in etwa zwei Meter Höhe an.

Diese Umgebung änderte sich im Laufe der letzten ungefähr 145 Jahre fast überall fundamental. John Daly, ein privater Klimaforscher der ersten Stunde, hat sich der mühsamen Aufgabe unterzogen, die Genauigkeit und Zuverlässigkeit dieser bodennahen Meßstationen zu überprüfen. Er fand heraus, daß nur eine sehr kleine Anzahl von Bodenmeßstationen – solche, die ausschließlich in menschenleeren Zonen in den entwickelten Ländern liegen – zuverlässige Zeitreihen für die Temperaturen erbringen.19 Diese – und nur diese – stimmen sehr genau mit den Satelliten- und Wetterballonmessungen überein.

Doch auch diese Stationen reichen für eine Durchschnittsbildung für die gesamte Erde oder auch nur die nördliche Halbkugel bei weitem nicht aus. Ihre Distanz zueinander beträgt teilweise um die 2.000 Kilometer und mehr, d. h. die Temperaturen von Berlin und Madrid werden miteinander verglichen. Tatsache ist, daß kein Mensch weiß, wie hoch diese Langzeiterwärmung wirklich war, zumal die zugrundeliegenden Datenkollektive stets verändert werden, so wie die Inflationswarenkörbe, und – noch schlimmer – die Meßgenauigkeit bestenfalls ± 0,5 °C beträgt!20

So beruhte die Bestimmung der Globaltemperatur von 1860 auf nur 300 nordhemisphärischen Wetterstationen. Heute sind es 1.400, wobei für je eine Fläche von 250.000 Quadratkilometer (Gitterpunktweite 250 Kilometer) eine Temperatur gemessen wird.

Es muß außerdem noch erwähnt werden, daß etwa 70 Prozent der Erdoberfläche von Wasser bedeckt sind. Dort sind nur sehr wenige ständige Meßstationen installiert. Mehrmals pro Jahr, aber nur an sehr wenigen Stellen, fahren Schiffe über die Gitterquadrate auf See, schöpfen mit Eimern das Wasser und messen darin die Temperaturen. Diese werden dann an Land gemeldet. Früher per Schiff und Boten oder Post, dann per Telegraph oder Funk. Erst 1982 konstruierte eine Gruppe um Phil Jones erstmals die Zeitreihe von 1860 bis 1980, die eine angebliche Erwärmung von 0,6 °C zeigt, natürlich streng wissenschaftlich!!

Das konnte aber nicht gut gehen. Als sich das IPCC zur Vorbereitung seines vierten Sachstandsberichts von 2007 mit dieser Frage auseinandersetzte, stellte es fest, daß nur Messungen durch Wetterballone und Satelliten sehr gut miteinander übereinstimmen, aber starke Abweichungen zu den terrestrischen Messungen gegeben sind. Letztere zeigen – wider alle Theorie, die höhere Temperaturen besonders in den oberen und weniger in den unteren Luftschichten fordert – deutlich zu hohe Werte. Üblicherweise würde man in einer solchen Situation sagen, na gut, dann ist eben die Theorie falsch. Statt aber nun diese verfälschten Werte wegzulassen, einigte man sich beim IPCC darauf, daß diese Abweichungen – die sehr gravierend sind und vor allem in den Vorhersagemodellen wirken – ihre Ursachen in einer noch unverstandenen Atmosphärenphysik hätten, die es genauer zu untersuchen gälte. So schafft man Arbeitsplätze in Wissenschaft, Forschung und Verwaltung.

Die aktuelle Entwicklung

Sei es wie es sei: Bis 1979 waren alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis etwa 1860 nur indirekt erforschte, danach mit vielen Unstimmigkeiten gemessene und seit 1979 genauer gemessene Temperaturkurve der Erde.


Abb. 1: Der Temperaturverlauf der letzten 1200 Jahre

Wie man sieht, gab es einen dicken Buckel im Mittelalter. Die Experten streiten sich noch, ob dieser Buckel etwas höher oder etwas niedriger als +2 °C über unserer heutigen Durchschnittstemperatur lag. Genau weiß es keiner, auch die nicht, die mit allerlei Proxydaten versuchen, die indirekten Belege für Temperaturen auszuwerten und in Globalwerte umzurechnen. Darüber lag er auf jeden Fall, wie Hunderte von Proxydaten zeigen, die weltweit peer reviewed in angesehenen Wissenschaftsmagazinen erschienen sind. Man erinnere sich an die Schulzeit, als uns beigebracht wurde, wie die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin war es dort so warm, daß Besiedlung und Ackerbau (in Grünland) möglich waren. Oder so warm, wie Gavin Menzies in seinem Buch 1421 – The Year China Discovered the World (2002) berichtet, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und daß sie dort kaum Eis vorfanden. Im norwegischen Trondheim wurde Wein angebaut, Datteln wuchsen am Rhein, und in den Alpen waren die Baumgrenzen ein paar hundert Meter höher als heute. Es war schön warm, die Ernten reichlich, die Menschen konnten überwiegend gut leben. Man nennt diese Zeit das mittelalterliche Klimaoptimum! Die Temperatur – wärmer als heute – war für Mensch und Tier optimal.21

Die große Frage ist: Wie haben es die Menschen im ausgehenden Mittelalter geschafft, die Globaltemperatur zu beeinflussen? Durch das Kohlendioxid ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht.

Alles stand wunderbar im Einklang mit der Natur. Das ist ein großes Rätsel, für das das IPCC bisher keine so richtige Erklärung fand.

Um das Jahr 1900 begann dann eine Entwicklung, wie sie detailliert in der folgenden Grafik gezeigt wird.


Abb. 2: Der Temperaturverlauf und die CO 2 -Entwicklung der letzten 1000 Jahre

Hier sehen wir den vom IPCC 2001 im dritten Sachstandsbericht veröffentlichten Kurvenverlauf des Kohlendioxidgehalts zusammen mit dem Temperaturverlauf der Atmosphäre. Letzteren hatte ursprünglich ein Dr. Michael Mann 1998 errechnet. Manns Originalkurve, die sogenannte Hockeystickkurve (die weiter unten gezeigt wird), wurde im IPCC-Bericht von 2001 mehr als 70 mal aufgeführt, zeigte jedoch das mittelalterliche Klimaoptimum nicht. Kurze Zeit später und gegen viele Widerstände wurde sie deshalb von den kanadischen Wissenschaftlern Stephen McIntyre und Ross McKitrick korrigiert. Gezeigt wird hier deren korrigierte (rote) Kurve.

 

Die Hockeystickkurve hat eine eigene denkwürdige Geschichte, die ich dem Leser nicht vorenthalten will. Doch zuerst schauen wir uns den Verlauf beider Kurven an. Wir sehen starke Schwankungen der Temperatur, aber so gut wie keine Schwankungen des Kohlendioxidgehaltes der Atmosphäre. In keiner erkennbaren Weise verknüpft oder korreliert dieser mit dem Temperaturverlauf. Nur im letzten Teilstück, gegen 1920, steigt die Temperatur an (der Anstieg wirkt hier stärker, weil durch den Maßstab verzerrt), wie auch der Kohlendioxidanteil. Sollte plötzlich die Physik Kapriolen schlagen und das Kohlendioxid auf die Temperatur heftig wirken lassen? Oder war es vielleicht umgekehrt?

Ich komme noch darauf zurück. Vorher wollen wir jedoch die bodennahe Temperaturentwicklung bis zur Gegenwart verfolgen. Das Goddard Institute for Space Studies (GISS) in den USA hat diese Werte ermittelt, wie gesagt, mithilfe der eingangs erläuterten bodennahen, ungenauen und unzuverlässigen Meßstationen.


Abb. 3: Die Globaltemperatur nach GISS (Bodenmessungen)

Wir sehen einen Abfall ab 1880, dann einen recht starken Anstieg von +0,5 °C bis 1940, dann wieder einen deutlichen Abfall bis 1976 – obwohl in diesem Zeitraum die Kohlendioxid-Emissionen um 400 Prozent anstiegen! – und von dort einen Anstieg bis 1998, dem Jahr mit der höchsten Spitze aufgrund von El Niño-Kapriolen, und weiter bis 2005. Der Abfall bis 1976 veranlaßte übrigens damals den immer noch berühmten IPCC-Forscher Prof. Stephen Schneider, eine fürchterliche Eiszeit ab 2000 vorherzusagen. Heute prognostizieren er und mit ihm die UN eine mindestens ebenso fürchterliche Warmzeit.

Wie stark die Ungenauigkeiten der zusammengefaßten Trendmeldungen sich auswirken können, zeigt die Kurve der Temperaturentwicklung für die USA, wo Hunderte mehr oder weniger gut gewartete Wetterstationen die folgenden Werte für das 20. Jahrhundert zeigen:


Abb. 4: Die US-Temperaturentwicklung nach GISS (Bodenmessungen, 2005 korrigiert)

Man sieht viel, nur keine bedrohliche Erwärmung (außer der El Niño-Spitze von 1998), vor der inzwischen auch – Al Gore sei Dank – die Amerikaner so viel Angst haben wie wir.

Obwohl die beiden zuletzt gezeigten Grafiken vom GISS stammen, hielt das Prof. James Hansen, den Direktor dieser Einrichtung, nicht davon ab, sie auf eine dreiste Weise zu manipulieren, weil sie ihm zu undramatisch erschienen.

Denn ursprünglich, bis Anfang 2001, wurde auf der Website des GISS ein Temperaturverlauf der USA gezeigt, der selbst die oben gezeigte Minierwärmung nicht zeigte (Bild links unten). Wenn man genau hinsieht, dann ist da sogar eine Abkühlung zu sehen. Das durfte aber nicht sein. Also wurden diese Daten flugs zu Rohdaten umettikettiert und mit Abschlägen in den 30er Jahren versehen, als es sehr warm war.


Abb. 5: Alte US-Temperatur (bis 2000) und Korrektur durch GISS

Ab 1960 wurden und werden sie dagegen mit Zuschlägen versehen, damit der Trend von da an wie Erwärmung aussieht (Bild rechts oben). Nur so paßt es: Die Temperaturkurve der USA (Abbildung 4) zeigt nun auch ab den siebziger Jahren den ersehnten Erwärmungseffekt, der zudem höher war, als der in den 30er Jahren.22

Begründet wird diese Manipulation mit neuen Erkenntnissen, die man seitdem gewonnen hätte. Wie sich dann aber herausstellte, lagen alle diese Erkenntnisse schon vor 1999 vor. Da waren sie aber offensichtlich noch nicht so wichtig.

James Hansen ist derjenige, der in den 80er Jahren bei tropischen Temperaturen im sommerlichen Washington den Senatoren den Treibhauseffekt nahebrachte und bis heute Erhöhungen des Meeresspiegels von etwa sechs Metern voraussagt.

Erst 2007 mußten das GISS und dessen Chef Hansen die Verlaufskurve der US-Temperaturen erneut nach unten korrigieren, weil ihnen der Statistiker Steven McIntyre umfangreiche methodische Fehler in der Aufbereitung der statistischen Daten nachgewiesen hatte. Seitdem ist nun nicht mehr das Jahr 1998 das wärmste bisher gemessene in den USA, sondern das Jahr 1934.23 Ups!

Ähnliche Änderungen ergaben sich für eine Reihe weiterer Jahre. Nach der erneut korrigierten Rangliste gehören jetzt vier Jahre aus den 30ern (1934, 1931, 1938 und 1939), nur zwei aus den 90ern (1998, 1999) und nur eines danach (2006) zu den Top Ten der heißesten Jahre. Natürlich erfolgte auch diese Korrektur ohne jede Erklärung oder Entschuldigung für die Irreführung der Öffentlichkeit.

Um dem Leser einen Einblick zu geben, was und wie alles die bodennahen Messungen beeinflußt, folgt hier eine Grafik aus einem Vortrag von Prof. Timothy Patterson von der kanadischen Carleton University.


Abb. 6: Der Einfluß des urban heat effect auf Bodenmessungen (rural – ländliche, ungenutzte Flächen, suburban – Vorstadt, downtown – Innenstadt, farmland – landwirtschaftliche Nutzflächen)

Man sieht einen kräftigen Anstieg der Temperatur um bis zu 5 °C und mehr, je näher man industrialisierten oder anderen städtischen Flächen kommt. Dieser urbane Wärmeinseleffekt ist selbstverständlich auch dem IPCC bekannt. Es versucht ihn durch viele willkürliche, häufiger auch nachvollziehbare und begründete Eingriffe herauszukorrigieren.

Leider geht das nicht gut, weil sich dieser Effekt eben überall anders auswirkt. Die Meßstationen liegen nun mal fast alle in den Zentren von Ballungsgebieten, in der Nähe von Universitätsinstituten, Rathäusern oder Flughäfen. Verlegt man sie in unbevölkerte Außengebiete, verliert man den historischen Bezug. Deshalb müssen die Stationen bleiben, wo sie sind, und ihre jeweilige örtliche Temperatur, die soviel mit der Globaltemperatur zu tun hat, wie der Igel mit dem Fensterputzen, munter weiter messen.24

S. Fred Singer und Dennis T. Avery fragten deshalb in ihrem Buch Unstoppable Global Warming, Every 1500 Years? ganz unschuldig, warum reiche Industrieländer eine höhere Erwärmung erleben als arme Länder. Die Meteorologen Eugenia Kalnay und Ming Cai haben herausgefunden, daß der Wärmeinseleffekt um bis zu fünfmal größer ist, als ihm in den offiziellen Berechnungen zugebilligt wurde. Der verbleibende Temperaturanstieg – zumindest, was die USA anbelangt – würde damit im Bereich der statistischen Meßungenauigkeit verschwinden.25

Eine weitere sehr interessante Entdeckung gelang den beiden Niederländern de Laat und Maurellis, die sie im renommierten International Jour- nal of Climatology publizierten. Dort führen sie aus, die heute verwendeten Klimamodelle würden voraussagen, daß die Erwärmung durch Treibhausgase sowohl auf der Oberfläche als auch – recht gleichmäßig – in der Troposphäre auftreten müßte. Das sei jedoch nicht der Fall, wie ihre Messungen zeigten, weil die Oberfläche – besonders die der urbanisierten Industrieländer – eine deutlich höhere Erwärmung zeigt, als die Troposphäre. Sie schreiben ferner, daß diese Unterschiede inzwischen ein gut dokumentiertes Phänomen darstellen und sehr wohl den Schluß zulassen, daß andere anthropogene Prozesse zu den beobachteten Oberflächentemperaturen beigetragen haben müssen.

Ganz klar lassen ihre Messungen auch erkennen, daß überall dort, wo Treibhausgas-Emissionen anfallen, also über Industrie- und Wohnvier-teln, die Temperaturzunahme stärker ist, als dort, wo diese Emissionen geringer sind oder nicht anfallen.26

Was ja auch plausibel ist, denn Kohlendioxid ist 1,5 mal schwerer als Luft. Diese Unterschiede zeigen sogar beide Meßmethoden, Satelliten- und Bodenmessungen. Über mögliche Ursachen sagt das jedoch noch nichts aus. In die Computermodelle finden diese Abweichungen dennoch keinen Eingang. Sie werden – wie so vieles andere auch – einfach ausgeblendet oder unterschlagen. Bei den Bodenmessungen wird dieser Effekt viel zu gering angesetzt. Der Leser möge selbst entscheiden, wieviel Wahrheitsgehalt er den Bodenmessungen nunmehr beimißt. Hoch kann er nicht sein.

Die Hockeystickkurve

Nun, wie versprochen, die Geschichte der Hockeystickkurve: Der amerikanische Wissenschafter Dr. Michael Mann und sein Team untersuchten 1998 die Baumringe überwiegend nordamerikanischer Nadelbäume und leiteten aus ihnen ein Rechenmodell ab, das einen besonderen Verlauf der Temperatur der nördlichen Hemisphäre errechnete. Dabei entstand eine wunderbare Temperaturkurve ab dem Jahre 1000, die einen erschröcklichen Anstieg bis zur Mitte des 20. Jahrhunderts zeigte. Das war genau das, was die leitenden Herren des IPCC sehen wollten.

Diese Kurve, 1998 berechnet, fand sofort und an prominenter Stelle Einlaß in den IPCC-Bericht von 2001, wurde dort über 70 mal zitiert und trat von dort aus ihren Siegeszug durch die mediale und politische Welt an. Der Mensch und sein CO2 sind schuld, war der Tenor. Das Einsetzen der Industrialisierung und Anstieg der Globaltemperatur waren eng aneinander gekoppelt! Beim IPCC knallten die Champagnerkorken. Endlich hatte man etwas in der Hand, um den astronomisch hohen Forderungen an die Kyoto-Länder Nachdruck zu verleihen. Hier war der Beweis.

Eine Frage muß jedoch an dieser Stelle erlaubt sein: Ließen sich prominente Vertreter des IPCC – allen voran Sir John Houghton – nur deshalb mit dieser Kurve im Hintergrund interviewen? Der gleiche Sir John Houghton, der die ersten drei IPCC-Berichte von 1990, 1995 und 2001 leitend herausgab und der 1994 schrieb, solange wir keine Katastrophe ankündigen, wird keiner zuhören ?


Abb. 7: Die ursprüngliche Hockeystickkurve nach Dr. Mann aus dem dritten IPCC- Sachstandsbericht (2001)

Die Mann-Kurve hatte allerdings einige Schönheitsfehler. Als Stephen McIntyre, Ross McKitrick und andere – darunter in Deutschland Hans von Storch – einen zweiten Blick auf sie warfen, fiel ihnen auf, daß die ganze schöne mittelalterliche Warmzeit schlicht nicht vorhanden war. Obwohl sie – weil gut dokumentiert – einwandfrei nachweisbar ist. Auch die dann folgende – noch besser dokumentierte – kleine Eiszeit war nicht so recht erkennbar. Den IPCC-Oberen war das irgendwann auch aufgefallen.

Statt jedoch zuzugeben, daß ihre so schöne Grafik schwere Fehler enthielt, versuchten sie zu verhindern, daß die Kurve offiziell korrigiert wurde. Der mit dieser Aufgabe befaßte IPCC-Wissenschaftler Dr. Jonathan Overpeck faßte diese Versuche in der Bemerkung zusammen: We have to get rid of this medievial Warm Period. Deutsch: Wir müssen diese mittelalterliche Warmzeit loswerden.27 Er machte diese Bemerkung 2004 gegenüber Dr. David Deming – einem amerikanischen Paläoklimatologen – da er ihn fälschlicherweise als Gesinnungsgenossen einstufte.

Stephen McIntyre und Ross McKitrick versuchten daraufhin, das zugrundeliegende Computermodell nachzubauen. Die Zusammenarbeit mit Dr. Mann war dabei nicht sehr ergiebig, denn er weigerte sich lange beharrlich, Verfahren und Daten – wohl aus gutem Grund – offenzulegen. Nachdem sie ihr Ziel dennoch erreicht hatten, fütterten sie dieses Computerspiel mit allen möglichen Daten, auch den Originaldaten des Dr. Mann. Zuletzt und viele 10.000 Durchläufe später einfach mit Zufallszahlen. Und heraus kam – oh Wunder – immer wieder aufs neue ein Hockeystick. Das Modell konnte gar nicht anders. Es war auf diesen Schlenker hin programmiert.28

In der Zusammenfassung des vierten IPCC-Berichtes von 2007 fehlt dieser wichtige Beweis für eine menschengemachte Klimaerwärmung in der 2001 gezeigten Form. Stattdessen hat man die Grafik in einem Gewirr von Schlangenlinien, die alle die Temperaturentwicklung der letzten 1.000 Jahre darstellen sollen, versteckt. Man muß schon sehr tief in diesen Bericht einsteigen und genau hinschauen, um sie überhaupt noch zu finden. Die UN und die ihr folgenden Regierungen und Organisationen hielten es bis heute nicht für nötig, sich für diese bewußte Irreführung zu entschuldigen. Man kann sich ja doch mal irren, nicht wahr?!

 

Übrigens hat sich die gesamte wissenschaftliche Fachpresse – auf wessen Druck wohl – bis heute geweigert diese Korrekturen öffentlich zu machen. Im Herbst 2009 durch einen Insider oder Hacker zwangsveröffentlichte interne Emails von Mann und seinem „Team“ verfestigten den Betrugsverdacht weiter. Ein Schelm, der Schlechtes dabei denkt. Die ordentlich überarbeitete Hockeystickkurve finden Sie auf der nächsten Seite noch einmal schön hinterlegt mit der originalen IPCC-Kurve.29


Abb. 8: Die ursprüngliche Hockeystick- (unten) und die korrigierte Kurve, übereinander gelegt.

Inzwischen haben Forscher herausgefunden, daß sich die bei der Hockeystick-Rekonstruktion verwendete Baumringmethode überhaupt nicht zur Bestimmung von Temperaturen aus der Wachstumsperiode von Bäumen eignet, weil Bäume wohl über eine Art inneres Thermostat verfügen, das die Blattemperatur unabhängig vom Standort auf etwa 21 °C konstant hält. Also unabhängig davon ist, ob der Baum im tropischen Urwald oder an der Baumgrenze des Nordens heranwächst.30

Aber immerhin kann das IPCC für sich in Anspruch nehmen, eine Kurve als beste Erdtemperatur ausgegeben zu haben, die auch dann auftritt, wenn zu ihrer Erstellung reine Zufallszahlen verwendet werden. Das ist zwar kein Novum in der Wissenschaftsgeschichte. Bei uns Normalos heißt so etwas jedoch nicht Wissenschaft, sondern Betrug.

Die Geschichte entwickelt sich übrigens zu einer Geschichte ohne Ende, denn Dr. Mann – in seiner Berufsehre zutiefst verletzt – hat jüngst eine neue Hockeystickkurve vorgelegt. Er behauptet nun, diese würde die richtigen Temperaturen zeigen.31 Schaut man sie genau an, dann stellt man jedoch fest: Es ist die alte.32 Wie dieser dreiste Versuch das so hochgelobte Qualitätsmerkmal peer review passieren konnte, ist nicht nachzuvollziehen.