Klimawandelforschung: Mehr als 20 Jahre Prognosen auf falscher Berechnungsbasis

Letztlich sind die meisten empirischen Wissenschaften auf Statistik gebaut.
Dies trifft vor allem auf die Klimaforschung und ihren Versuch zu, den menschlichen Abdruck im Variablengemenge zu finden, der zeigt, dass Treibhausgase, allen voran CO2, dafür verantwortlich sind, dass sich das Klima wandelt, und zwar nicht Treibhausgase als solche, sondern der Beitrag, den Menschen zu Treibhausgasen bringen. Der kleine Beitrag, den Menschen bringen, rund 4% am Gesamtaufkommen von z.B. CO2, er soll das Klimagleichgewicht kippen und dazu führen, dass sich das Klima zum Schlechteren wandelt.

Abweichung der durch Klimawandelmodelle vorhergesagten Temperaturentwicklung (rote Linie) von den tatsächlich gemessenen Temperaturen.

Die Behauptung, dass sich das Klima zum vermeintlich Schlechteren wandelt, das ist alles, was bei den “professionellen Arbeitslosen” (Zitat: Dr. habil. Heike Diefenbach), die sich für Aktivisten halten, für Klimaaktivisten, ankommt. Sie wollen glauben, dass menschlicher Einfluss für den Klimawandel verantwortlich ist. Sie müssen es glauben, denn sie haben keine, auch nicht die entfernteste Idee, wie Klimaforscher überhaupt vorgehen, um den menschlichen Einfluss, den Beitrag von Menschen zu Treibhausgasen im chaotischen System des Erdenklimas überhaupt aufzufinden.

Um es zu verstehen, sind ökonometrische Kenntnisse notwendig, denn das, was Klimaforscher anstellen, um den menschlichen Fingerabdruck zu isolieren, ist letztlich Mathematik, also genau das, was die meisten Straßenhopser nicht kennen wollen.

Wie also, wird der menschliche Anteil am “Klima” berechnet?
“Falsch”, um es mit Ross McKitrick zu sagen. Und zwar seit mehr als 20 Jahren falsch.

Im Jahre 1999 haben Myles Allen und Simon Tett den Beitrag: “Checking Model Consistency in Optimal FingerPrinting” in der Zeitschrift Climate Dynamics veröffentlicht. In diesem Beitrag entwickeln sie eine Methode, die es ermöglichen soll, den menschlichen Einfluss auf das Klima nicht nur aufzufinden, sondern quantitativ zu bestimmen. Auf diese Methode haben sich die für den Klimabericht des International Panels on Climate Change (IPCCC) Verantwortlichen sofort gestützt. Seit dem “Third Assessment Report” des IPCC aus dem Jahre 2001 wird die Methode von Allen und Tett aggressiv verbreitet, was dazu geführt hat, dass diejenigen, die sich als Klimaforscher beim IPCC empfehlen wollen, unzählige Arbeiten, die auf der Methode von Allen und Tett basiert, erstellt haben, mehrere Tausend Beiträge, die in wissenschaftlichen Zeitschriften veröffentlicht wurden, werden es mittlerweile wohl sein. Auch das IPCC schwört seit 2001 auf die Methode von Allen und Tett. Sie fehlt seiter in keinem Bericht des IPCC als Grundlage der Voraussagen über den bevorstehenden Untergang der Erde im Flammentod.

Niemand von den vielen Anwendern der Methode von Allen und Tett ist auch nur auf die Idee gekommen, die Methode zu prüfen, zu untersuchen, ob die Methode überhaupt geeignet ist, um das als Ergebnis zu erbringen, was behauptet wird, dass sie erbringen soll. Alle haben sie eifrig mit der Methode gearbeitet, um in deren Windschatten die lausige Karriere zu machen, die man als institutionalisierter Akademiker noch machen kann.

Dumm nur, dass die Methode von Allen und Tett falsch ist. Sie basiert auf Annahmen, die nicht eingehalten werden. Das hat Ross McKitrik schon vor einigen Jahren in einem Beitrag gezeigt, dem die Veröffentlichung verweigert wurde, weil der Beitrag den Herausgebern zu heiß war. Nun haben sich Mutige gefunden und der Beitrag “Checking for Model Consistency in Optimal Fingerprinting: A Comment” ist in Climate Dynamics zur Veröffentlichung akzeptiert worden.

Um zu sehen, wie falsch all das ist, was in den letzten Jahrzehnten von IPCC und anderen, die am angeblich menschengemachten Klimawandel ein eigenes (pekuniäres) Interesse haben, vorgebracht wurde, müssen wir ein wenig in die Statistik einsteigen. Aber nur oberflächlich – versprochen.

Zunächst zur Systematik des Fingerprintings, das Allen und Tett vorgeschlagen haben. Die Systematik besteht darin, dass Klimamodelle mit Modellen, die auf Grundlage von Beobachtungsdaten erstellt werden, verglichen werden und das Modell dabei identifiziert wird, das die Boebachtungsdaten am besten erklären kann. Man kann sich das Vorstellen, wie einen Vergleich zwischen künstlich hergestellten und einem am Strand gefundenen Kieselstein, bei dem es darum geht, den künstlich hergestellten Kieselstein zu finden, der dem gefundenen am meisten entspricht. Um diese Übereinstimmung zu finden, ist eine statistische Methode notwendig, die es erlaubt, jeweils einen künstlichen und den gefundenen Kieselstein miteinander zu vergleichen, und zwar entlang zuvor festgelegter Parameter: Farbe, Schwere, Umfang, Durchmesser, Länge, Breite usw. Die statistische Methode muss nicht nur in der Lage sein, zu vergleichen, sie muss auch in der Lage sein, den künstlichen Kieselstein zu identifizieren, der im Hinblick auf die genannten Kriterien die beste Näherung an den gefundenen Kieselstein darstellt.

Die Fingerprint-Methode, mit der menschlicher Einfluss auf das Klima bestimmt werden soll, funktioniert analog zum Kieselsteinmodell, und sie bedient sich einer Regression, der Methode der kleinsten Quadrate (ordinary least square, OLS). Bleiben wir im Kieselsteinbild. Alle Messungen, die wir für einen Kieselstein erstellt haben, können in eine Matrix übertragen werden, in der Distanzmaße zum gefundenen Kieselstein enthalten sind, so dass es mit einer Regression möglich ist, den besten Kieselstein zu finden.

Regressionen funktionieren sehr einfach.
Stellen Sie sich eine Reihe von Messdaten vor, die für unterschiedliche Personen ihr Ausmaß an Korruption und ihre Dauer in der Politik bestimmen. Jede Person ist durch ein konkretes Ausmaß an Korruption und eine konkrete Zeit, die sie in der Politik verbracht hat, ausgezeichnet. Beides kann man durch einen PUNKT in einem Koordinatensystem repräsentieren, das durch eine x-Achse (Zeit in der Politik) und eine y-Achse (Ausmaß an Korruption) aufgespannt wird. Sammeln wir Daten zu 1000 Personen, dann ergibt sich daraus eine Punktewolke aus 1000 Punkten, von denen manche identisch sein können, was uns aber nicht weiter stören soll. Eine Regression sucht nun UNTER DER ANNAHME, dass Korruptionausmaß und Zeit in der Politik LINEAR mit einander verbunden sind, die Gerade, die die Punktewolke am besten beschreibt, wobei die beste Beschreibung darin besteht, dass der Fehler, der mit der Gerade verbunden ist, auf der zwangsläufig nicht alle Punkte liegen können, am geringsten ist.

Unsere Suche nach dem künstlich hergestellten Kieselstein, der am besten mit dem natürlichen Kieselstein überinstimmt, kann analog erfolgen, indes: Wir haben mehr als zwei Variablen, um den Kieselstein zu beschreiben, damit wird der Raum mehrdimensional und wir sind im Bereich der Matrizenrechnung angekommen.

Die Fingerprint-Methode, die Allen und Tett entwickelt haben, funktioniert wie hier beschrieben, nur werden keine Kieselsteine, sondern Computermodelle mit Beobachtungsdaten verglichen, und es wird untersucht, welches Computermodell die beste Näherung für die Beobachtungsdaten darstellt. Die beste Näherung wird mit einer linearen Regression gesucht, was die Annahme beinhaltet, dass eine lineare Repräsentation des Zusammenhangs zwischen Computermodell und Boebachtungsdaten möglich ist.

Eine solche Repräsentation ist nur möglich, wenn zwei Bedingungen erfüllt sind:

  • Homoskedastizität, d.h. die Varianz der Fehler muss sich konstant über die Daten verteilen.
  • bedingte Unabhängigkeit, d.h. die erwateten Fehlerwerte dürfen keinen Zusammenhang mit den erklärenden Variablen aufweisen.

Das klingt sehr technisch und ist es auch. Versuchen wir es am Beispiel der Kieselsteine zu erklären. Wenn eine Gerade durch eine Punktewolke gelegt wird, dann gibt es Punkte, die mehr oder weniger weit von der Geraden entfernt sind. Die Distanz zur Gerade stellt den Fehler dar. Die Varianz wiederum ist die quadrierte Standardabweichung, die wiederum ein Maß dafür ist, wie weit die Punkte einer Verteilung von einem Mittelwert abweichen. Je weiter die Abweichung, desto höher der Wert für die Standardabweichung und für die Varianz.

Damit eine Regression berechnet werden kann, muss die Varianz über die einzelnen Fehlerwerte unterschiedlicher Variablen gleich verteilt sein (bei den Kieselsteinen ist das die Abweichung der Verteilungen nach Farbe, Schwere, Umfang, Durchmesser, Länge, Breite usw zwischen künstlichem und gefundenen Kieselstein von der Regressionsgeraden). Ist diese Annahme der Homoskedastizität verletzt, dann haben die Ergebnisse, die eine Regression erbringt, einen bias, d.h. die berechneten Koeffizienten werden bereits durch die Auswahl der Variablen beeinflusst.

Einen Verstoß gegen die Annahme der bedingten Unabhängigkeit kann man leicht im Kieselsteinbeispiel deutlich machen. Er liegt vor, wenn die Fehler, also die Abweichungen der Punkte von ihrer Repräsentation durch eine Gerade untereinander zusammenhängen, sich nicht zufällig verteilen, denn dann muss man davon ausgehen, dass die künstlichen Kieselsteine zueinander bessere Näherungswerte sind als sie es zu dem gefundenen Kieselstein sind. In diesem Fall haben die Koeffizienten, die die Regression ausgibt, nicht nur einen Bias, sie sind unbrauchbar, weil willkürlich.

Und genau dieser, zuletzt beschriebene Fall liegt in Klimamodellen vor.

Die Koeffizienten, die z.B. angeben sollen, welchen Effekt ein Ausstoß von x Tonnen CO2 auf die globale Temperatur hat, sind falsch, sie verletzten sowohl die Annahme der Homoskedastizität als auch die Annahme bedingter Unabhängigkeit. Sie sind schlicht unbrauchbar, fiktive, wenn man so will, Phantasiewerte, die die Tatsache verdecken, dass sich der Klimawandel viel besser durch Fehlerwerte als durch die Modelle erklären lässt, die einen menschlichen Einfluss auf das Klima zeigen sollen.

Und was bedeutet es, wenn Fehlerwerte aussagekräftiger sind als Modellkoeffizienten? Das bedeutet nichts anderes, als dass die klimatischen Beobachtungsdaten viel besser durch Variablen erklärt werden können, die derzeit NICHT im Modell vorhanden sind. Welche Variablen das letztlich sind, das ist die Frage, die aufgrund der Fixierung weiter Teile der Klimaforschung auf Andienforschung bei Ideologen bislang kaum gestellt und noch seltener beantwortet wird.


Wer den Text von Ross Mckitrik nachlesen will:
McKitrik, Ross (2021). Checking for Model Consistency in Optimal Fingerprinting: a Comment. Climate Dynamics.



Folgen Sie uns auf TELEGRAM

Anregungen, Hinweise, Fragen, Kontakt? Redaktion @ sciencefiles.org


Sie suchen Klartext?
Wir schreiben Klartext!

Bitte unterstützen Sie unseren Fortbestand als Freies Medium.
Vielen Dank!


  • Deutsche Bank 
  • Michael Klein
  • BIC: DEUTDEDBCHE
  • IBAN: DE18 8707 0024 0123 5191 00
  • Tescobank plc.
  • ScienceFiles / Michael Klein
  • BIC: TPFGGB2EXXX
  • IBAN: GB40 TPFG 4064 2010 5882 46

  • Ethereum
Scan to Donate Ethereum to 0xFB4D6bf441BAB5193e4DCaA1Ff8542e54eE7bBCe

Donate Ethereum to this address

Scan the QR code or copy the address below into your wallet to send some Ethereum

Tag / Hinweis: - ScienceFiles-Spende

Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.

ScienceFiles-Abo
Loading



Print Friendly, PDF & Email
18 Comments

Bitte keine Beleidigungen, keine wilden Behauptungen und keine strafbaren Inhalte ... Wir glauben noch an die Vernunft!

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Translate »

ScienceFiles-Betrieb

Was uns am Herzen liegt ...

 

Ein Tag ScienceFiles-Betrieb kostet zwischen 250 Euro und 350 Euro.


 

Wenn jeder, der ScienceFiles liest, uns ab und zu mit einer Spende von 5, 10, 20, 50 Euro oder vielleicht auch mehr unterstützt, vielleicht auch regelmäßig, dann ist der Fortbestand von ScienceFiles damit auf Dauer gesichert.


Wir bedanken uns bei allen, die uns unterstützen!


ScienceFiles-Spendenkonto

Vielen Dank!

Holler Box