Homogenisierung oder Fälschung der Klima-Daten? Wie MeteoSwiss und NASA werkeln

Die Schweiz wird wärmer. Jedenfalls zeigen die Daten der NASA eine solche Erwärmung. Sie zeigen sogar, obwohl sie mit den Daten von MeteoSwiss identisch sein sollten, eine durchgängig um 2,7% stärkere Erwärmung als die Daten von MeteoSwiss.

Der Grund ist schnell erläutert: Er nennt sich Homogenisierung.

Wir haben das gestern mit „Anpassung durch die NASA“ beschrieben.

Quelle

Homogenisierung ist eine Form „Hokuspokus“, die der Gewichtung, wie sie Umfrageinstitute vornehmen, sehr ähnlich ist.

Aber fangen wir vorne an. Witzigerweise findet sich auf den Seiten von MeteoSwiss, die natürlich im internationalen Netzwerk der Klimadatenhomogenisierer mit von der Partie sind, was die Tatsache, dass die NASA die Daten von MeteoSwiss nochmals um den Faktor 2,7 homogenisiert umso interessanter macht, eine nahezu identische Beschreibung der Gründe einer Homogenisierung, wie sie sich auch auf den Seiten bei NOAA als Host des Global Historical Climatology Network der USA findet. Deshalb sparen wir uns die englische Erklärung für Homogenisierung und beziehen uns gleich auf die schweizerdeutsche. Wer die englischsprachige Version nachlesen will, der findet sie hier.

„Fast alle verfügbaren langjährigen Klimamessreihen sind unter Messbedingungen entstanden, die sich im Lauf der Zeit verändert haben. Häufigste Ursachen für solche Veränderungen sind Stationsverlegungen, der Einsatz neuartiger Messinstrumente oder Veränderungen der Umgebung. Anschaulich zeigt sich diese Problematik bei einer räumlichen Verschiebung der Temperaturmessung, die mit einem Höhenunterschied verbunden ist. Da die Temperatur im Mittel mit zunehmender Höhe abnimmt, ergibt sich bei einer solchen Verschiebung eine abrupte Veränderung in der Messreihe, die in keiner Art und Weise der tatsächlichen und natürlichen Entwicklung entspricht.“

Die angesprochenen Veränderungen machen zunächst einmal Sinn. Wenn man eine Messstation von einem Berg ins Tal verlegt, dann steigt zwangsläufig die gemessene Temperatur, das ist in keiner Weise unnatürlich, sie steigt systematisch, und das ist der Knackpunkt, denn die Systematik lässt sich ablesen, darin, dass nunmehr ALLE Temperaturen um einen mehr oder minder konstanten Faktor (pro Monat) über der ursprünglich gemessenen Temperatur liegen. Bei NASA wird in diesem Zusammenhang von Mess-Artefakten gesprochen.

Nun stellen Sie sich vor, sie haben eine Messstation, die verlegt wurde. Die heutigen Temperaturen sind um durchschnittlich 4 Grad Celsius höher als die vor der Verlegung gemessenen. Was machen Sie. Offenkundig macht es wenig Sinn, die neuen Daten ständig auf das Niveau der alten Daten zu korrigieren, also werden die alten Daten an das angepasst, was man heute misst. Das basiert auf der Prämisse, dass dann, wenn man 1932 oder 1901 in der Schweiz nicht in 500 Metern Höhe sondern auf NN gemessen hätte, die Temperaturen dem entsprächen, was man aufgrund heutiger Messungen für damals rekonstruiert. Das ist eine wilde Prämisse, denn sie schließt früheren Klimawandel schlicht aus.

Das gleiche gilt für Korrekturen, nein „Homogenisierungen“ aufgrund verbesserter Messtechnik. Wer sagt, dass die alte Messtechnik immer und konstant um den Faktor 0.75 schlechter gemessen hat als die neue Messtechnik? Niemand. Aber genau das wird angenommen, um Messreihen zu homogenisieren. Eine weitere wilde Prämisse, auf der die Homogenisierung der Klimadaten basiert.






Kehren wir zurück zum Beispiel der Messstation, die um, sagen wir 80 Höhenmeter nach oben verlegt wird. Nunmehr fällt die Temperaturmessung systematisch niedriger aus. Um die Zeitreihe retten zu können, müssen die 80 Höhenmeter irgendwie in die Messung der früheren Temperaturen eingebaut werden, dadurch, dass die zusätzlichen Höhenmeter quasi simuliert und die Messwerte dadurch nachträglich herunter gerechnet werden. Die ganze Homogenisierung ist somit ein reines Zahlenwerk, das auf vielen Annahmen basiert, die – und das ist jetzt entscheidend – sich gleichförmig auf alle früheren Messwerte, die nun angepasst werden, auswirken muss.

Das tun sie aber nicht nur bei der NASA nicht, sie tun es auch bei MeteoSwiss nicht, was den Schluss nahelegt, dass beide heftig mit den Daten herumspielen, und zwar mit dem Ziel spätere Messzeitpunkte wärmer erscheinen zu lassen.

Das folgende Beispiel betrifft Zürich Fluntern. Wir haben gestern schon über die merkwürdige Erwärmung, die die Daten aus Zürich Fluntern bei ihrer Übermittlung aus der Schweiz in die USA erfahren, berichtet. Heute berichten wir über die merkwürdige Inhomogenität, die die Daten für Zürich Fluntern von MeteoSwiss aufweisen.

Die folgende Abbildung findet sich auf der Seite von MeteoSwiss. Sie zeigt am Beispiel von Zürich Flundern, wie sich die Verlegung der Messstation um 80 Höhenmeter im Jahre 1948, und zwar 80 Höhenmeter nach oben, auf die Temperaturdaten ausgewirkt hat und wie diese Auswirkung durch Homogenisierung ausgeglichen wurde. Dargestellte ist die Anzahl der Tage pro Jahr, in denen Temperaturen von mehr als 25 Grad Celsius gemessen wurden.

Betrachten Sie bitte zunächst die beiden Gipfel, die wir mit A und B bezeichnet haben in der oberen Abbildung.

Zum Zeitpunkt A (1946) werden am 80 Höhenmeter tiefer gelegenen Messpunkt 99 Sommertage mit mehr als 25 Grad Celsius gezählt. Nach der Verlegung der Messstation sind es im Jahr 2002 am höher gelegenen Messpunkt B 83 Sommertage.

Die untere Abbildung zeigt das Ergebnis der Homogenisierung. Wie man es erwarten würde, wenn die gemessenen Temperaturen nach der Verlegung der Messstation systematisch geringer ausfallen, sind die historischen Werte, vor der Verlegung, durch die Homogenisierung nach unten korrigiert. Für A (1946) fallen jetzt nur noch 68 Sommertage über 25 Grad Celsius an. Dass MeteoSwiss aber nicht nur homogenisiert, sondern manipuliert hat, zeigt der Vergleich von Messzeitpunkt A mit Messzeitpunkt C. Beide liegen vor der Verlegung der Messstation. Auf beide müsste sich die Homogenisierung somit GLEICH auswirken. Das tut sie aber nicht. Während die Homogenisierung den Messzeitpunkt A um schlappe 31 Sommertage von mehr als 25 Grad Celsius erleichtert, also um rund 31%, wird Messzeitpunkt C nur um 13 seiner Sommertage von mehr als 25 Grad Celsius und somit um nur 16% erleichtert. Das führt dazu, dass Messzeitpunkt C, der 1911 unter identischen Bedingungen und in selber Höhe wie Messzeitpunkt A erstellt wurde, plötzlich mehr Sommertage hat als Messzeitpunkt A (1946). Das ist ein eindeutiges Indiz dafür, dass an Messzeitpunkt A (1946) herumgespielt wurde, so dass er weniger Sommertage aufweist als Messzeitpunkt B (2002). Hätte man Messzeitpunkt A um dieselben 16% seiner Sommertage mit mehr als 25 Grad Celsius reduziert, wie Messzeitpunkt C, es wären 1946 83 Sommertage über 25 Grad Celsius und somit eben so viele wie 2002 geblieben. Die ganze Aussage der Darstellung wäre eine andere.

Die Idee hinter einer Homogenisierung ist darauf gebaut, dass sie „HOMOGEN“ durchgeführt wird, also alle Zeitpunkte in gleicher Weise betrifft. Das ist hier offenkundig nicht der Fall.

Dass die behauptete „Homogenisierung“ ein Glücksfall für die Forscher darstellt, denn sie gibt Ihnen Gelegenheit, Datenlücken, Datenfehler, Datenprobleme und Datenmanipulationen hinter einer vorgeschützt technisch und methodisch notwendigen Datenanpassung zu verbergen, zeigt eine Arbeit unseres Lesers Rene Funk, auf die wir unsere Leser hiermit hinweisen. Rene Funk hat für die Messstationen der NASA in der Karibik, die in den GISSTEMP-Datensatz einfließen, gezeigt, dass die dort gewonnenen Daten eine Ansammlung von Hokuspokus, Interpolation, Fehlstellenmanagement und Fälschung sind, die einem die Haare zu Berge stehen lässt. Er zeigt zudem, dass die Homogenisierung nur eine Richtung zu kennen scheint: Das Erkalten früher gemessener hoher Temperaturen und die unkorrigierte Übernahme von Temperaturdaten, deren Anstieg z.B. dadurch erklärt werden kann, dass sie nunmehr am Rande eines häufig frequentierten Flughafens stehen, was vor Jahrzehnten noch nicht der Fall war oder damit, dass eine Stadt um die Messstation herum gewachsen ist.

Rene Funk fasst seine Ergebnisse wie folgt zusammen:

„Die Rohdaten, bzw. unangepassten Daten weisen eine Abkühlung auf. Das passte jedoch nicht in die politischen Ziele der Vorgänger Trumps und auch nicht zum seit 30 Jahren herrschenden Klimaschwindel. Also wurde zuerst adjustiert, um eine leichte Erwärmung vorzutäuschen. Mit der 2. Runde wurden nicht passende Messungen gelöscht. Lücken entstanden. Beim 3. Datenschwindel wurden nun die Messungen homogenisiert. Das Resultat, zwischen 1950 bis 1990 um 1.7 Grad tiefer gesetzte Temperaturen. Es gab keinen objektiven und fachlichen Grund, außer einen Politischen, um diese Rohdaten dermaßen in eine Unbrauchbarkeit zu verwandeln!“

Wir empfehlen allen, die sehen wollen, auf welchem Datenmüll und welcher Manipulation von Daten die Klimamodelle, mit denen täglich neue Schreckensmeldungen verbreitet werden, basieren, den Beitrag von Rene Funk zu lesen.

Er findet sich hier.


Hat Ihnen der Beitrag gefallen?
Dann unterstützen Sie uns bitte!

Print Friendly, PDF & Email
15 Comments

Leave a Reply to Volkmar Richter Cancel reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Translate »

ScienceFiles-Betrieb

Was uns am Herzen liegt ...

 

Ein Tag ScienceFiles-Betrieb kostet zwischen 150 Euro und 250 Euro.

 

Wenn jeder, der ScienceFiles liest, uns ab und zu mit einer Spende von 5, 10, 20, 50 Euro oder vielleicht auch mehr unterstützt, vielleicht auch regelmäßig, dann ist der Fortbestand von ScienceFiles damit auf Dauer gesichert.

  Wir bedanken uns bei allen, die uns unterstützen!

ScienceFiles-Spendenkonto
Holler Box