Educated Guess: Wie wird eigentlich die durchschnittliche Erd-Temperatur berechnet?
Wenn vom Klimawandel die Rede ist, dann wissen alle, dass die Temperatur steigen soll, 1 Grad Celsius, 2 Grad Celsius, ja 3,5 Grad Celsius werden zuweilen ins Gespräch gebracht – immer von irgendwelchen Aktivisten, von denen man das Gefühl hat, sie haben keine Ahnung, wie das, wovon sie sprechen, eigentlich zustande kommt.
Wie wird die Temperatur der Erde denn berechnet?
Es gibt sicher niemanden, der denkt, man liest die Erdtemperatur am entsprechenden Thermometer, sagen wir in Norwich, in East Anglia Super-Exaggerated Temperature ab.
Wie kommt sie dann zustande?
Das Grundproblem mit der Erdtemperatur besteht darin, dass Temperatur sehr heterogen ist. In der Arktis ist es kälter als in Mali und in München wärmer als in Aberystwyth, während es in Khartoum wärmer ist als in Reykjavik. Mit anderen Worten, um die Temperatur der Erde zu bestimmen, braucht man viele verschiedene Messstationen, sehr viele verschiedene Messstationen, die so über die Erde verteilt sind, dass ihr Gesamt auf die Erdtemperatur schließen lässt. Die Messstationen dürfen jedoch nicht nur an Land stehen, es muss sie auch auf dem Meer geben: auf Schiffen, in Bojen usw.
Derzeit gibt es weltweit vier Datensätze, die genug Temperatur-Informationen enthalten (sollen), um die Erdtemperatur zu bestimmen.
Der wohl umfassendste Datensatz ist der GISTEMP-Datensatz, den das Goddard-Institute for Space Science der NASA zusammenstellt. Er soll 99% der Erde mit Temperaturinformationen abdecken.
Daneben gibt es noch den MLOST-Datensatz der National Oceanic and Atmospheric Administration (NOAA) der USA, den HadCRUT4-Datensatz, der von UK Met Office Hadley Centre und der Univeristy of East Anglia (Climate Research Unit) zusammengestellt wird, sowie einen Datensatz, den die Japanese Meterological Agency (JMA) erstellt. Er hat mit rund 85% die geringste Abdeckung durch Messstationen. Die Daten stammen für HadCRUT4 aus rund 5.500 Messstationen, GISTEMP basiert auf rund 6.300 Einzeldaten, MLOST auf rund 7.000. Alle Messstationen befindet sich an Land. Die Temperaturmessung auf dem Meer ist ein eigenes Problem.
Die Datensätze unterscheiden sich nicht nur darin, aus wie vielen Messstationen sie ihre Informationen beziehen, sie unterscheiden sich auch in der Länge der Datenreihen. Die längste Datenreihe stellt HadCRUT4 bereit, sie beginnt 1850, GISTEMP und MLOST Daten beginnen mit dem Jahr 1880, die Daten der JMA beginnen im Jahr 1891.
Aus diesen Quellen stammen die Informationen, auf denen dann eine Abbildung wie die folgende basiert, die wir auf Basis der NASA GISTEMP Daten erstellt haben.
Die Musik bei dieser Abbildung spielt in dem, was links am Rand abgetragen ist: Average Temperature Anomalies. Was es damit auf sich hat, beschreibt NOAA wie folgt:
“The term temperature anomaly means a departure from a reference value or long-term average. A positive anomaly indicates that the observed temperature was warmer than the reference value, while a negative anomaly indicates that the observed temperature was cooler than the reference value.”
Nicht unbedingt der Gipfel an Transparenz und Informationsbereitstellung. Bei der NASA findet sich der folgende Splitter:
„This graph illustrates the change in global surface temperature relative to 1951-1980 average temperatures.”
Aus beiden Informationen kann man sich nun zusammenbasteln, was eine Temperatur Anomalie ist. Sie wird als Abweichung der täglich gemessen Durchschnittstemperatur für eine Messtation von einem Erwartungswert berechnet. Der Erwartungswert, der bei NASA und NOAA die Grundlage der Anomalien darstellt, ist der Mittelwert der Temperatur (an der entsprechenden Messstation) für den entsprechenden Tag im Zeitraum von 1951 bis 1980.
Für jede Messstation wird aus den Tagesdurchschnittswerten ein Monatsdurchschnittswert berechnet, der jeweils die Temperatur-Anomalie, also die Abweichung zur Durchschnittstemperatur für den Zeitraum 1951 bis 1980, angibt. Warum der Zeitraum von 1951 bis 1980 und nicht der Zeitraum von 1931 bis 1960? Weil der Zeitraum von 1931 bis 1960 die „Heisszeit“ der End-1930er und 1940er Jahre enthält:
Die Abbildung enthält Temperaturangaben für die vier oben genannten Datensätze HadCRUT4, GISTEMP (NASA GISS) und MLOST (NOAA). Wie man sieht, weichen die Temperaturangaben von einander ab. Indes: Es handelt sich hierbei um die Angabe der Erdtemperatur auf Basis tatsächlich gemessener Werte. Offenkundig gibt es mehr als eine durchschnittliche Erdtemperatur oder die Berechnung dessen, was durchschnittliche Erdtemperatur sein soll, ist nicht so einfach, wie gedacht.
Und das ist sie tatsächlich nicht. Stellen Sie sich vor, sie haben die Daten für ihre Messstationen, die sich an unterschiedlichen Orten der Erde befinden. Wie kommen Sie von den Einzeldaten zur durchschnittlichen Erdtemperatur?
Die Vorgehensweise von NASA, NOAA; Met Office / East Anglia und JMA ist weitgehend identisch. Die Erde wird in ein Netz von Quadraten eingeteilt, für jedes Quadrat wird die durchschnittliche Temperatur bestimmt. Für GISTEMP liegen die meisten Daten vor, also kann es sich das Goddard Center leisten, ein Grid aus Quadraten von jeweils 2 Breiten- und 2 Längengraden herzustellen. Alle anderen müssen mit 5 Breiten- und 5 Längengraden arbeiten.
Bislang haben wir quasi den Idealfall dargestellt. Die Realität besteht darin, dass alle vier Datensätze mit leeren Feldern in Ihrem Grid umgehen müssen. Die folgende Abbildung für HadCRUT4 zeigt, dass zum Teil erhebliche Lücken bestehen:
Die weißen Gridzellen sind solche, für die keine Informationen in HadCRUT4 vorhanden sind. Wenn Wissenschaftler mit leeren Zellen in ihren Daten konfrontiert sind, haben sie mehrere Möglichkeiten, man kann die leeren Zellen aus den räumlich gesehen nächsten Zellen, für die Werte vorliegen, berechnen. Diesen Weg geht man im Goddard Center der NASA. Es ist auch möglich, die fehlenden Werte mit dem errechneten „globalen Durchschnitt“ zu füllen. Diesen Weg gehen die Forscher bei HadCRUT4.
All die Entscheidungen, all die Unterschiede in der Berechnung der Erdtemperatur tragen dazu bei, dass die Modelle der Klimaforscher je nachdem, welchen Datensatz sie zu Grunde legen, unterschiedliche Ergebnisse ausspucken. Hinzu kommen nicht wirklich nachvollziehbare Entscheidungen wie die, die Erdtemperatur für die nördliche und südliche Hemisphäre zunächst getrennt zu berechnen und daraus einen Mittelwert für die endgültige Erdtemperatur zu errechnen. Der Hintergrund ist, dass es im Norden mehr Messstationen als im Süden gibt. Hinzukommt, dass die Distanz zwischen zwei Längengrad am Äquator größer ist als an den Polen. Um dieses Problem auszugleichen, werden die Ergebnisse aus den Zellen, für die Werte vorliegen, gewichtet (wie auch immer).
Die Darstellung der Berechnung der durchschnittlichen Erdtemperatur, die wir morgen für die Darstellung einiger Ungereimtheiten bei der NASA benötigen, sollte schon jetzt gezeigt haben, dass die Temperatursteigerung, die die Klimawandeljünger wie einen Fetisch anbeten, das Ergebnis eines sehr komplexen und mit vielen, sehr vielen Annahmen, Extra- und Interpolationen durchsetzten Prozesses ist. Die durchschnittliche Erdtemperatur, wie wir sie kennen, ist ein Educated Guess, mehr nicht.
Wissenschaft und Information verständlich und in Klartext.
Unterstützen Sie ScienceFiles
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen.
ScienceFiles lebt weitgehend von Spenden.
Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen:
Entweder direkt über die ScienceFiles-Spendenfunktion spenden [das ist sicher und Sie haben die volle Kontrolle über ihre Daten]:

Oder über unser Spendenkonto bei Halifax:

HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXG1B21B24
Wenn Sie ScienceFiles weiterhin lesen wollen, dann sind Sie jetzt gefordert.
Sehr schön zusammengefasst. Wir haben also Modelle, die auf der Schätzung von Schätzungen beruhen, um Vorgänge zu beschreiben, die wir in vielen Teilen nicht ansatzweise verstehen…
Super Zusammenfassung!
Temperaturdifferenzen wurden früher in Grad (grd) angegeben, heute in Kelvin. Eine Temperaturdifferenz in °C anzugeben vermehrt den Unsinn nur noch.
Das scheint kompletter non sense zu sein. Wenn zwei Drittel der Erde mit Wasser bedeckt sind, man aber nur an Land die Temperatur mißt. Außerdem sollte man meinen, daß eine an Land steigende Temperatur genau das Gegenteil impiliziert, also eine abkühlende Erde.
Denn es verdunstet weniger Wasser in die Atmosphäre mithin diese für Strahlung der Sonne durchlässiger wird und weiterhin die Landoberfläche weniger Feuchtigkeit aufweist. D.h, daß sich die Landfläche bei ungehinderter Sonneneinstahlung auf extreme Werte erwärmt,obgleich die Ozeane der geringeren Verdunstung nach wohl kälter geworden sind. Das wird dann fälschlich als Temperaturerhöhung der Erde interpretiert. Kann man eigentlich in jeder Wüste beobachten die sich auf extreme Werte erhitzt, weil eben vorher kein Wasser verdunstet werden muß. Sogar in Asphaltwüsten sieht und fühlt man das. Eine Erwärmung der Erde sollte nach dieser Logik zu viel Wasserdampf, Niederschlag und einer ziemlich langweiligen Temperaturkurve ohne Extremwerte führen.
Messwerte von hoher See werden schon berücksichtigt, aber das eben zuweilen Werte, mit denen man sich auf hoher See befindet…
Ja, das scheint mir auch so, daß da etwas gewaltig schwankt.
Im übrigen ist die Lufttemperatur überhaupt kein Kriterium für eine Erwärmung oder Abkühlung, vielmehr muß dafür die Enthalpie der Luft, also auch deren Wasserdampfgehalt vermessen werden. Um es nochmal kurz zu fassen.
Ach ja, der Wasserdampf, sind doch nur 60 bis 70%, also zu vernachlässigen, sagt das IPCC und die müssen das wissen, sind schließlich alles Politiker.
Es gibt noch die satellitenbasierten Meßreihen, die aussagekräftiger sind, weil die Messungen gleichmäßig verteilt über die Erdoberfläche erfolgen http://www.drroyspencer.com/latest-global-temperatures/
Habe auch gerade an die Satelliten gedacht, aber da werden sicher Gebiete mit mehr oder weniger Wolkenbedeckung zum Prinzipienfehler.
Die meteorologische Standardmessung der Temperatur erfolgt in 2 Meter Höhe und in einem strahlungsgeschützten, in der Regel nach unten geöffneten Gehäuse. Also im Schatten. Ich weiß außerdem aus der Schule, dass der Erdboden unter dem Gehäuse von kurz geschnittenem Gras bedeckt sein muss, natürlich in einer gewissen Zone drumherum. Mit einer Umgebung aus Beton kämen andere Zahlen heraus.
Auf den Ozeanen werden die Bedingungen kaum zu verwirklichen sein, ebensowenig in eisbedeckten Gegenden. Freilich wäre es Unfug, wenn man für den immerhin größten Teil der Erdoberfläche untypische Bedingungen verlangen würde. Dasselbe Problem stellt sich allerdings auch an Land. Bloßes (kurzgeschnittenes!) Gras ist auch nicht gerade sowas von repräsentativ.
Alles in allem zeigt dies nur, wie schwierig es bei der Vielfalt von Umgebungen ist, einen stichhaltigen Durchschnitt darzustellen – und erst recht einen Vergleich mit vor 150 Jahren, nachdem sich Umgebungen schließlich auch verändert haben und die Thermometer von anno dunnemals nicht die Präzision von heute. Wie will man da über Unterschiede von wenigen Zehntelgrade sicher sein, um die es schließlich geht?
Also Pi x Daumen überschlagen werden bei einer Änderung des Wassergehalts von einem Kubikmeter Luft von 20°C von 70%rF nach 60%rF etwa 2g Wasser abgeschieden und etwa 5Kj latente Wärme frei, wodurch sich eben diese Luft um gute 4 Kelvin erwärmt. Das kann man sicherlich vernachlässigen.
Man wähle per Zufallsgenerator 153 Koordinaten der Erdoberfläche aus (ist dort Wasser, Asphalt o.ä. dann noch mal würfeln) geht dort um 8:57 Ortszeit hin und steckt ein Fieberthermometer in den Boden und liest ab, wenn es piepst. Dann rechnet man den Durchschnitt aus und wiederholt das ganze an 4 aufeinanderfolgenden Samstagen. Welchen Sinn hat das Ganze? Absolut keinen! Doch diverse Bundes- und Landesministerien dürften sich darum prügeln, eine derartige Studie zu finanzieren …
Die kurze Antwort lautet: aus heißer Luft!
Ein Japaner namens Mototaka Nakamura hat ausgiebig über die obige Frage geforscht und ein Buch geschrieben. Leider nur auf japanisch, das nicht unbedingt jeder von uns beherrscht.
Sinnvolle Aussagen über die Temeperaturverteilung könne man erst ab 1980(!) machen, weil ab dieser Zeit Satellitendaten zur Verfügung stehen.
Dennoch ein paar Grafiken und Zahlen, die jeder versteht.
https://notrickszone.com/2019/07/16/nasa-giss-surface-station-temperature-trends-based-on-sheer-guess-work-made-up-data-says-japanese-climate-expert/
wieso er das Buch nur auf japanisch veröffentlicht hat, ist mir ein Rätsel, weil etliche Studien von ihm offenbar in englsicher Sprache erschienen sind.
http://iprc.soest.hawaii.edu/people/nakamura.php
Anderes Stichwort wäre Urbanisierung bzw. welche Korrekturen deshalb im GISTEMP-Datensatz vorgenommen werden…
Es gibt auch eine Klimadatenbank für Deutschland. Bemüht man diese erkennt man bei genauerem Hinsehen, dass sich die Standorte der Messstationen verschieben. Eine vernünftige Mittelwertberechnung ist so natürlich nicht möglich.
Richtig, manche Messtationen verschieben sich. Manche aber auch nicht. Für die Betrachtung der langfristigen Entwicklung am interessantesten sind Standorte die sich lange Zeit nicht verschoben haben und die immer noch in ländlichem Umfeld liegen.
Ich kann nur jedem empfehlen die Zeitreihe von Beerfelden im Odenwald zu analysieren.
“Es ist auch möglich, die fehlenden Werte mit dem errechneten „globalen Durchschnitt“ zu füllen. Diesen Weg gehen die Forscher bei HadCRUT4.”
Inwiefern das für die Antarktis sinnvoll ist, erschließt sich mir nicht.
Danke für diesen Überblick, sehr informativ!
Was ebenfalls problematisch ist, das sind die genauen Meßpunkte und Meßungenauigkeiten im Laufe von 150 Jahren Messung. Ein Thermometer über einer Betonfläche kommt zu anderen Temperaturen als über einer Grasfläche. In einer Promotion an der Uni Leipzig wurden diese und andere Probleme der Temperaturaufzeichnungen aufgearbeitet und deren möglicher Einfluss auf die Klimamodelle beleuchtet.
https://www.eike-klima-energie.eu/2016/04/03/treibhaeuser-des-klima-alarmismus-mit-welchen-tricks-deutsche-universitaeten-abweichende-meinungen-niederhalten/
In diesem Artikel lässt sich schön nachlesen, wie der Wissenschaftsbetrieb versuchte, die Promotion und deren Erkenntnisse zu blockieren.