Wie wird eigentlich die “globale” Temperatur gemessen?

Die tägliche Schreckensmeldung zum angeblich von Menschen verursachten Klimawandel ist mittlerweile so normal, dass viele sich so sehr daran gewöhnt haben werden, dass sie ihr kaum mehr Beachtung schenken. Auch deshalb sind Spinner wie die der Letzten Generation wichtig, denn sie halten die Erzählung vom menschengemachten Klimawandel warm. Zwar treffen diese Kult-Mitglieder bei den meisten normalen Menschen auf Ärger und Unverständnis, aber sie sorgen dafür, dass das Thema “menschengemachter Klimawandel” und die daraus vermeintlich folgende Apokalypse ständig, wie ein kosmisches Hintergrundrauschen, vorhanden ist.

Bei allen Katastrophenszenarien spielt die globale Temperatur, das Maß der globalen Erwärmung eine besondere Rolle, schließlich ist die Behauptung, dass sich der Planet als Ergebnis menschlicher CO2-Emissionen in die Atmosphäre, 4%, die die 96% natürlichen Ursprungs in den Schatten stellen, die zentrale Behauptung, auf der der Klimawandel-Kult aufbaut. Wie viele zentrale Behauptungen, auf deren Grundlage unzählige Märchen und Geschichten gesponnen wurden, so ist auch die Erdtemperatur so sehr in den normalen kognitiven Besitzstand nicht nur derjenigen eingegangen, die sich über die Erwärmung, die Klima-Krise, die Klima-Katastrophe ereifern, dass sich kaum jemand fragt, wie diese globale Temperatur eigentlich gemessen wird.

Die Messung der Erdtemperatur ist ein nicht geringes Problem, und zwar deshalb:

Wo nehmen Sie die Temperatur?
Wo ist der archimedische Punkt, an dem die Temperatur der gesamten Erde gemessen werden kann?
In der Arktis?
In den Tropen?
Auf Jamaika?
In Castrop-Rauxel?

Man misst die Temperatur an vielen Stellen, Messstationen an Land und auf See, beziehungsweise misst, wie dies an der University of Huntsville (UAH) geschieht, per Satellit an ausgewählten Punkten der Erde. Egal, wie man die Messdaten gewinnt, am Ende steht man vor einer bestimmten Menge Datenpunkte für bestimmte geographische Regionen der Erde und muss aus diesem Datenwust ein einziges Datum, die Temperatur der Erde zusammenbauen. Mit anderen Worten: Die globale Temperatur und deren Veränderung, mit der ständig hantiert wird, ist eine Schätzung, die auf einer Vielzahl von Entscheidungen zu Problemen basiert, die sich mit der Messung der Temperatur der Erde verbinden.

Derzeit gibt es vier Datensätze, auf deren Grundlage die Erdtemperatur und folglich deren Abweichung von einem Durchschnitt bestimmt werden kann: Den GISTEMP-Datensatz des Goddard-Institute for Space Science der NASA, der sich damit rühmt, der umfassendste Datensatz zu sein. Den MLOST-Datensatz der National Oceanic and Admospheric Administration (NOAA) der USA, den HadCRUT5-Datensatz der vom UK Met Office im Hadley Centre der University of Elast Anglia zusammengebaut wird, und einen Datensatz der Japanese Meteorological Society. In HadCRUT5 fließen Daten aus rund 5.500 Messstationen ein, GISTEMP berücksichtigt Daten von rund 6.300 Messstationen, bei MLOST sollen es rund 7.000 Messstationen sein.

Stellen Sie sich vor, sie müssen 5.500 Messstationen über die Erde verteilen. Wo platzieren Sie die Messstationen, damit sie aus deren Ergebnis eine globale Temperatur errechnen können?

Keine leichte Frage.
Die Verantwortlichen der vier benannten Datensätze haben sie dadurch beantwortet, dass sie die Erde mit einem Gitternetz überzogen haben, die dabei entstehenden Quadrate umfassen bei GISTEMP 2 Längen- und Breitegrade, bei HadCRUT5 und MLOST 5 Längen- und Breitgrade, so dass eine Quadrat für HadCRUT5 450 km2 Fläche umfasst. Das entspricht rund 28.000 Fussballfeldern. In der Regel EINE Messstation liefert die Daten für die Temperatur auf diesen 28.000 Fussballfeldern.

Die Schätzungen der globalen Temperaturen basiert auf diesen Daten: Die globalen Oberflächentemperaturen werden in der Regel als einfache oder gewichtete Mittelwerte der beobachteten lokalen Temperaturanomalien errechnet, wobei eine Temperaturanomalie die Abweichung einer aktuell gemessenen Temperatur vom Mittelwert für einen Referenzzeitraum darstellt.

Indes, rund 70% der Erde sind mit Wasser bedeckt und auf dem Meer kann man keine Messstation betreiben. Der größte Teil der Messstationen, mit denen die Oberflächentemperatur gemessen werden soll, steht somit auf festem Boden und gibt Aufschluss über die Temperatur von nur 30% der Erde, bestenfalls. Wie füllen Sie die Fehlstellen, die 70% Wasser, deren Oberflächentemperatur derzeit unbekannt ist?

Mit Schiffen, Bojen und Satellitenmessungen:

Die Temperaturdaten der genannten Datensätze sind eine Mischung aus Meeresoberflächendaten, die von fahrenden Schiffen, treibenden und angebundenen Bojen, Satellitenmessungen aus der Troposphäre (UAH) stammen, sowie Daten von Landstationen, Landstationen von teilweise unbekannter Qualität und unbekanntem Repräsentativitätsgrad für ihre Region. Und trotz allem sieht das Endergebnis dann so aus:

Alle grauen Flächen, die in der Abbildung oben enthalten sind, sind Orte, Regionen auf der Erde, für die KEINERLEI Messwerte vorliegen, es sind fehlende Wert, mit denen man umgehen muss, wenn man, wie es in allen Datensätzen üblich ist, für jede Hemisphäre einen einfachen oder gewichteten Mittelwert errechnen und als globale Temperatur ausgeben will. Die Lösung für das Problem der fehlenden Daten ist unterschiedlich. Bei HadCRUT ist man am ehrlichsten und lässt die fehlenden Werte fehlen, unternimmt also nichts, um sie irgendwie zu schätzen. Das wiederum ist die Methode, die bei GISTEMP oder MLOST zum Einsatz kommt. Die fehlenden Werte die zum Teil große Bereiche in z.B. Afrika umfassen, werden aufgrund der räumlich nächsten Werte, die vorhanden sind, interpoliert. Ein ziemlich wildes und unwissenschaftliches Vorgehen, wenn man bedenkt, dass große Teile z.B. Afrikas schlicht keine Daten liefern.

Indes ist der Hokuspokus, dem wir uns in einem folgenden Post noch intensiver widmen werden, damit nicht am Ende, denn die Messdaten für unterschiedliche Stationen liegen für unterschiedliche Zeiträume vor. Manche dieser Messstationen waren einst auf dem Land und wurden mittlerweile in Städte integriert, die gemessenen Werte sind dadurch höher und müssen entsprechend berichtigt werden und so weiter und so fort. Viele der Messstationen an Land wurden im Laufe ihres Bestehens geografisch verlagert, ihre Instrumentierung hat sich geändert. Das Ergebnis solcher Veränderungen sind Messfehler, die in allen besprochenen Datensätze mit Hilfe so genannter “Datenhomogenisierungen” wett gemacht werden sollen.

Wenn Sie Zeit haben, schauen Sie doch einmal bei unserem plünderungssicheren ScienceFiles Shop vorbei.

Andere Probleme verbindet sich mit der Qualität der Daten. So wurden während des späten 19. und im frühen 20. Jahrhundert Temperaturmessungen auf See in der Regel auf Basis eines
Eimer Wassers dessen Temperatur an Deck eines Schiffes gemessen wurde, durchgeführt.

Im Laufe des 20. Jahrhunderts wurden die Fehlstellen bei Wassertemperaturmessungen reduziert, vornehmlich durch speziell isolierte Eimer im Maschinenraum von Schiffen und die Verwendung von Rumpfkontakt Sensoren. Ende des 20. Jahrhunderts wurden große Netze von treibenden Bojen aufgebaut, die umfassendere Temperaturmessungen ermöglichen als dies zuvor mit rein schiffsbasierten Messungen möglich war.

Dazu:

Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F. and Jones, P.D. (2006). Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. Journal of Geophysical Research: Atmospheres 111(D12).

O’Neill, P., Connolly, R., Connolly, M., Soon, W., Chimani, B., Crok, M., de Vos, R., Harde, H., Kajaba, P., Nojarov, P. and Przybylak, R. (2022). Evaluation of the homogenization adjustments applied to European temperature records in the Global Historical Climatology Network Dataset. Atmosphere 13(2), p.285.

Es ist, nach all dem Gesagten eine massive Untertreibung, wenn wir feststellen, dass die verschiedenen Temperaturaufzeichnungen nicht von gleicher wissenschaftlicher Qualität sind. Vor allem an den Datensätzen von NOAA und NASA ist erheblich herumgewichtet und verändert worden, so dass die Frage, ob die Datensätze überhaupt noch eine Beschreibung der Realität von Temperaturveränderungen vornehmen oder nicht eher eine Beschreibung der Veränderung von Datensätzen unter politischem Druck darstellen, vermutlich zugunsten von Letzterem beantwortet werden muss.

Es gibt somit ein erhebliches Problem mit der Reliabilität der Daten, eines, das wie so oft mit “Gewichtung” gelöst werden soll, Gewichtung, die alte Messwerte im Vergleich zu aktuellen Messwerten kälter macht oder weniger stark berücksichtigt, Gewichtung, die an einem Messort interpolierte Werte geringer wertet usw. Wir kommen darauf in einem weiteren Post zurück.

Und weil das alles noch nicht reicht, werden in den drei Datensätzen HadCRUT, MLOST und GISTEMP, die Anomalien auf Grundlage unterschiedlicher Zeiträume bereichnet. HadCRUT bezieht sich auf den Zeitraum 1961-1990, während MLOST und GISTEMP stattdessen 1901-2000 bzw. 1951-1980 als Referenz verwenden, was zu höheren positiven Temperaturanomalien führt. Bei allen drei Aufzeichnungen der Oberflächenlufttemperatur, vor allem aber bei NOAA und NASA, werden häufig administrative Änderungen der Anomaliewerte vorgenommen, sogar für Beobachtungen, die mehrere Jahre zurückliegen. Einige Änderungen können auf den verzögerten Abbau von Stationen oder die Hinzufügung neuer Stationsdaten zurückzuführen sein, während andere wahrscheinlich auf eine Änderung der Technik zur Berechnung der Durchschnittswerte zurückzuführen sind. Es ist für einen Außenstehenden unmöglich zu beurteilen, ob derartige Änderungen, die grundsätzlich zu einer höheren globalen Temperatur führen, eine krude Manipulation im Dienste der Erzählung, die man durchsetzen will, sind, oder tatsächlich die Reliabilität der Daten erhöhen. Es gibt indes Indikatoren, die Tony Heller regelmäßig sammelt und veröffentlicht, die den Verdacht nähren, dass Daten bewusst und in einer Weise verändert werden, die die “globale Erwärmung” zu einer mathematischen Größe, nicht zu einem tatsächlichen Ereignis macht.

All das haben Essex et al. schon 2006 dazu veranlasst, die Sinnhaftigkeit einer Messung der globalen Temperatur vollständig in Abrede zu stellen, wobei das Hauptargument von Essex et al. schon 2006 in der Willkür, mit der Datenanpassungen vorgenommen werden, bestanden hat.

“There is no global temperature. […]

Es gibt keine globale Temperatur. […]

Since temperature is an intensive variable, the total temperature is meaningless in terms of the system being measured, and hence any one simple average has no necessary meaning. Neither does temperature have a constant proportional relationship with energy or other extensive thermodynamic properties.

Da es sich bei der Temperatur um eine intensive Variable [Variable, die bei “Aufteilung” denselben Wert behält] handelt, ist die Gesamttemperatur in Bezug auf das gemessene System ohne Bedeutung, und jeder einfache Durchschnittswert ist ohne bestimmte Bedeutung. Temperatur steht nicht in einem konstanten proportionalen Verhältnis zur Energie oder zu anderen umfassenden thermodynamischen Eigenschaften.

Averages of the Earth’s temperature field are thus devoid of a physical context that would indicate how they are to be interpreted, or what meaning can be attached to changes in their levels, up or down. Statistics cannot stand in as a replacement for the missing physics because data alone are context-free. Assuming a context only leads to paradoxes such as simultaneous warming and cooling in the same system based on arbitrary choice in some free parameter. Considering even a restrictive class of admissible coordinate transformations yields families of averaging rules that likewise generate opposite trends in the same data, and by implication indicating contradictory rankings of years in terms of warmth.

Die Durchschnittswerte des Temperaturfeldes der Erde entbehren somit eines physikalischen Kontextes, der angibt, wie sie zu interpretieren sind oder welche Bedeutung den Veränderungen ihrer Werte nach oben oder unten beigemessen werden kann. Die Statistik kann nicht als Ersatz für die fehlende Physik dienen, denn Daten als solche haben keinen [interpretativen] Kontext. Die Annahme eines Kontextes führt zu Paradoxien wie der einer gleichzeitigen Erwärmung und Abkühlung im selben System aufgrund der willkürlichen Wahl eines freien Parameters. Selbst wenn man nur eine begrenzte Klasse zulässiger Koordinatentransformationen in Betracht zieht, ergeben sich Familien von Mittelwertbildungsregeln, die ebenfalls entgegengesetzte Trends in denselben Daten erzeugen und folglich widersprüchliche Rangfolgen von Jahren in Bezug auf die Erwärmung angeben.

Was Essex et al. (2006) hier beschreiben ist keine Methode, die in der Wissenschaft einen Platz hat, aber sie ist natürliche eine Methode, die denjenigen, die Daten gerne in ihrem Sinne manipulieren wollen, alle Möglichkeiten dazu bietet.

Essex, C., McKitrick, R. and Andresen, B., (2007). Does a global temperature exist?. Journal of Non-Equilibrium Thermodynamics.


 

Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:

Donorbox

Unterstützen Sie ScienceFiles


Unsere eigene ScienceFiles-Spendenfunktion

Zum Spenden einfach klicken

Unser Spendenkonto bei Halifax:

ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):
  • IBAN: GB15 HLFX 1100 3311 0902 67
  • BIC: HLFXGB21B24

Print Friendly, PDF & Email
14 Comments

Bitte keine Beleidigungen, keine wilden Behauptungen und keine strafbaren Inhalte ... Wir glauben noch an die Vernunft!

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Entdecke mehr von SciFi

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen

Entdecke mehr von SciFi

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen