Klimahysterie-Kreationismus: Das Ende ist nah
Wir aber sagen Euch: Das Ende ist nah. Der Tag des jüngsten Gerichts wird kommen. Armageddon ist auf dem Weg. Die Ritter der Apokalypse sind in der Schweiz eingetroffen. Nicht mehr lange und die Erde wird im Fegefeuer des menschengemachten Klimawandels schmelzen. Wer nicht zur Beichte war, wird in den ewigen Flammen untergehen. Macht Euch auf, Ihr CO2-Sünder. Geht den Weg der Buße, den Pfad der Reue, die Chaussee des Ablasshandels: Zahlt Steuern auf CO2, hört auf zu fliegen, geht zu Fuß, bleibt zuhause, wartet … und betet, denn das Ende ist nahe.
„Schweizer Forscher entkräften Argument von Klimwandel-Leugnern“, behauptet der Spiegel. Eine kühne Behauptung. Das öffentlich-rechtliche Plagiat der ARD hat die Behauptung übernommen und zum alten Hut weiterentwickelt: „Die Erkenntnisse der Berner Wissenschaftler sind nicht grundlegend neu“. Neu sei, dass die Studie von „Raphael Neukom und sein[em] Team“, die ganze Erde, also Land und Meer, abdecke, so darf Mojib Latif in der ARD ausführen, um dem Leser den Eindruck zu vermitteln, die neue Studie von „Raphael Neukom und sein[em] Team“, sei quasi schon als richtig erkannt, bevor sie veröffentlicht wurde, denn: „Es gab beispielsweise bereits kontinentale Rekonstruktionen, die ebenfalls zeigten, dass die Phasen nicht gleichzeitig waren“. Dieser Satz, von Stefan Brönnimann, den die ARD als „Bonner Wissenschaftler“ präsentiert, ist das, was Stewart Hall „high context language“ genannt hat, ein sprachlicher Niederschlag, den nur verstehen kann, wer das kleine Haus des Bonner Wissenschaftlers bewohnt.
Was uns die ARD und die anderen deutschen Qualitätsmedien heute weismachen wollen ist, dass „Raphael Neukom und sein Team“ etwas bestätigt haben, was es schon als Erkenntnis gab, so dass es keinen Sinn mehr macht, nicht an den menschengemachten Klimawandel zu glauben.
Bekennet Eure Sünden, ihr Ungläubigen, die ihr nicht an den menschengemachten Klimawandels glaubt, tut öffentlich Buße und beantragt die Aufnahme in die Sekte der Kreationisten, die denkt, die Erde sei vom Klima-Gott vor 2000 Jahren geschaffen worden.
Denn, die Datenreihe, auf deren Grundlage „Raphael Neukom und sein Team“ gezeigt haben, dass „sich Warm- oder Kaltzeiten … nie auf der ganzen Welt gleichzeitig“ (Spiegel) entwickelt haben, dass „in früheren Zeiten … Klimaschwankungen vor allem regional und zu unterschiedlichen Zeiten“, nie aber gleichzeitig aufgetreten sind (Tagesschau), sie ist 2000 Jahre lang. Dass die „globale Erwärmung … beispiellos“ ist (Tagesschau) bzw. „Warm- oder Kaltzeiten“ mit Ausnahme von heute „nie auf der ganzen Erde gleichzeitig“ aufgetreten sind, diese umfassenden Behauptungen, sie beruhen auf einer Stichprobe von 0,00004% Erdgeschichte.
Das ist etwas wenig, um dem Ergebnis dieser Studie zu vertrauen.
Aber es gibt noch mehr Gründe, um den Humbug aus der Schweiz nicht zu glauben. Es beginnt damit, dass „Raphael Neukom und sein Team“ gegenüber der Tagesschau und in ihrem Text allen Ernstes ihr Ergebnis damit feiern, dass es „mit sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“ errechnet wurde. Normalerweise ist die Verwendung mehrerer statistischer Methoden entweder ein Indiz dafür, dass ein vermeintlicher Forscher nach der Methode sucht, die ihm das beste Ergebnis für seine Zwecke liefert, oder es ist ein Indiz dafür, dass der Gaul mit einem Datenfuzzi durchgegangen ist. Wenn man weiß, was man untersuchen will, weiß man auch, welche statistische Methode für die Untersuchung am besten geeignet ist.
Die Ergebnisse der Studie von „Rapahel Neukom und sein[em] Team“, die in Nature Letter unter dem Titel „No evidence for globally coherent warm and cold periods over the preindustrial Commen Era“ veröffentlicht wurden, basieren auf den Daten der Pages 2K Datenbank, in der Ergebnisse unterschiedlicher Methoden, das vergangene Klima zu bestimmen, abgelegt sind, also die Ergebnisse aus der Untersuchung von Eisbohrkernen, aus der Analyse von Bäumen, Fluss- und See-Sedimenten, Gletschern und Korallenriffen. Der Datensatz ist ein Patchwork unterschiedlicher Erhebungsmethoden und somit auch unterschiedlicher Validität.
Als weiteren Datensatz benutzen „Raphael Neukom und sein Team“ den britischen HadCrut4-Datensatz, um eine globales Netz von Temperaturzellen errechnen zu können, simulieren zu können, dem sie die historischen Daten zuspielen. Wir haben vor einigen Tagen beschrieben, was es mit HadCrut4 und anderen Datensätzen, die die Erd-Temperatur abbilden sollen, auf sich hat.
Wenn man nun als Mensch, der mit normalem Verstand ausgestattet ist, von einer Analyse wie der hört, die „Raphael Neukom und sein Team“ durchgeführt haben, dann fällt als eine der ersten Fragen die folgende ein: In welchem zahlenmäßigen Verhältnis stehen Daten von vor 2000 Jahren zu Daten von heute? Es ist offenkundig, dass die Anzahl der Messdaten für die letzten 30 Jahre ein Vielfaches der Anzahl von Messdaten darstellt, die es für das 19. Jahrhundert gibt, geschweige denn für die Mittelalterliche Warmzeit oder die römische Warmzeit. Es ist darüber hinaus leicht einsichtig, dass die Menge der Daten, die für einen Zeitraum zur Verfügung stehen, das Vertrauen erhöht, das man in das hat, was zu dem entsprechenden Zeitraum gemessen wurde. Und für diejenigen, die den HadCrut4-Datensatz kennen, ist es spannend danach zu fragen, wie die Autoren damit umgegangen sind, dass es im HadCrut4-Datensatz viele leere Zellen gibt, für die keine Daten vorliegen, geschweige denn, historische Daten.
Zur Erläuterung: HadCrut4 teilt die Erde in Zellen von je fünf Längen- und Breitgraden Ausdehnung ein. Die Idee ist, für jede dieser Zellen mindestens eine verlässliche Messung zu haben, um die Gesamttemperatur der Erde dann aus der Kombination aller Zellen errechnen zu können. Die Wirklichkeit ist: Viele der Zellen sind schlicht leer, ein Problem, das auch „Raphael Neukom und sein Team“ nicht gelöst haben, wie die folgende Abbildung zeigt:
Oben sieht man in einem stark verzerrten Maßstab, die historischen Messdaten von „Raphael Neukom und sein[em] Team“. Die lustigen Punkte in lila, orange, hellblau, schwarz, dunkelblau und grün stellen die Daten dar, die 2000 Jahre Erdgeschichte abdecken sollen. Das machen sie ganz offenkundig nur für die nördliche Hemisphäre, während die südliche Hemisphäre weitgehend unerschlossen ist. Wenn die Ergebnisse von „Raphael Neukom und sein[em] Team“ verallgemeinerbar wären, dann sicher nicht für die südliche Hemisphäre. Eine weitere Nettigkeit, die aus HadCrut4 resultiert, versteckt sich in den unterschiedlichen „Blauschattierungen“, die die Entfernung der entsprechenden Zelle zum nächsten Messdatum angeben. Wie man sieht, sind die Ozeane nicht nur vom Weltall aus betrachtet blau, sondern auch im Modell von „Raphael Neukom und seine[em] Team“: Es handelt sich um leere Zellen, für die keinerlei Messwerte vorliegen. Die nächsten Zellen, die mit gemessenen Werten gefüllt sind, liegen in der Regel mehr als 3000 Kilometer entfernt.
Aber die Aussagen, die „Raphael Neukom und sein Team“ machen, sie sollen dennoch für die ganze Erde gelten. Die untere der beiden Abbildungen macht noch deutlicher, dass dieser Anspruch an Größenwahnsinn grenzt, denn die Verteilung der Messdaten ist, wie man es erwartet hätte: Je weiter zurück in der Zeit die Autoren gehen, desto spärlicher werden ihre Daten. Nicht wirklich das, was man eine verlässliche Datengrundlage nennt.
Ein Umstand, der auch „Raphael Neukom und sein[em] Team“ bewusst ist, denn sie schreiben:“
„An important caveat of our results is that the spatiotemporal distribution of high-resolution proxy data is inherently unequal and often sparse” (52).
Eine andere Art zu sagen: Die Daten sind Müll, die noch davon abgerundet wird, dass im ganzen Text keine Angaben dazu gemacht werden, wie verlässlich, valide, reliabel denn die Ergebnisse sind, die mit „sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“, errechnet wurden.
Was das schlechte Gefühl, das man mit Blick auf die Daten hat, zu einem mulmigen Gefühl mit Blick auf die Lauterkeit der Autoren und Peer Reviewer macht, ist das hier:
Die Datenreihe von „Raphael Neukom und sein[em] Team“ beginnt just zu einem Zeitpunkt, zu dem die Erde eine lange Phase der Abkühlung von rund 60 Millionen Jahren durchlaufen hat. Zufall oder bewusste Irreführung?
Für bewusste Irreführung spricht, was „Raphael Neukom und sein Team“ am Ende ihres Beitrags schreiben:
„Moreover, the spatial consistency seen in model simulations over the twentieth Century suggest that anthropogenic global warming is the cause of increased spatial temperature coherence relative to prior eras” (52).
Das ist Junk Science.
Denn „Raphael Neukom und sein Team“ haben keinerlei Maß für den menschlichen Einfluss in ihren Simulationen berücksichtigt. Sie werfen diese politisch-korrekte und wahrscheinlich für die Forschungsförderung relevante Behauptung in den Ring, um denen, die in Redaktionen nur darauf warten, ihr Klimahysterie-Garn weiterzuspinnen, Nahrung zu geben. Und natürlich wird in ARD und Spiegel sofort die CO2-Karte gespielt und behauptet, dass „Raphael Neukom und sein Team“ in ihrer „Studie“ gezeigt hätten, dass menschlicher Einfluss globale Erwärmung zum Ergebnis hat. Das haben Sie nicht. Wenn „Raphael Neukom und sein Team“ überhaupt etwas gezeigt haben, dann ihre Fähigkeit aus Datenlücken und spärlich in Zeit und Raum verteilten Messergebnissen eine konsistent Erzählung zu zimmern, die dem Zeitgeist, der in Redaktionen wütet, entspricht und den CO2-Ablasshandel ankurbelt.
Denn wisset, wer nicht seine Seele vom CO2-Fußabdruck freikauft, der wird im globalen Fegefeuer der Erde schmoren, auf ewig!
Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:
Donorbox
Unterstützen Sie ScienceFiles
Unsere eigene ScienceFiles-Spendenfunktion
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Heute morgen, kurz nach sechs: Blick aufs Handydisplay in die “Welt”. Vier klimahysterische Beiträge ganz oben, die Schweizer Studie war darunter. Tenor: Jetzt sind die Klimawandelleugner endgültig ausgeknockt. Jetzt ist es nicht ganz halb vier am Nachmittag. Der “Bericht” über die triumphal gehypte Studie ist von der Seite verschwunden. Muss man noch mehr dazu sagen? Hey, für wie blöde halten die uns? Und wie blöde sind die eigentlich selbst?
Oder wie Professor “Scott George von der Universität Minnesota in einem zugehörigen Kommentar im Journal „Nature“ [schreibt]. Es sei manchmal schwierig, alte Kalt- und Warmphasen miteinander zu vergleichen, weil Jahresringe in Bäumen beispielsweise einen sehr langsamen Klimawandel, der sich über mehrere Jahrhunderte ausdehne, nicht zuverlässig darstellen könnten.” [Welt.de]
Neben ganz anderen Problemen, sh. “Climategate” und Manns Umgang mit Baumringdaten aus benachbarten Regionen, die einfach nicht passen wollten…
*
Aber schlussendlich ist (für George) alles gut, denn die zweifelhaften bis unbrauchbaren Baumringdaten belegen die beispiellose globale Erwärmung. Man verlffentlicht schließlich in “Nature”.
*
Gab es nicht in den letzten Jahren Studien, die eine globale Wirkung von Kleiner Eiszeit und Mittelalterlichem Optimum nahe legten?
*
Und kühlt die Antarktis nicht gerade ab, trotz kräftiger Hitzewirkung der geothermischen Hotspots um die Westantarktis herum…
Die vorgekasperte “Wissenschaftlichkeit” muss ja lediglich Laien und Halbwissende beeindrucken – so auf dem “populärwissenscafftlichen” Level einer “PM”, wo Farbe und Form eines Diagrammes mehr zählen als z.B. Skalen und Skalenauswahl. Die meisten Steuersklaven haben keine Zeit, eigene Forschungen anzugehen, die ausreichend tiefer in die Grundlagen / Basen gehen, die dem CO2 Zirkus dienen. Das wissen auch die CO2 Oberpriester a la Latif – die einzigen, die das Verarschungskonstrukt widerlegen könnten, sind entweder mit staatlicher Postenabhängigkeit kaltgestellt oder haben – als übrigens Leistungsesel des Neusozialismus – zwischen dem Ermalochen von CO2 Steuern und EEG-Umlage eh keine Freizeit mehr über, sich dem anzunehmen.
Das Wahrheitsmonopol war schon immer Eckpfeiler eines jeden Regimes – und mit dem Monopol auf Teile des Wissens ist es sogar noch mächtiger, wie die alten Staatskirchen lange ritten…
Hinter all diesen Arbeiten verbirgt sich meines Erachtens auch eine gewisse Überschätzung des ominvoren, bipeden Säugetiers Mensch, den vermeintlichen Herrscher des Planeten, die vermeintliche Krone der Schöpfung. Diesen wissenschaftzlichen Überlegungen haftet daher stets etwas Religlöses an. So wird der vielfach “emeritierte” Gottesleugner zum Klimaleugner, dem die “Verderbnis” gewiss ist.
Natürlich ist der Mensch die Krone der Schöpfung. Gott hat gewußt, was er sich mit uns Schlari antut. Das Lächerlichte ist doch, daß wir uns einbilden, weil wir mit unseren in Adam vorgegebenen Fähigkeiten – Gauß, Mozart usw. – vieles können, dieses Können unser Untergang sein soll.
Weltweit werden 40 Millionen Ungeborene jährlich umgebracht. Allein das soll unseren Schöpfer nicht stören?
Wie lange noch, bis die Stahlträger in Hochhäusern in der mitteleuropäischen Sommerhitze schmelzen!?
Verfahrenheit 666.
Schmelzen tun die Träger im Winter.
Im Sommer verdunsten sie dann.
ALLES WIRD GUT.
Der Klingelbeutel füllt sich.
Pages2K Daten sind hoffnungslos zusammengewürfelte Datensprengsel aus unzuverlässigen Quellen. Sie haben nur ein Ziel: Den Urhockeystick von Michael Mann zu belegen. Kein Wunder, dass die schweizer Autoren dann auch genau das finden. Wer über die hanebüchene Arbeitsweise von Pages2K informiert werden will, schaut bei Stephen McIntyre (Climate Audit) vorbei. Dort wurde nicht nur M. Manns Hockeystick zerlegt sondern auch die zahlreichen Pages2K Nachahmerversuche, die teils klammheimlich wieder zurückgezogen/ korrigiert wurden.
Abb. 1 der Studie zeigt, wie die Datenbasis abnimmt, je weiter man in die Vergangenheit zurückgeht. Hinzu kommt, dass die zeitliche Auflösung der Daten mit zunehmenden Alter unschärfer wird. Dementsprechend ungewisser wird auch die Datierung der rekonstruierten Jahreswerte. Um so bemerkenswerter ist, dass eine Glättung der Zeitreihe genau das Gegenteil dessen zeigt, was die Studie angeblich bewiesen haben soll (siehe Abb. 2). Das gestehen denn auch die Autoren ein:
At the original annual resolution, the reconstruction ensemble mean shows no clear indication of a long period of years with globally consistent below-average temperatures relative to the mean for 1-200 AD (Fig. 2a); the area fraction of warmth and cold shows high interannual variability. […] It is only if the reconstructed timeseries are smoothed over multidecadal timescales, and if global areais shown in aggregate, that the classical picture of a loosely defined LIA and MCA appears (Fig. 2b and Extended Data Fig. 1).
Paradox ist, dass das PAGES 2k Konsortium (auf dessen Datensatz die Studie Neukom et al. basiert), gerade zu einem ganz anderen Resultat gelangt ist. Über ihre Studie schreiben die Autoren:
“Here we present 2,000-year-long global mean temperature reconstructions using seven different statistical methods that draw from a global collection of temperature-sensitive palaeoclimate records. Our reconstructions display synchronous multidecadal temperature fluctuations that are coherent with one another and with fully forced millennial model simulations from the Coupled Model Intercomparison Project Phase 5 across the Common Era. A substantial portion of pre-industrial (1300–1800 ce) variability at multidecadal timescales is attributed to volcanic aerosol forcing.” (https://www.nature.com/articles/s41561-019-0400-0)
Haben vielleicht sieben (statt sechs) statistische Verfahren zu einem anderen Ergebnis geführt?
Am Berner Klimaforschungszentrum hat man überdies gefunden, dass das globale Klima in der ersten Hälfte des 19. Jahrhunderts maßgeblich von Vulkanen bestimmt wurde: In der Mitteilung der Universität heißt es:
“Wie die Simulationen zeigen, haben sich die Weltmeere während mehrerer Jahrzehnte nicht von den Auswirkungen der Vulkanausbrüche erholt. Die Folgen: Eine anhaltende Abschwächung des afrikanischen und indischen Monsunsystems sowie eine Verschiebung der atmosphärischen Zirkulation über Atlantik und Europa und dadurch eine Zunahme von Tiefdrucksystemen über Zentraleuropa.
Der letzte Gletschervorstoss in den Alpen zwischen 1820 und 1850 […] ist das Resultat einer Niederschlagszunahme in Folge der veränderten Zirkulation in Kombination mit tiefen Temperaturen. Ab dem späten 19. Jahrhundert aber stiegen die globalen Temperaturen wieder an. Die Kleine Eiszeit wurde von einer ersten Phase der gegenwärtigen Klimaerwärmung abgelöst, die ihren Höhepunkt in den 1940er Jahren erreichte […].”
(http://www.oeschger.unibe.ch/ueber_uns/news/volcanoes_climate/index_ger.html)
Man kann also wohl annehmen, dass ein nicht unbeträchtlicher Teil der besagten Erwärmung sich der Erholung von der Einwirkung der Vulkanausbrüche verdankt. Nun aber beziehen sich die vielbeschworenen Klimaziele auf die sogenannte “vorindustrielle Zeit”, für die die anschließende zweite Jahrhunderthälfte gesetzt wird.
In der Tat handelt ist es schwierig zu definieren, «was [wir] genau unter dem vorindustriellen Klima verstehen», wie Hauptautor Stefan Brönnimann bemerkt. Nur macht er nicht den naheliegenden Schluss, dass die Temperaturen in der folgenden Jahrhunderhälfte eben vom Tiefpunkt aus zu steigen begannen und somit auch die Periode 1851 bis 1900 im Mittel doch noch um einiges kälter gewesen sein dürfte als während der meisten Zeit der beiden letzten Jahrtausende.
Der Autor heisst “Neukom” nicht Neukorn”
Warum wurde mein Beitrag nicht freigeschaltet? Es ist nichts anstößiges drin und wissenschaftlich belegt. Sollte es sich bei scienceFiles vielleicht um Pseudo-blogs handeln, die von der Gegenseite organisiert werden ??
Unser Spamprogramm mag Ihren darin enthaltenen Link nicht.
Ich verweise auf ein interessantes Interview mit damals noch nicht Postdoc, Dr. Neukom auf dem mittlerweile nicht mehr aktualisierten Blog mittelalterlichewarmperiode.blogspot.com
Das Interview findet sich hier:
http://mittelalterlichewarmperiode.blogspot.com/2010/10/menschen-im-gesprach-teil-viii.html
Dort gesteht er dem Interviewer u.a. noch zu:
“Sie haben wohl Recht, dass es im Durchschnitt über mehrere Jahrhunderte hinweg in den meisten Regionen wärmer war als in den darauf folgenden Jahrhunderten der “kleinen Eiszeit”
Was nun Herr Dr. Neukom?
Liebes SF-Team,
kennen Sie diese Veröffentlichung in ScienceDaily schon, die Svensmarks Theorie stützt:
“This study provides an opportunity to rethink the impact of clouds on climate. When galactic cosmic rays increase, so do low clouds, and when cosmic rays decrease clouds do as well, so climate warming may be caused by an opposite-umbrella effect. The umbrella effect caused by galactic cosmic rays is important when thinking about current global warming as well as the warm period of the medieval era.”
https://www.sciencedaily.com/releases/2019/07/190703121407.htm
Das paper:
Yusuke Ueno, Masayuki Hyodo, Tianshui Yang, Shigehiro Katoh. Intensified East Asian winter monsoon during the last geomagnetic reversal transition. Scientific Reports, 2019; 9 (1) DOI: 10.1038/s41598-019-45466-8