Hausgemachte deutsche Klimawandel-Panik
Wer in Deutschland ein Wort des Zweifels an diejenigen richtet, die behaupten, Klimawandel sei ein Ergebnis menschlicher Aktivitäten, durch eine Reduzierung von CO2 bekämpf-, wenn nicht umkehrbar, und zudem ein einmaliges historisches Ereignis, dessen Auswirkungen auf den Wasserstand man auf die Dezimalstelle genau berechnen könne, der macht sich zur Zielscheibe von Anfeindungen, denn: In Deutschland herrscht Einheit, eine Einheitsmeinung, eine mediale Einheitsmeinung, die gebetsmühlenähnliche Gesänge menschengemachter, CO2 verursachter und genauer, aufs Milli-Grad genauer Erwärmungsberechnung in regelmäßigen Abständen anstimmt.
In den USA ist das nicht so. In den USA ist man bescheidener. Dort sieht man Klimawandel als Natur-Phänomen, an dem Menschen nur einen sehr kleinen Anteil haben. Und in den USA gibt es eine offene Diskussion darüber, wie groß der Anteil von Menschen an Klimaveränderungen ist, in Medien, in Zeitungen, im Fernsehen. In Deutschland gibt es das nicht. Hier herrscht die anthropozentrische Gewissheit: Menschen sind schuld. Ausschließlich und nur Menschen machen den Klimawandel, den Klimawandel, dessen Auswirkungen man genau, ganz genau in entsprechenden Modellen berechnen kann.
James Gleick erzählt zu Beginn seines Buches “Chaos” eine Geschichte von Edward Lorenz. Lorenz ist ein, wenn nicht der Pionier der computergestützten Wettervorhersage, der in den 1960er Jahren seine Kollegen mit seinen Wetter-Modellen erschreckt hat. Jener Edward Lorenz war eines Nachmittags im Massachusetts Institute of Technology auf dem Weg in sein Büro. Sein Computer sollte mit den Berechnungen eines Wettermodells, so die Erwartung von Lorenz, fertig sein. Damals dauerte es noch Stunden, wenn nicht Tage, Computer-Modelle zu berechnen. Lorenz hat sich nicht geirrt. Der Computer war mit seinem Berechnungen am Ende, mit seinen Kontrollberechnungen, denn bei dem Ergebnisausdruck, den Lorenz nun in den Händen hielt, handelte es sich um die Ergebnisse derselben Berechnung, desselben Modells, das er bereits am Vortag hatte berechnen lassen. Nur: Er erkannte die Ergebnisse nicht wieder. Sie waren vollkommen anders, so verschieden von den Vortagsergebnissen, wie sie nur sein konnten.
Ein Rätsel für Lorenz, denn: Wie kann dasselbe Modell, wie können dieselben Parameter zwei völlig verschiedene Ergebnisse liefern? Nach einiger Zeit der Verwunderung hatte Lorenz den Fehler gefunden. Er hatte Werte gerundet. Aus dem Wert .506127 im ursprünglichen Modell hatte er der Bequemlichkeit halber und weil er gedacht hat, dass Veränderungen der vierten Nachkommastelle sich nicht auf das Modell auswirken, den Wert .506 gemacht. Die vierte Nachkommastelle, sie war relevant. So relevant, dass zwei vollkommen unterschiedliche Ergebnisse aus ihrem Vorhandensein bzw. ihrem Fehlen resultierten.
Warum wir das erzählen?
Nun, es ist ein Lehrstück dafür, wie das Ergebnis einer Modellberechnung vom Dateninput abhängt, dafür, wie sich bereits kleinste Änderungen auf das Ergebnis auswirken, dafür, wie leicht man Fehler produzieren kann, wenn man ab der vierten Nachkommastelle rundet.
Trotz all dieser Unwägbarkeiten, trotz der Anfälligkeit von Prognosemodellen, die man regelmäßig beobachten kann, wenn man nach einer Wettervorhersage sucht, die mehr als eine Woche umfasst und die sich im Nachhinein als richtig herausstellt, trotz all der Annahmen, die in ein Modell einfließen, das die Entwicklung z.B. der Erdtemperatur vorhersagen soll, trotz all der Fragen, die mit nicht nur der Bestimmung von Anfangsparametern, sondern auch mit der Frage, welche Parameter überhaupt berücksichtigt werden sollen, verbunden sind, trotz all dieser Schwierigkeiten, wollen uns Apostel des Klimawandels erzählen, ihre Modelle seien akkurat, würden die Realität und die zukünftige Realität genau erfassen, bis auf die vierte Nachkommastelle genau.
Kein Zweifel an den Ursachen von Klimawandel wird zugelassen. Klimawandel wird von Menschen gemacht, ist eine Funktion des CO2-Ausstoßes, ist durch 47,5687% mehr Windkraftanlagen und 85,1142% mehr Solaranlagen zu verhindern (und natürlich durch die entsprechende steuerliche Förderung und Begünstigung von alternativen Methoden der Energiegewinnung).
Dieses Glaubensbekenntnis wiederholen vor allem deutsche Medienvertreter immer und immer wieder. Kritische Stimmen, die einen relevanten Einfluss von Menschen auf das Erdklima in Frage stellen, sie kommen in deutschen Medien und ganz im Gegensatz zu US-amerikanischen Medien nicht zu Wort. Wer daran zweifelt, dass Klimawandel nur von Menschen verursacht wird, der gilt in Deutschland als Para-Wissenschaftler oder als Verrückter.
Nicht so in den USA. Dort diskutieren die Wissenschaftler, die den Klimawandel für “man made” halten, mit denen, die denken, die Einflüsse von Menschen seien im kosmischen Konzert interstellarer Kräfte wie Sonnenstürme nicht weiter von Bedeutung. US-Amerikaner haben entsprechend die Möglichkeit, sich eine eigene Meinung darüber zu bilden, welche von beiden Fraktionen die besseren Argumente auf ihrer Seite hat.
Nicht so in Deutschland. Hier ist per Dekret verordnet, wer Recht hat und wer nicht und überraschenderweise finden sich Wissenschaftler, die in Medien das Glaubensbekenntnis der nur menschlichen Ursache des Klimawandels wiederholen und die Zweifel an Modellen des Klimawandels (vor allem an deren vierter Stelle nach dem Komma) entweder nicht haben oder nicht äußern.
Warum ist die Berichterstattung zwischen den USA und Deutschland so unterschiedlich. Warum wird in Deutschland ein menschengemachter Klimawandel als Gewissheit präsentiert, wenn eine große Zahl selbst deutscher Wissenschaftler daran erhebliche Zweifel hat?
Diese Frage hat sich Senja Post von der Universität Koblenz-Landau gestellt und beantwortet. Die Antwort findet sich in der Januarausgabe der Zeitschrift “Public Understanding of Science”.
Grundlage der Antwort sind schriftliche Interviews mit 123 Wissenschaftlern, die sich mit dem Erd-Klima beschäftigen, sei es als Meteorologe, als Geologe, als Physiker, Chemiker oder Forstwissenschaftler. Den Antworten dieser 123 Wissenschaftler sind u.a. die folgenden Ergebnisse zu entnehmen:
- Dass ein Klimawandel im Gange ist, ist unter den deutschen Wissenschaftlern nicht umstritten.
- Dass Menschen einen Einfluss auf das Klima ausüben, ist weitgehend eine geteilte Ansicht, umstritten ist dagegen, ob der menschliche Einfluss auf das Klima relevant ist. Die 123 Klima-Wissenschaftler teilen sich hier in zwei fast gleichgroße Gruppen.
- Je präsenter Wissenschaftler in Medien sind, je mehr Kontakt sie zu Journalisten haben, desto überzeugter sind die entsprechenden Wissenschaftler, dass der Klimawandel menschengemacht und CO2-verursacht ist oder umgekehrt.
Post fast ihre Ergebnisse wie folgt zusammen:
“This study shows that the more climate scientists are engaged with the media the less they intend to point out uncertainties about climate change and the more unambiguously they confirm the publicly [also in Medien] held convictions that it is man-made, historically unique, dangerous and calculable” (Post, 2016: 69).
In den Medien kommen also nur Klima-Wissenschaftler vor, die den Klimawandel als menschengemachte, historisch einmalige und berechenbare Erscheinung präsentieren, die Zweifel am Klimawandel, Probleme mit dem Modellen, auf denen die Vorhersagen der Klimawandel-Apostel basieren, entweder nicht kennen oder nicht zulassen. Die Klima-Wissenschaftler, nach den Ergebnissen von Post 50% der in Deutschland zu findenden Klima-Wissenschaftler, die Zweifel an Modellen haben und der Ansicht sind, der Klimawandel sei weder historisch einmalig noch haben menschliche Aktivitäten einen relevanten Anteil daran, sie kommen in der Medienöffentlichkeit schlicht nicht vor.
Warum ist das so?
Drei Erklärungen drängen sich auf:
- Die Wissenschaftler, die sich zum Klimawandel in Medien äußern, sind Opportunisten und biedern sich bei Journalisten, die keinen Zweifel am Klimawandel nachfragen, an.
- Die Wissenschaftler, die sich zum Klimawandel in Medien äußern, kennen keine Zweifel an Modellen, sind also Überzeugungstäter.
- Die Wissenschaftler, die sich zum Klimawandel in Medien äußern, kennen zwar, Zweifel, stellen diese aber zurück im Hinblick auf den eigenen Vorteil und weil sie der Ansicht sind, die Impfung der Öffentlichkeit dahingehend, dass Klimawandel ein menschengemachtes, wichtiges und mit viel Steuergeldern zu bekämpfendes Phänomen sei, sei wichtiger als der Hinweis darauf, dass die Frage, ob der menschliche Beitrag zum Klimawandel relevant ist, umstritten und alles andere als geklärt ist.
Ob sich Journalisten gezielt Opportunisten, Überzeugte oder Überzeugungstäter unter Wissenschaftlern suchen oder Letztere sich bei ersteren anbiedern, ist eine offene Frage.
Beantwortet ist dagegen die Frage, warum in deutschen Mainstream-Medien keine Wissenschaftler zu Wort kommen, die dem Klimawandel kritisch gegenüberstehen: Daran, dass der Klimawandel menschengemacht und berechenbar ist, hängen erhebliche Interessen. Die gesamte alternative Energienindustrie und ihre Subventionierung hängt davon ab und das komplette Seelenheil der alternativ-linken Ideologen, die einen Teil ihres Überlegenheitsanspruches über Andersgläubige aus ihrer Einsicht in den menschengemachten Klimawandel ableiten.
Bislang hat der Artikel von Post noch keinen Widerhall in deutschen Medien gefunden, fast so, als wollte man bestätigen, was Post herausgefunden hat, dass kritische wissenschaftliche Stimmen, die Zweifel am Klimawandel äußern, in deutschen Mainstream-Medien unterdrückt werden. Auch der Pressestelle der Universität Koblenz-Landau, scheint der Beitrag ihrer Mitarbeiterin keine Pressemeldung wert zu sein, das, obwohl die Pressestelle der Universität Koblenz -Landau eher zu den Pressestellen gehört, die lieber eine Pressemeldung zu viel als eine zu wenig veröffentlichen.
Post, Senja (2016). Communicating Science in Public Controversies: Strategic Considerations of the German Climate Scientists. Public Understanding in Science 26(1): 61-70.
Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns
ScienceFiles ist ein Non-Profit-Blog. | Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung |
---|
durch eine Spende (via Paypal) | durch eine Spende (via Banküberweisung) | als ScienceFiles-Clubmitglied |
---|---|---|
|
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:
Donorbox
Unterstützen Sie ScienceFiles
Unsere eigene ScienceFiles-Spendenfunktion
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Das von Jesuitennovize geleitete Potsdam-Institut für Klimafolgenforschung e.V. dürfte eine weitere Erklärung dafür bieten, mit Wissenschaft das alte, von der Religion vermittelte Schuldgefühl aufrecht zuerhalten.
Deutschland war derart paralysiert von einer historisch erst kürzlichen, 12jährigen Meinungs-Manipulation, dass man krampfhaft danach suchte das bloss nicht zu wiederholen. Nach endlosen Überlegungen ergab sich der Konsens dass mit einer F A L S C H E N Meinung manipuliert worden sein musste, und zwar sowohl in dem Jahrzehnt vor der bedingungslosen Kapitulation als auch danach in der SBZ.
Nach dem (wiederum historisch) überraschenden Zwei-plus-Vier-Vertrag besann man sich wieder auf den bereits gefundenen Konsens und setzte alles daran dass nur noch die R I C H T I G E Meinung zuzulassen ist. Das betrifft natürlich auch die Wissenschaften und die Zulassung von neuen Parteien, aber es ist (natürlicherweise) Neuland und die Abweichler müssen noch gezügelt werden (wie durch das 50:50 im Paper gezeigt)
Die ständige Verringerung der Grundausstattung der Hochschulen und der Zwang zum Einwerben von Drittmitteln, die eher selten aus der Wirtschaft kommen sondern aus Förderprogrammen bezogen werden müssen, erzeugt einen Druck auf opportunistische Forschungsthemen.
Stellen Sie sich mal die beiden folgenden (fiktiven) Themen vor:
– Paarungsverhalten von Maikäfern in Abhängigkeit vom Schlupfzeitraum.
– Verändertes Paarungsverhalten von Maikäfern durch den Klimawandel.
Was glauben Sie, wer den Zuschlag bekommt?
Das kann man der Forschern kaum übelnehmen, dass sie das geldversprechende wählen,
schließlich muss man ja auch noch sein akademisches Prekariat finanzieren…
Die Deutschen springen auch auf jeden Gutmenschenzug auf.
Ach herrjeh!
Wenn man dem Herrn Oberklimaschreckensverkünder Schellnhuber glaubt, fällt ja die Eiszeit in 60.000 Jahren aus.
Ich stelle mir jetzt vor, was passiert, wenn der auch gerundete Zahlen eingegeben hat.
Haben wir da dann etwa eine Abweichung von 100 Jahren zu befürchten? Wurde unser aller Oberklimarettungskanzlerin falsch beraten und wirft den Mann in den Orkus, stürzt sie sich womöglich hinterher?
Ich glaube, man muss dieses Ergebnis unbedingt mit den Glaskugelprophezeiungen des Nostradamus abgleichen! Im Zweifel gewinnt die computerisierte Glaskugel aus Potsdam, weil sich Computer nicht irren können.
Bis dahin schlafe ich erstmal völlig unruhig. 🙂
https://ann53.files.wordpress.com/2011/09/klimawandel.jpg
Der Klimawandel ist eine Religion und der CO2-Gott muss wohlgesonnen gestimmt werden. Daher werden ihm zu Ehren Windräder (Merkeldreher) und Solar-Anlagen errichtet. Und die Stromumlagen sind die Ablaßgabe.
Kann das sein, dass man nach dem Auswechseln von zwei, drei Worten bei der aktuellen “Flüchtlingsdebatte” landet? Da gibt es auch nur eine vom Imperium dem Volk verschriebene Meinung.
🙂
Stimmt.
Zitat:”Er hatte Werte gerundet. Aus dem Wert .506127 im ursprünglichen Modell hatte er der Bequemlichkeit halber und weil er gedacht hat, dass Veränderungen der vierten Nachkommastelle sich nicht auf das Modell auswirken, den Wert .506 gemacht. Die vierte Nachkommastelle, sie war relevant. So relevant, dass zwei vollkommen unterschiedliche Ergebnisse aus ihrem Vorhandensein bzw. ihrem Fehlen resultierten.”
Dazu mal was von jemandem, der 1982 mit dem Softwareentwickeln angefangen hat und heute noch dabei ist:
Die simple (unachtsame oder vielleicht sogar überflüssige) Konvertierung von einem Datentyp in einen anderen innerhalb eines Programms, kann einen weit grösseren Datenverlust mit sich bringen, als das Wegrunden von 3 Nachkommastellen per Hand.
Wenn ich z.B. von “float” (32 Bit Fließkomma) in “integer” (32 Bit Ganzzahlen) und wieder zurück konvertiere, gehen mir verständlicherweise sämtliche Nachkommastellen flöten.
Selbst wenn ich von “double” (64bit Fließkomma) in “float” konvertiere gehen mir immer noch 32 bit (8 Stellen von 15, eine geht fürs Vorzeichen drauf) Genauigkeit sausen.
Software ohne Datentypkonvertierungen gibt es nicht:
Tastatureingaben, Rohdaten in Form von Textfiles, (also “char” -> Buchstaben), etc. müssen erst in “float” oder “double” konvertiert werden, damit man mit ihnen Rechnen kann.
Hinzukommt, dass heutzutage kaum noch Software von Grund auf neu programmiert wird und eigentlich immer bereits bestehende Bibliotheken in den eigenen Code einbezogen werden müssen, die mit bestimmten Datentypen gefüttert werden wollen.
Also kommt man selbst innerhalb des rechnenden Codes ohne Schwund fabrizierende Datatype conversions nicht aus.
Mal abgesehen davon, weiß man auch nicht inwiefern die genutzten Fremdbibliotheken bugfrei sind oder nicht selbst bereits intern auf Teufel komm raus hin und herkonvertieren.
Der Wechsel von einer Bibliothek zu einer anderen könnte also durchaus schon unterschiedliche Ergebnisse mit sich bringen.
Desweiteren ergibt sich potentieller Schwund beim Kompilieren:
Man kann bei jedem Compiler verschiedene Switches setzen, die für bestimmte Prozessortypen oder bestimmte Registersetups eines Prozessors (z.B. AMDs 3D now oder Intels ISSE) optimierten Code rausgeben um die Ausführung zu beschleunigen oder auch den Speicherbedarf zu optimieren.
Das bedeutet, dass selbst handoptimierter C Code nach Durchgang durch den Compiler Ungenauigkeiten auswerfen kann.
Dazukommt die Tatsache, dass Prozessoren selbst selten bugfrei sind.
Vielleicht erinnert sich jemand beispielsweise an den “Pentium Fließkomma-Bug” in den 90ern:
https://de.wikipedia.org/wiki/Pentium-FDIV-Bug
Schlechtes Softwaredesign bringt zusätzliches Aliasing mit sich:
Basierend auf dem verwendeten Algorithmus kann es zu unnatürlichen Rasterungen im Datensatz kommen, etwa beim regelmäßigen addieren von Ganzahlen zu einer Variable vom typ float, wo dann der Code selbst denn ausgegebenen Daten seinen Stempel aufdrückt.
Teils können auch sehr kleine Werte beim hinzuaddieren zu großen Werten in der mangelnden Genauigkeit von 32bit float untergehen.
Deswegen immer 64 bit double zu verwenden wäre jedoch aus Performancegründen nicht zielführend.
Prozessorbudgets bedeuten bei aufwändigen Berechnungen bares Geld.
Wem das obige eventuell unverständlich erscheint, denke sich folgendes Beispiel:
Nehmen wir ein Bild von Adolf Hitler und eines von Charlie Chaplin als großen Diktator:
Ist die Bildauflösung fein genug, lassen sich Hitler und Chaplin einfach auseinanderhalten.
Reduziere ich jetzt die Bildauflösung von sagen wir 1920*1080 Pixel HDTV Standard auf 320*240 Pixel Youtube Minimumstandard, addiere noch den üblichen Kompressionsschwund und die Bildformatverzerrungen von 16*9 auf 4*3, kann die Darstellungsqualität so leiden, dass ich Hitler und Chaplin nicht mehr unterscheiden kann und das Gesehene falsch interpretiere.
Das Klima ist eine irsinnig komplexe Angelegenheit.
Selbst wenn meine Rohdaten fehlerfrei und ausreichend genau sein sollten, kann ich wie oben beschrieben, bei der digitalen Simulation so massiv Bockmist bauen, dass am Schluss ein völlig falsches Ergebnis rauskommt.
Ich gehe bei der vorliegenden Datenlage zum Klima aber sogar von etwas anderem aus.
Um das Beispiel mit Hitler und Chaplin nochmal aufzugreifen:
Wir haben von vornherein gar keine 1920*1080 Auflösung sondern eine in 320*240 und rechnen diese folglich nicht herunter, sondern herauf.
Das bedeutet: Wir generieren Zwischenwerte die beim heraufrechnen zu höherer Auflösung die fehlenden Pixel simulieren sollen.
Damit sind wir mathematisch gesehen im hochspekulativen Bereich und können nur mittels Kurven schätzen.
Und wenn jetzt an der ganzen Klimageschichte massenhaft Arbeitsplätze hängen, könnte es sein, dass das Simulieren der fehlenden Pixel im Gesamtbild vielleicht etwas mehr in eine bestimmte Richtung gesteuert wird, als es der Wissenschaft zuträglich ist….
Gute beschrieben!
Dazu noch ein Beispiel zum Probieren ohne Klimamodell
für den Taschenrechner oder Excel:
1E16 + 1 – 1E16 = ?
Der Mensch vermutet richtig 1, der Computer 0 ! Das nennt man Mantissenverlust.
Hängt von der Genauigkeit ab, mit der gerechnet wird,
der Taschenrechner streikt meist schon bei kleineren Potenzen als 16.
Bei komplexen Modellen muss man höllisch aufpassen,
dass das nicht versehentlich passiert.