HomeHysterieKlimawandelKlimawandelforschung: Mehr als 20 Jahre Prognosen auf falscher Berechnungsbasis
September 26, 2021
Klimawandelforschung: Mehr als 20 Jahre Prognosen auf falscher Berechnungsbasis
Letztlich sind die meisten empirischen Wissenschaften auf Statistik gebaut. Dies trifft vor allem auf die Klimaforschung und ihren Versuch zu, den menschlichen Abdruck im Variablengemenge zu finden, der zeigt, dass Treibhausgase, allen voran CO2, dafür verantwortlich sind, dass sich das Klima wandelt, und zwar nicht Treibhausgase als solche, sondern der Beitrag, den Menschen zu Treibhausgasen bringen. Der kleine Beitrag, den Menschen bringen, rund 4% am Gesamtaufkommen von z.B. CO2, er soll das Klimagleichgewicht kippen und dazu führen, dass sich das Klima zum Schlechteren wandelt.
Abweichung der durch Klimawandelmodelle vorhergesagten Temperaturentwicklung (rote Linie) von den tatsächlich gemessenen Temperaturen.
Die Behauptung, dass sich das Klima zum vermeintlich Schlechteren wandelt, das ist alles, was bei den “professionellen Arbeitslosen” (Zitat: Dr. habil. Heike Diefenbach), die sich für Aktivisten halten, für Klimaaktivisten, ankommt. Sie wollen glauben, dass menschlicher Einfluss für den Klimawandel verantwortlich ist. Sie müssen es glauben, denn sie haben keine, auch nicht die entfernteste Idee, wie Klimaforscher überhaupt vorgehen, um den menschlichen Einfluss, den Beitrag von Menschen zu Treibhausgasen im chaotischen System des Erdenklimas überhaupt aufzufinden.
Um es zu verstehen, sind ökonometrische Kenntnisse notwendig, denn das, was Klimaforscher anstellen, um den menschlichen Fingerabdruck zu isolieren, ist letztlich Mathematik, also genau das, was die meisten Straßenhopser nicht kennen wollen.
Wie also, wird der menschliche Anteil am “Klima” berechnet? “Falsch”, um es mit Ross McKitrick zu sagen. Und zwar seit mehr als 20 Jahren falsch.
Im Jahre 1999 haben Myles Allen und Simon Tett den Beitrag: “Checking Model Consistency in Optimal FingerPrinting” in der Zeitschrift Climate Dynamics veröffentlicht. In diesem Beitrag entwickeln sie eine Methode, die es ermöglichen soll, den menschlichen Einfluss auf das Klima nicht nur aufzufinden, sondern quantitativ zu bestimmen. Auf diese Methode haben sich die für den Klimabericht des International Panels on Climate Change (IPCCC) Verantwortlichen sofort gestützt. Seit dem “Third Assessment Report” des IPCC aus dem Jahre 2001 wird die Methode von Allen und Tett aggressiv verbreitet, was dazu geführt hat, dass diejenigen, die sich als Klimaforscher beim IPCC empfehlen wollen, unzählige Arbeiten, die auf der Methode von Allen und Tett basiert, erstellt haben, mehrere Tausend Beiträge, die in wissenschaftlichen Zeitschriften veröffentlicht wurden, werden es mittlerweile wohl sein. Auch das IPCC schwört seit 2001 auf die Methode von Allen und Tett. Sie fehlt seiter in keinem Bericht des IPCC als Grundlage der Voraussagen über den bevorstehenden Untergang der Erde im Flammentod.
Niemand von den vielen Anwendern der Methode von Allen und Tett ist auch nur auf die Idee gekommen, die Methode zu prüfen, zu untersuchen, ob die Methode überhaupt geeignet ist, um das als Ergebnis zu erbringen, was behauptet wird, dass sie erbringen soll. Alle haben sie eifrig mit der Methode gearbeitet, um in deren Windschatten die lausige Karriere zu machen, die man als institutionalisierter Akademiker noch machen kann.
Dumm nur, dass die Methode von Allen und Tett falsch ist. Sie basiert auf Annahmen, die nicht eingehalten werden. Das hat Ross McKitrik schon vor einigen Jahren in einem Beitrag gezeigt, dem die Veröffentlichung verweigert wurde, weil der Beitrag den Herausgebern zu heiß war. Nun haben sich Mutige gefunden und der Beitrag “Checking for Model Consistency in Optimal Fingerprinting: A Comment” ist in Climate Dynamics zur Veröffentlichung akzeptiert worden.
Um zu sehen, wie falsch all das ist, was in den letzten Jahrzehnten von IPCC und anderen, die am angeblich menschengemachten Klimawandel ein eigenes (pekuniäres) Interesse haben, vorgebracht wurde, müssen wir ein wenig in die Statistik einsteigen. Aber nur oberflächlich – versprochen.
Zunächst zur Systematik des Fingerprintings, das Allen und Tett vorgeschlagen haben. Die Systematik besteht darin, dass Klimamodelle mit Modellen, die auf Grundlage von Beobachtungsdaten erstellt werden, verglichen werden und das Modell dabei identifiziert wird, das die Boebachtungsdaten am besten erklären kann. Man kann sich das Vorstellen, wie einen Vergleich zwischen künstlich hergestellten und einem am Strand gefundenen Kieselstein, bei dem es darum geht, den künstlich hergestellten Kieselstein zu finden, der dem gefundenen am meisten entspricht. Um diese Übereinstimmung zu finden, ist eine statistische Methode notwendig, die es erlaubt, jeweils einen künstlichen und den gefundenen Kieselstein miteinander zu vergleichen, und zwar entlang zuvor festgelegter Parameter: Farbe, Schwere, Umfang, Durchmesser, Länge, Breite usw. Die statistische Methode muss nicht nur in der Lage sein, zu vergleichen, sie muss auch in der Lage sein, den künstlichen Kieselstein zu identifizieren, der im Hinblick auf die genannten Kriterien die beste Näherung an den gefundenen Kieselstein darstellt.
Die Fingerprint-Methode, mit der menschlicher Einfluss auf das Klima bestimmt werden soll, funktioniert analog zum Kieselsteinmodell, und sie bedient sich einer Regression, der Methode der kleinsten Quadrate (ordinary least square, OLS). Bleiben wir im Kieselsteinbild. Alle Messungen, die wir für einen Kieselstein erstellt haben, können in eine Matrix übertragen werden, in der Distanzmaße zum gefundenen Kieselstein enthalten sind, so dass es mit einer Regression möglich ist, den besten Kieselstein zu finden.
Regressionen funktionieren sehr einfach. Stellen Sie sich eine Reihe von Messdaten vor, die für unterschiedliche Personen ihr Ausmaß an Korruption und ihre Dauer in der Politik bestimmen. Jede Person ist durch ein konkretes Ausmaß an Korruption und eine konkrete Zeit, die sie in der Politik verbracht hat, ausgezeichnet. Beides kann man durch einen PUNKT in einem Koordinatensystem repräsentieren, das durch eine x-Achse (Zeit in der Politik) und eine y-Achse (Ausmaß an Korruption) aufgespannt wird. Sammeln wir Daten zu 1000 Personen, dann ergibt sich daraus eine Punktewolke aus 1000 Punkten, von denen manche identisch sein können, was uns aber nicht weiter stören soll. Eine Regression sucht nun UNTER DER ANNAHME, dass Korruptionausmaß und Zeit in der Politik LINEAR mit einander verbunden sind, die Gerade, die die Punktewolke am besten beschreibt, wobei die beste Beschreibung darin besteht, dass der Fehler, der mit der Gerade verbunden ist, auf der zwangsläufig nicht alle Punkte liegen können, am geringsten ist.
Unsere Suche nach dem künstlich hergestellten Kieselstein, der am besten mit dem natürlichen Kieselstein überinstimmt, kann analog erfolgen, indes: Wir haben mehr als zwei Variablen, um den Kieselstein zu beschreiben, damit wird der Raum mehrdimensional und wir sind im Bereich der Matrizenrechnung angekommen.
Die Fingerprint-Methode, die Allen und Tett entwickelt haben, funktioniert wie hier beschrieben, nur werden keine Kieselsteine, sondern Computermodelle mit Beobachtungsdaten verglichen, und es wird untersucht, welches Computermodell die beste Näherung für die Beobachtungsdaten darstellt. Die beste Näherung wird mit einer linearen Regression gesucht, was die Annahme beinhaltet, dass eine lineare Repräsentation des Zusammenhangs zwischen Computermodell und Boebachtungsdaten möglich ist.
Eine solche Repräsentation ist nur möglich, wenn zwei Bedingungen erfüllt sind:
Homoskedastizität, d.h. die Varianz der Fehler muss sich konstant über die Daten verteilen.
bedingte Unabhängigkeit, d.h. die erwateten Fehlerwerte dürfen keinen Zusammenhang mit den erklärenden Variablen aufweisen.
Das klingt sehr technisch und ist es auch. Versuchen wir es am Beispiel der Kieselsteine zu erklären. Wenn eine Gerade durch eine Punktewolke gelegt wird, dann gibt es Punkte, die mehr oder weniger weit von der Geraden entfernt sind. Die Distanz zur Gerade stellt den Fehler dar. Die Varianz wiederum ist die quadrierte Standardabweichung, die wiederum ein Maß dafür ist, wie weit die Punkte einer Verteilung von einem Mittelwert abweichen. Je weiter die Abweichung, desto höher der Wert für die Standardabweichung und für die Varianz.
Damit eine Regression berechnet werden kann, muss die Varianz über die einzelnen Fehlerwerte unterschiedlicher Variablen gleich verteilt sein (bei den Kieselsteinen ist das die Abweichung der Verteilungen nach Farbe, Schwere, Umfang, Durchmesser, Länge, Breite usw zwischen künstlichem und gefundenen Kieselstein von der Regressionsgeraden). Ist diese Annahme der Homoskedastizität verletzt, dann haben die Ergebnisse, die eine Regression erbringt, einen bias, d.h. die berechneten Koeffizienten werden bereits durch die Auswahl der Variablen beeinflusst.
Einen Verstoß gegen die Annahme der bedingten Unabhängigkeit kann man leicht im Kieselsteinbeispiel deutlich machen. Er liegt vor, wenn die Fehler, also die Abweichungen der Punkte von ihrer Repräsentation durch eine Gerade untereinander zusammenhängen, sich nicht zufällig verteilen, denn dann muss man davon ausgehen, dass die künstlichen Kieselsteine zueinander bessere Näherungswerte sind als sie es zu dem gefundenen Kieselstein sind. In diesem Fall haben die Koeffizienten, die die Regression ausgibt, nicht nur einen Bias, sie sind unbrauchbar, weil willkürlich.
Und genau dieser, zuletzt beschriebene Fall liegt in Klimamodellen vor.
Die Koeffizienten, die z.B. angeben sollen, welchen Effekt ein Ausstoß von x Tonnen CO2 auf die globale Temperatur hat, sind falsch, sie verletzten sowohl die Annahme der Homoskedastizität als auch die Annahme bedingter Unabhängigkeit. Sie sind schlicht unbrauchbar, fiktive, wenn man so will, Phantasiewerte, die die Tatsache verdecken, dass sich der Klimawandel viel besser durch Fehlerwerte als durch die Modelle erklären lässt, die einen menschlichen Einfluss auf das Klima zeigen sollen.
Und was bedeutet es, wenn Fehlerwerte aussagekräftiger sind als Modellkoeffizienten? Das bedeutet nichts anderes, als dass die klimatischen Beobachtungsdaten viel besser durch Variablen erklärt werden können, die derzeit NICHT im Modell vorhanden sind. Welche Variablen das letztlich sind, das ist die Frage, die aufgrund der Fixierung weiter Teile der Klimaforschung auf Andienforschung bei Ideologen bislang kaum gestellt und noch seltener beantwortet wird.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen.
ScienceFiles lebt weitgehend von Spenden.
Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.Wir haben drei sichere Spendenmöglichkeiten:
Computermodelle… genau da liegt der Hund begraben, meine professionelle Erfahrung nach Jahren in der IT-Branche, wenn die Computer-Kiste ins Spiel kommt, schleicht sich die Logik verschämt zur Tür raus. Wobei ich davon ausgehe, daß auch hier von einem Layer 8 Problem (Problem sitzt vor der Tastatur) ausgegangen werden muß.
Hier gilt der Satz:”Garbage in, Garbage out”. Wenn man den armen Rechner mit Mist füttert, spuckt dieser auch nur Mist aus. In gekoppelten Differentialgleichungssystemen hat die Auswahl der Startparameter einen erheblichen Einfluss auf das Ergebnis. Man kann natürlich solange an den Startwerten herumfummeln, bis das Ergebnis den eigenen Erwartungen entspricht – das ist aber keine Wissenschaft!
Tolle Wahl! Vor allem der Runnung Gag: Diesmal die Linken mit GENAU 5%. Nicht 4%, nicht 6% – nein – 5%. So was ist so selten wie ein Sechser im Lotto, die Leute bekommen es als “Cliffhanger” bei fast jeder Wahl aufgetafelt – und glauben es auch immer. WIE BLÖD KANN MAN EIGENTLICH SEIN… ?
Papperlapapp, weil wir soviel unternommen haben seit 1995, sind die Prognosen nicht eingetroffen.
So ist doch immer:
Wir malen alles schwarz und dann funktionieren die eingeleiteten Maßnahmen.
Wenn nicht, hat eben die Schwarzmalerei funktioniert.
Wie wollen Sie “Homoskedastizität” bzw “Varianzhomogenität” Kids erklären, die glauben “Gaia” retten zu müssen und zu können, in und mit einem Land, das im allergünstigsten Fall, bei Zutreffen aller theoretischen Annahmen, bei Zero CO2, 4 tausendstel Grad Celsius Einfluss auf die globale Temperatur hat, und dafür dieses Land mit Windmühlen und Energiewende-Voodoo ins Mittelalter zurückkatapultieren? Kindern und Jugendlichen, die zudem in den Fächern Mathe, Physik, Chemie und Geographie nur rudimentäres Wissen haben.
Die Agenda vom menschengemachtem Klimawandel und der “Klimakrise” hat sich auf der emotionalen Ebene als Pseudoreligion verselbständigt und gegen Irrationalität und Wahn zu argumentieren ist, wie bei Sektierern, aussichtslos und bei den Profiteuren dieses Wahns erst recht!
Für Skeptiker, die sich bei den gigo Modellen mit x Variablen an John von Neumanns Elefanten erinnern, den er bei der fünften? Variablen mit dem Rüssel wackeln lässt, sind soche Beiträge aber beruhigend, weil sie zeigen, dass es in der Klimaforschung nicht nur cargo-cult-science, sondern auch noch Hoffnung gibt!
Danke!
…es ist doch völlig schnuppe was irgend eine Wissenschaft zu den Klimamodellen findet oder beweist. Der menschengemachte Klimawandel ist ideologischer Fakt, es wird extrem viel Veränderung auf diesem Schwachsinn aufgebaut und was nicht sein darf kann nicht sein. Analog zu Corona wird hier eine Agenda durchgezogen die ganz andere Ziele hat als irgendwas am sog. Klima zu verändern.
Ross Mckitriks Feststellung, dass und warum die Berechnungsbasis für die “Klimakatstrophe” falsch ist, wird sich irgendwann in weiteren Kreisen herumsprechen, wahrscheinlich dann, wenn unübersehbar wird, dass die Planetenrettung durch Deutschland mal wieder nicht geklappt, dafür aber schwere Schäden angerichtet hat. Selbstverständlich liest so gut wie kein, wenn nicht sogar kein einziger junger Klima-Aktivist Mckitrik, den meisten dürfte seine Argumentation auch zu hoch sein. Erst recht ist sie den welkenden, etwa 40- bis 70-jährigen Pubertätskrisenakteuren in der “Politik” unverständlich und so´n Zeugs, das bei der Schlagwortproduktion gegen den Klimawandel einfach nicht interessiert. Und schon gar nicht lesen Klimabewegte und ihre linksgrünen Autoritäten Blogs wie Science files, denn das wäre rächz.
Größenwahn/Psychopathie zeigt sich auch am Klimawandel! Wer ein bißchen weiter zurückgeht und die Anfänge, auch mit Gore genau verfolgte, konnte sehr schnell erkennen, dass es sich hier um eine gigantische Geldumverteilungsmaschine handelt. Eine Ideolgie war geboren. Man musste diese eigentlich nur mit Propaganda zünden und ständig mit Angst nachlegen. Wie Corona. Statt wissenschaftlicher Zusammenarbeit wird einseitig conform berichtet und Gegenmeinung ausgeschaltet. Aber ein Großteil der Menschheit ist leider geistig und menschlich degeneriert und glaubt um des Glaubens willen. Eine vernichtende Religion war ins Leben gerufen worden und fast Alle laufen hinterher. Beide sind grandiose Wegbereiter für den Great Reset und die Agenda: bis 2030 seid ihr alle arm aber glücklich. Die menschlich geistigen Alarmglocke funktioniert nicht mehr, Realität ist eine Utopie, hoch lebe die Ideologie.
Es gibt bei der ganzen Geschichte schon einen Grundlagenfehler: “Klima” ist ein rein statistische Größe über rollierende 30-Jahreszeiträume, die so unterschiedliche Koeffizienten wie Luft- und Wassertemperatur, Luftdruck und -feuchtigkeit, Niederschlag, Windstärke, -richtungen und -häufigkeit, Anzahl und Stärke von Gewittern usw. – insgesamt unter “Wetter” zusammengefasst – beinhaltet.
Die Klimaspinner betrachten erstmal nur die Temperatur und führen alle Extremwetterereignisse auf die “steigenden Temperaturen” zurück, vor 35 Jahren waren noch die “sinkenden Temperaturen” schuld.
Wie man jetzt eine statistische Größe schützen soll, erschließt sich mir nicht, und unter “Wetterschutz” versteht der Fachmann den Schutz von Menschen und Gebäuden VOR dem Wetter, nicht den Schutz des Wetters vor dem Menschen.
Runtergebrochen ist die Klimadiskussion also im Prinzip eine Temperaturdiskussion, und dann sollte man alleine aus der bekannten Geschichte der letzten 80 Jahre (Dt. Armee erfriert in Stalingrad; Hungerwinter 1947/1948; wochenlange heiße Sommer und “normale” Winter in den 60ern und 70ern; wieder sehr kalte Winter Ende der 70er bis in die 80er hinein; ab Mitte der 90er ein bisschen “Nivellierung” der Temperaturen zwischen Sommer und Winter; wieder fünf kalte und sehr schneereiche Winter in den 2000ern in Folge; danach mehrere sehr schneearme Winter mit Schneekanonen für die Wintersportorte; jetzt kürzlich Schneefall in der Alpen während der Tour de France,…) schließen können, daß Temperatur nicht linear steigt oder fällt, sondern wir Wellen erleben, selbst in dieser überschaubaren Zeit.
Eine lineare Extrapolation des “Temperaturanstiegs” mit der Vorgabe, diesen irgendwie “begrenzen” zu können, ist deshalb neben der damit zur Schau gestellten Hybris einfach nur Unsinn, den in der 80ern noch jeder Gymnasiast widerlegen konnte, heute scheitern daran krachend “Studierte”, die MIR dann die Welt erklären wollen.
Deshalb vertrauen in der Industrie auch nur Dummköpfe rein auf die Mathematik. Wer sich mit diversen Simulationsmethoden gut auskennt, weiß so einiges zu berichten, wozu Rechenmodelle neben verwertbaren Ergebnissen auch sonst noch alles in der Lage sind.
Die Kunden machen es sich einfach und ein wenig habe ich als Dienstleistungsnehmer immer darauf hingewiesen, die Ergebnisse und Bilder sind schön anzuschauen, aber nichts geht über einen echten Prüfstandversuch und Messungen am Objekt hinaus.
Grundsätzlich gilt, je mehr anspruchsvolle Formeln und überfüllte Diagramme in einer Präsentation, desto scharlataniger, denn das bringt keinen weiter.
Daher gibt es Kunden, die es fertigbringen, denselben Entwicklungsauftrag an wenigstens zwei Anbieter zu vergeben und die dann zusammen nacheinander präsentieren zu lassen.
Hab das einmal erlebt und es wurde zunehmend giftiger, bis der Kunde sich irgendwann bequemte zu sagen, das was ich berechnet habe, wurde vor Ort genau so gemessen. Das Bild vom Doktor der anderen Seite, der tödlich verwundet in seinem Stuhl zusammensank, war zu schön, der wurde zuvor persönlich, begann meine Arbeitsweise zu hinterfragen und da ist bei mir Ende im Gelände.
Nur Deppen vertrauen allein solchen Kürvchen und Formelchen und damit der Zweifler nicht zu viele werden, fabuliert man nun schon von mindestens einer Milliarde Kinder, die es bald krassestens treffen wird, womit man sich endgültig in den Bereich der Scharlatanerie begibt.
Vielen Dank, dass Sie ScienceFiles unterstützen! Ausblenden
Wir sehen, dass du dich in Vereinigtes Königreich befindest. Wir haben unsere Preise entsprechend auf Pfund Sterling aktualisiert, um dir ein besseres Einkaufserlebnis zu bieten. Stattdessen Euro verwenden.Ausblenden
Liebe Leser,
seit 2011 sind wir als zentrale Stelle zur Prüfung von nicht nur wissenschaftlichen Informationen für Sie da -
Unentgeltlich in all den Jahren.
Bislang sind wir in der Lage, unseren Aufwand über Spenden zu decken.
Damit das auch weiterhin so bleibt, benötigen wir Ihre Hilfe:
Es ist viel einfacher, wenn man die Kernaussage der Klimalüge untersucht: https://oattmark.wordpress.com/2021/03/12/klimaluge-2-der-knockout/
Computermodelle… genau da liegt der Hund begraben, meine professionelle Erfahrung nach Jahren in der IT-Branche, wenn die Computer-Kiste ins Spiel kommt, schleicht sich die Logik verschämt zur Tür raus. Wobei ich davon ausgehe, daß auch hier von einem Layer 8 Problem (Problem sitzt vor der Tastatur) ausgegangen werden muß.
Hier gilt der Satz:”Garbage in, Garbage out”. Wenn man den armen Rechner mit Mist füttert, spuckt dieser auch nur Mist aus. In gekoppelten Differentialgleichungssystemen hat die Auswahl der Startparameter einen erheblichen Einfluss auf das Ergebnis. Man kann natürlich solange an den Startwerten herumfummeln, bis das Ergebnis den eigenen Erwartungen entspricht – das ist aber keine Wissenschaft!
Tolle Wahl! Vor allem der Runnung Gag: Diesmal die Linken mit GENAU 5%. Nicht 4%, nicht 6% – nein – 5%. So was ist so selten wie ein Sechser im Lotto, die Leute bekommen es als “Cliffhanger” bei fast jeder Wahl aufgetafelt – und glauben es auch immer. WIE BLÖD KANN MAN EIGENTLICH SEIN… ?
Papperlapapp, weil wir soviel unternommen haben seit 1995, sind die Prognosen nicht eingetroffen.
So ist doch immer:
Wir malen alles schwarz und dann funktionieren die eingeleiteten Maßnahmen.
Wenn nicht, hat eben die Schwarzmalerei funktioniert.
Wie wollen Sie “Homoskedastizität” bzw “Varianzhomogenität” Kids erklären, die glauben “Gaia” retten zu müssen und zu können, in und mit einem Land, das im allergünstigsten Fall, bei Zutreffen aller theoretischen Annahmen, bei Zero CO2, 4 tausendstel Grad Celsius Einfluss auf die globale Temperatur hat, und dafür dieses Land mit Windmühlen und Energiewende-Voodoo ins Mittelalter zurückkatapultieren? Kindern und Jugendlichen, die zudem in den Fächern Mathe, Physik, Chemie und Geographie nur rudimentäres Wissen haben.
Die Agenda vom menschengemachtem Klimawandel und der “Klimakrise” hat sich auf der emotionalen Ebene als Pseudoreligion verselbständigt und gegen Irrationalität und Wahn zu argumentieren ist, wie bei Sektierern, aussichtslos und bei den Profiteuren dieses Wahns erst recht!
Für Skeptiker, die sich bei den gigo Modellen mit x Variablen an John von Neumanns Elefanten erinnern, den er bei der fünften? Variablen mit dem Rüssel wackeln lässt, sind soche Beiträge aber beruhigend, weil sie zeigen, dass es in der Klimaforschung nicht nur cargo-cult-science, sondern auch noch Hoffnung gibt!
Danke!
…es ist doch völlig schnuppe was irgend eine Wissenschaft zu den Klimamodellen findet oder beweist. Der menschengemachte Klimawandel ist ideologischer Fakt, es wird extrem viel Veränderung auf diesem Schwachsinn aufgebaut und was nicht sein darf kann nicht sein. Analog zu Corona wird hier eine Agenda durchgezogen die ganz andere Ziele hat als irgendwas am sog. Klima zu verändern.
Ross Mckitriks Feststellung, dass und warum die Berechnungsbasis für die “Klimakatstrophe” falsch ist, wird sich irgendwann in weiteren Kreisen herumsprechen, wahrscheinlich dann, wenn unübersehbar wird, dass die Planetenrettung durch Deutschland mal wieder nicht geklappt, dafür aber schwere Schäden angerichtet hat. Selbstverständlich liest so gut wie kein, wenn nicht sogar kein einziger junger Klima-Aktivist Mckitrik, den meisten dürfte seine Argumentation auch zu hoch sein. Erst recht ist sie den welkenden, etwa 40- bis 70-jährigen Pubertätskrisenakteuren in der “Politik” unverständlich und so´n Zeugs, das bei der Schlagwortproduktion gegen den Klimawandel einfach nicht interessiert. Und schon gar nicht lesen Klimabewegte und ihre linksgrünen Autoritäten Blogs wie Science files, denn das wäre rächz.
Größenwahn/Psychopathie zeigt sich auch am Klimawandel! Wer ein bißchen weiter zurückgeht und die Anfänge, auch mit Gore genau verfolgte, konnte sehr schnell erkennen, dass es sich hier um eine gigantische Geldumverteilungsmaschine handelt. Eine Ideolgie war geboren. Man musste diese eigentlich nur mit Propaganda zünden und ständig mit Angst nachlegen. Wie Corona. Statt wissenschaftlicher Zusammenarbeit wird einseitig conform berichtet und Gegenmeinung ausgeschaltet. Aber ein Großteil der Menschheit ist leider geistig und menschlich degeneriert und glaubt um des Glaubens willen. Eine vernichtende Religion war ins Leben gerufen worden und fast Alle laufen hinterher. Beide sind grandiose Wegbereiter für den Great Reset und die Agenda: bis 2030 seid ihr alle arm aber glücklich. Die menschlich geistigen Alarmglocke funktioniert nicht mehr, Realität ist eine Utopie, hoch lebe die Ideologie.
Sehr schön Herr Klein! Aber wie erkläre ich das einem Normalsterblichen. Vielleicht wären ein paar Grafiken oder Diagramme nicht schlecht.
Die Sonne, DIE Lebensgrundlage, fehlt in sämtlichen “Klimamodellen”!
Der Statistik Prof hat in der allerersten Vorlesung immer gesagt: shit in shit out.
Der Jura Prof: kopieren ist nicht kapieren.
Endzeitsektenkinder luisa, greta, annalena & verhetzte Mischpoke: AB INS AMISH CAMP!!!
ich spendiere ein Jahr, kost ja fast nix… 😉
Bitte keine Herabsetzung der Amish, das sind sehr seriöse Menschen.
Es gibt bei der ganzen Geschichte schon einen Grundlagenfehler: “Klima” ist ein rein statistische Größe über rollierende 30-Jahreszeiträume, die so unterschiedliche Koeffizienten wie Luft- und Wassertemperatur, Luftdruck und -feuchtigkeit, Niederschlag, Windstärke, -richtungen und -häufigkeit, Anzahl und Stärke von Gewittern usw. – insgesamt unter “Wetter” zusammengefasst – beinhaltet.
Die Klimaspinner betrachten erstmal nur die Temperatur und führen alle Extremwetterereignisse auf die “steigenden Temperaturen” zurück, vor 35 Jahren waren noch die “sinkenden Temperaturen” schuld.
Wie man jetzt eine statistische Größe schützen soll, erschließt sich mir nicht, und unter “Wetterschutz” versteht der Fachmann den Schutz von Menschen und Gebäuden VOR dem Wetter, nicht den Schutz des Wetters vor dem Menschen.
Runtergebrochen ist die Klimadiskussion also im Prinzip eine Temperaturdiskussion, und dann sollte man alleine aus der bekannten Geschichte der letzten 80 Jahre (Dt. Armee erfriert in Stalingrad; Hungerwinter 1947/1948; wochenlange heiße Sommer und “normale” Winter in den 60ern und 70ern; wieder sehr kalte Winter Ende der 70er bis in die 80er hinein; ab Mitte der 90er ein bisschen “Nivellierung” der Temperaturen zwischen Sommer und Winter; wieder fünf kalte und sehr schneereiche Winter in den 2000ern in Folge; danach mehrere sehr schneearme Winter mit Schneekanonen für die Wintersportorte; jetzt kürzlich Schneefall in der Alpen während der Tour de France,…) schließen können, daß Temperatur nicht linear steigt oder fällt, sondern wir Wellen erleben, selbst in dieser überschaubaren Zeit.
Eine lineare Extrapolation des “Temperaturanstiegs” mit der Vorgabe, diesen irgendwie “begrenzen” zu können, ist deshalb neben der damit zur Schau gestellten Hybris einfach nur Unsinn, den in der 80ern noch jeder Gymnasiast widerlegen konnte, heute scheitern daran krachend “Studierte”, die MIR dann die Welt erklären wollen.
Deshalb vertrauen in der Industrie auch nur Dummköpfe rein auf die Mathematik. Wer sich mit diversen Simulationsmethoden gut auskennt, weiß so einiges zu berichten, wozu Rechenmodelle neben verwertbaren Ergebnissen auch sonst noch alles in der Lage sind.
Die Kunden machen es sich einfach und ein wenig habe ich als Dienstleistungsnehmer immer darauf hingewiesen, die Ergebnisse und Bilder sind schön anzuschauen, aber nichts geht über einen echten Prüfstandversuch und Messungen am Objekt hinaus.
Grundsätzlich gilt, je mehr anspruchsvolle Formeln und überfüllte Diagramme in einer Präsentation, desto scharlataniger, denn das bringt keinen weiter.
Daher gibt es Kunden, die es fertigbringen, denselben Entwicklungsauftrag an wenigstens zwei Anbieter zu vergeben und die dann zusammen nacheinander präsentieren zu lassen.
Hab das einmal erlebt und es wurde zunehmend giftiger, bis der Kunde sich irgendwann bequemte zu sagen, das was ich berechnet habe, wurde vor Ort genau so gemessen. Das Bild vom Doktor der anderen Seite, der tödlich verwundet in seinem Stuhl zusammensank, war zu schön, der wurde zuvor persönlich, begann meine Arbeitsweise zu hinterfragen und da ist bei mir Ende im Gelände.
Nur Deppen vertrauen allein solchen Kürvchen und Formelchen und damit der Zweifler nicht zu viele werden, fabuliert man nun schon von mindestens einer Milliarde Kinder, die es bald krassestens treffen wird, womit man sich endgültig in den Bereich der Scharlatanerie begibt.
Erinnert mich an die Virologie. Da hinterfragt auch keiner die Methoden. Und nun sitzen wir hier mit der Fehlannahme von Viren…