Warum Simulations-Modelle die Realität nur schlecht abbilden, wenn überhaupt
Gemessen am Stellenwert den wissenschaftliche Simulations-Modelle mittlerweile in der Politik einnehmen, könnte man denken, Simulations-Modelle sind elaborierte, digitale Abbilder der Realität, die es erlauben, Letztere punktgenau vorherzusagen. Simulations-Modelle spielen in immer mehr Kontexten eine herausragende Rolle. Die komplette Reaktion westlicher Staaten auf SARS-CoV-2 baut auf Simulationsmodellen auf. Energiepolitiken in vielen Ländern sind an Klimamodelle angepasst. Die Auswirkungen entsprechender Politiken sind erheblich, so erheblich, dass die Politiken eigentlich nur dann zu rechtfertigen sind, wenn die Simulations-Modelle auch reliabel und valide sind.
Überraschung – das sind sie nicht.
Sie können es gar nicht sein. Denn – obwohl Simulations-Modelle mit dem Anspruch verbreitet werden, die Zukunft vorherzusagen, sind sie dazu nicht – oder nur durch Zufall in der Lage.
Dass dem so ist, das hat die folgenden Gründe:
-
Simulations-Modelle bauen auf vergangenen Daten auf, d.h. sie basieren auf der Annahme, dass die Zusammenhänge, die für die Vergangenheit gefunden wurden, auch in Zukunft gelten werden.
- Simulations-Modelle berücksichtigen immer nur eine Auswahl von Daten, sie berücksichtigen nicht ALLE relevanten Daten, die notwendig sind, um eine genau Vorhersage der Zukunft zu machen. Dass das so ist, hat eine Reihe von Gründen: (1) Niemand kennt “ALLE relevanten Daten”. (2) Alles auf der Erde geschieht in einem dynamischen Umfeld, d.h. neue Einflussfaktoren können auftauchen, alte einfach verschwinden. In beiden Fällen ist der Effekt der selbe: Das Modell ist obsolet.
- Simulations-Modelle sind mathematische Modelle, die Zusammenhänge zwischen den Variablen beschreiben, die in das Modell eingehen, d.h. weil nicht alle relevanten Variablen bekannt sind, sind notwendiger Weise auch nicht alle Zusammenhänge zwischen relevanten Variablen, wie sie sich gegenseitig beeinflussen, sofern sie sich beeinflussen, in welcher Abhängigkeit sie zu einander stehen, wenn sie überhaupt in einem deterministischen Verhältnis zueinander stehen, bekannt. Hinzu kommt, dass zwar Variablen bekannt sein können, ihr Zusammenhang mit den anderen Modellvariablen aber bestenfalls geschätzt werden kann.
Ein Modell ist somit ein Idealtypus, der mehr oder weniger weit von der Realität abweichen MUSS. Als solche Idealtypen wurden Simulations-Modelle vornehmlich dazu entwickelt, um Szenarien möglicher Entwicklungen unter kontrollierten Modellbedingungen berechnen zu können und für den Mikrokosmos des jeweiligen Modells beschreiben zu können, wie sich das Gesamt in Abhängigkeit zur Veränderung einzelner oder aller Variablen entwickelt.
Die Ökonomie, vor allem die Makroökonomie ist die Wissenschaft, in der sich die meisten Modelle finden, denn Ökonomen lieben es, in einer Modellwelt zu leben und mit Zins und Geld zu spielen, etwa so:
Als solche haben Modelle einen heuristischen Wert für diejenigen, die sie entwickeln, denn sie sind mit Modellen in der Lage, grundsätzliche Zusammenhänge zu analysieren, sich eine Heuristik der Welt zu bauen, kein Abbild.
Aber genau als solche Abbilder der Realität versuchen manche Politiker, Opportunisten und Profiteure Modelle der Öffentlichkeit anzudrehen. Wer an den Klimamodellen des IPCC zweifelt, begeht einen Frevel und wird als “Klima(wandel)leugner” betitelt. Wer darauf hinweist, dass alle Maßnahmen gegen SARS-CoV-2 nur so gut sind, wie die Annahmen der Modelle, auf denen sie basieren, der gilt manchen schon als Coronaleugner.
Es ist übrigens sehr interessant, Klima-Modelle mit COVID-19 Modellen zu vergleichen. Beide unterscheiden sich erheblich im Ausmaß der Strenge der Beziehungen. Mehr oder mindert sind COVID-19 Modelle vollständige Modelle, wenn die Annahmen gelten, dass SARS-CoV-2 auf keine Immunität trifft, dass jeder gleich anfällig für eine Infektion ist, die Schwere der Infektion aber nach Alter variiert, die Verbreitung von SARS-CoV-2 mit einer exponentiellen Funktion beschrieben werden kann. Wie wir gelernt haben, sind fast alle diese Annahmen falsch. SARS-CoV-2 scheint sich nicht exponentiell zu verbreiten, weil wohl Kreuzimmunität vorhanden ist, die dies verhindert und somit ist wohl auch die Annahme falsch, dass SARS-CoV-2 auf keine Immunität trifft.
Wir haben vor einiger Zeit sehr ausführlich das Modell des Imperial College vorgestellt, in dem die Annahmen über SARS-CoV-2 um eine Reihe von Annahmen über die Verbreitung des Virus erweitert wurden, etwa, dass ein Infizierter im Durchschnitt zwei bis 2,6 Andere infiziert, dass eine bestimmte Zeit zwischen Ansteckung und ersten Symptomen vergeht, das hier:
- Die Inkubationsphase beträgt 5,1 Tage;
- 12 Stunden bevor ein Infizierter Symptome zeigt, kann er bereits andere infizieren;
- Asymptomatische Infizierte können 4,6 Tage nach ihrer Ansteckung andere infizieren;
- Die Übertragungsrate Ro wird mit 2,4 angenommen, das entspricht der aus China bekannten Übertragungsrate;
- Infizierte sind nach Genesung nicht re-infizierbar, jedenfalls auf mittlere Sicht nicht;
- Eine Verdoppelung der Fallzahlen erfolgt nach jeweils 5 Tagen;
- 2/3 der Infizierten zeigen ausreichende Symptome um sich innerhalb eines Tages selbst zu isolieren;
- Zwischen dem Auftreten der Symptome und einer stationären Aufnahme vergehen im Schnitt fünf Tage;
- Die Sterberate beträgt 0,9% für alle Infizierten und 4,4% für diejenigen, die eine stationäre Aufnahme benötigen;
- 50% der Patienten auf Intensivstationen sterben;
- Die durchschnittliche Dauer des Aufenthalts in einem Krankenhaus beträgt 8 Tage, Patienten, die eine intensive Betreuung benötigen, bleiben im Durchschnitt 16 Tage im Krankenhaus.
Das alles sind Annahmen, die in einem umfänglich bekannten Umfeld gemacht werden. Insofern kann man erwarten, dass diese Annahmen, wenn das Umfeld tatsächlich vollständig beschrieben ist und die Annahmen wie oben dargelegt, richtig sind, zu einer ungefähr korrekten Schätzung der Anzahl benötigter Betten auf Intensivstationen führen und damit auch zu einer ungefähr korrekten Schätzung der Mortalität. Nun sind die Annahmen falsch und die Pandemie hat weit weniger Probleme bereitet als befürchtet. In Deutschland gilt dies wie im Vereinigten Königreich. Und doch sind im Vereinigten Königreich, nachdem die Statistik um 5.000 Fehlklassifikationen bereinigt wurde, 41.347 Menschen an COVID-19 verstorben und diese Zahl liegt in genau dem Bereich, den das Modell des Imperial College vorhergesagt hat:
Im besten oben dargestellten Fall, rechnen die Autoren für das Vereinigte Königreich bei einer Ansteckungsrate von R0 von 2,4% mit zwischen 8.700 und 39.000 Toten. Weniger strikte Regime, wie z.B. die Schließung von Schulen, Fallisolierung und Social Distancing münden in zwischen 12.000 und 53.000 Tote. Das sind die Ergebnisse für das Vereinigte Königreich, die Ergebnisse für Deutschland liegen noch darüber. Die genaue Darstellung des Modells findet sich hier.
Ein gutes Modell? Nun, eines, das auf weitgehend falschen Annahmen zu richtigen Ergebnissen kommt. Was sagt das über die Verlässlichkeit von Modellen aus? Es zeigt, dass Modelle Idealtypen, ideale Beschreibungen der Realität unter der Annahme, dass alle Annahmen, auf denen die Modelle basieren, zutreffen, sind, die mehr oder weniger weit von der Realität abweichen und die zu richtigen Ergebnissen auf Basis vollkommen falscher Annahmen kommen können.
Nun muss man sich die Probleme, die COVID-19-Modelle offenkundig haben, potenziert vorstellen, um eine Vorstellung davon zu erhalten, welcher Humbug vom IPCC mit den dort vertriebenen Klima-Modellen verbreitet wird. Wir haben hier ausführlich beschrieben, dass die Klimamodelle nichts taugen. Sie können deshalb nichts taugen, weil die eingangs beschriebenen Gründe dafür, warum Modelle die Realität nicht vorhersagen können, bei Klimamodellen potenziert sind. Klimamodelle berücksichtigen eine Unmenge von Variablen und Zusammenhänge zwischen Variablen, die allesamt auf Annahmen basieren, die aus der Vergangenheit extrapoliert werden, und Klimamodelle behaupten von sich, sie seien vollständig, enthielten also alle relevanten Daten. Das ist, was man im britischen preposterous – absurd mit einem gewissen Etwas – nennt. Dass Klimamodelle nicht vollständig sind, zeigt sich daran, dass sie NICHT in de Lage sind, das Wetter von morgen vorherzusagen, wozu sie in der Lage sein müssten, wenn sie vollständig wären. Nicht nur sind Klimamodelle nicht vollständig, sie können es gar nicht sein, weil es eine Unzahl von klimatischen Zusammenhängen gibt, die entweder unbekannt oder so wenig bekannt sind, dass sie nicht zuverlässig modelliert werden können. Der beste Beleg dafür, dass Klimamodelle politische Modelle sind, deren Vollständigkeit und Genauigkeit deshalb behauptet wird, weil ganze Legionen von Profiteuren ihren Unterhalt mit dem Schüren von Klimawandel-Angst bestreiten, ist die Tatsache, dass die Distanz neuerer Modelle zur tatsächlichen Entwicklung immer größer wird. Hier wird absichtlich manipuliert, um eine Erwärmung zu errechnen, die es tatsächlich nicht gibt. Wir haben auch dies ausführlich beschrieben.
Modelle sind keine Fotographien der Welt, wie sie in der Zukunft aussieht. Modelle sind bestenfalls Handzeichnungen, die nur einen kleinen Teil dessen, was Zukunft sein wird, abbilden können. Jeder, der etwas anderes behauptet, ist ein Scharlatan, dessen Ziel darin besteht, andere über den Tisch zu ziehen, um seinen Profit zu mehren.
Featured Image: Newsday
Wenn man Fehlentwicklungen begegnen will, dann muss man sie deutlich benennen.
Bitte unterstützen Sie unseren Fortbestand als freies Medium.
Vielen Dank!
[wpedon id=66988]
- ScienceFiles-Spendenkonten
Achtung: Unsere Kontoverbindung hat sich verändert!- Deutsche Bank
- Michael Klein
- BIC: DEUTDEDBCHE
- IBAN: DE18 8707 0024 0123 5191 00
- Transferwise Europe SA
- ScienceFiles / Michael Klein
- BIC: TRWIBEB1XXX
- IBAN: BE54 9670 1430 1297
- Sponsern Sie ScienceFiles oder Artikel von ScienceFiles (einfach klicken)
Folgen Sie uns auf TELEGRAM
Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.
ScienceFiles-Shop
Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:
Donorbox
Unterstützen Sie ScienceFiles
Unsere eigene ScienceFiles-Spendenfunktion
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Sie haben vollkommen Recht.Je komplexer ein System, umso unsicherer sind die Ergebnisse von Simulationen, die das System beschreiben sollen. Daher kommen ja auch die ständigen Anpassungen in den Klimamodellen, die erstaunlicherweise immer nur in eine Richtung – nämlich in die vermeintlichen Apokalypse – gehen. Erschreckend ist es mit ansehen zu müssen, wie Wissenschaftler anscheinend jede Analyse und jedes kritische Hinterfragen über Bord werfen und auf den Zug der Politik aufspringen, um den Modellen diesen Spin zu verpassen.
Ein Modell ist sicherlich die sprichwörtliche Ausnahme, obwohl es immer weniger Akademiker lernen um Modellierung zu verstehen. Ich schätze das Modell auch deshalb, weil die Mitwirkenden anmerken, dass “Finally an empirical inequality with a period of 273 years was recommended, without any attempt to explain its size or even its period.” Moon-Earth-Sun: The oldest three-body problem Martin C. Gutzwiller
Zum Thema interessant ist Nelson/Winter “An evolutionary theory of economic change”. Darin werden die Grundlagen gelegt für ökonomische Simulationsmodelle, deren Prinzipien aber verallgemeinert werden können (zB auch auf Klimamodelle). Daraus zwei der wichtisten Erkenntnisse für derartige Modelle:
1) Je einfacher das Modell, desto bessere Ergebnisse erzielt es.
2) Die Ergebnisse des Modells müssen sich an der Vergangenheit messen.
3) Ein Modell ist ein Modell und bleibt ein Modell.
Beide Einschränkungen wurden bei Corona (und auch dem Klimagedöns) aufs gröbste verletzt.Dabei sind sie elemantar. Beachtet man sie allerdings, dann bekommt man oftmals überraschend gute Ergebnisse geliefert.
Es gibt gute Verfahren, um aus n-dimensionalen Verfahren n+x-dimensionale Vorhersagen zu erzeugen (eine Kombination aus Gamma Test und KI-learning. Aber alle diese Verfahren scheitern am deterministisch Chaos, d.h. daran das kleine Abweichungen in den Eingangsgrössen beliebig große Änderungen in den Ausgangsgrössen bedingen. Das ist aber für Wetter- und Klimamodelle immer der Fall.
Ich vergaß zu ergänzen, das bedeutet Klimamodelle haben keine Antwort/Lösung what so ever they are nuts.
“Das Modell dient einzig dazu, sich Zusammenhänge zwischen Variablen zu vergegenwärtigen, zu sagen: Wenn i sinkt, dann sinkt auch L(i,Y [reales Einkommen]), während M/P steigt.”
Nun, das sollte eigentlich schon in der zweiten Vorlesungsstunde in Makro-Oec. oder Statistik1 verinnerlicht worden sein.
Herr Klein, auch die heute veröffentlichte Studie des RKI aus Bayern hat unter den Untersuchten 28 Prozent gefunden, von 100 Prozent die nachweislich mit Corona infiziert bzw. erkrankt waren, die zum Zeitpunkt der Studie keine Antikörper mehr hatten. Sie haben ja selbst hier schon “zig” Studien besprochen, die zu ähnlichen Ergebnissen kamen, darunter ganz zu Beginn der Pandemie eine aus China.
.
Den sehr wichtigen Punkt haben Sie also in diesem Artikel “unterschlagen”. Ja, es gibt eine Immunität nach Infektion, zumindest aber für ein rundes Drittel nur für wenige Monate.
.
Ob das gut oder schlecht ist, sei dahingestellt. Ich könnte mir aber vorstellen, dass in diesen Personenkreisen, wo die Immunität nachlässt, bunte Mutationen des Virus für neue Überraschungen sorgen könnten. Gerade weil diese Personen glauben, sie wären ja immun.
.
Jedenfalls ist der Zeitraum ungefähr drei Monate bis zum Verlust der Immunität. Aber heute wäre das Mitte November, die klassiche Saison.
Kurze Bemerkung noch: Wer sich bereits im Februar in Deutschland ansteckte, könnte jetzt ein zweites Mal infiziert sein und im November erneut als Infizierter Viren verteilen.
.
Vorausgesetzt, er hätte ein lnur atent wirksames Immunsystem, das nur schwach reagiert, das Virus nicht ausrottet, wie eine falsche Anwendung Antibiotika Resistenzen erzeugen kann (und das bestreiten ja viele Experten für VIren), er dennoch behandelt wird, könnte er Viren züchten …
Im Übrigen, Herr Klein, sei noch gesagt:
.
Es gibt in Deutschland (bzw. im deutschsprachigen Raum) NIEMANDEN, der sich so sehr verdient gemacht hat, wie Sie, das Team Sciencefiles Diefenbach/Klein, die Ausbreitung zu verhindern und kleinzuhalten! Dafür ein ganz großes Danke! Das ist tatsächlich IHR Verdienst, denn Sie haben frühzeitig reagiert! Da können Blödköppe kommen, wie sie wollen, das wäre nur eine Grippe.
.
Ich lese sehr viele unterschiedliches Quellen und Medien. Keine kann für sich beanspruchen im deutschsprachigen Raum, vor Ihnen dran gewesen zu sein und Fakten präsentiert zu haben.
Es spielt doch keine Rolle. Es geht um Geldtransfer von einer Tasche in eine andere. Die Linken, Sozis, Grosskapital und Medien haben einen gemeinsamen Nenner gefunden.
Wessen Geld wohin wandert steht auch schon fest. Also müssen die Modelle angepasst werden. 2040 interessiert das dann keinen mehr, wenn die Verantwortlichen in Rente sind, und es nicht so kam.
Dann werden halt wieder neue Modelle rausgeholt. Die vieeel besser sind, als die alten.
Solange die Kritik daran als Aluhut und Leugnung beziffert wird, haben wir es auch nicht mit seriösen Forschern zu tun.
Danke. Man müsste diesen Text auf einem Blatt Papier abdrucken und in jeden deutschen Haushalt schicken. Ferner sollte nach jeder Corona-Sendung im ORR der ein Satz kommen (- ähnlich wie bei der Pillen-Reklame “Für Risikon und Nebenwirkungen ….”):
“Die Angaben in unserer Sendung sind nur grobe Annahmen und Modellvorstellungen, in der realität kann es auch ganz anders sein.”
Es ist zum Steinerweichen.
Da werden Klimamodelle, die noch um Zehnerpotenzen komplexer sind als Vorhersagen zur Verbreitung von Pandemien, von denen auch die meisten danebenliegen, von der Politik zum Anlaß genommen, ein erfolgreiches Wirtschafts- und Energiesystem umzukrempeln mit unvorhersehbaren Folgen für unsere Zukunft.
Wobei das Wort “unvorhersehbar” auch nicht ganz stimmt, es ist nämlich durchaus vorhersehbar, dass die Folgen desaströs sein werden. Die “Klimaschutzmaßnahmen” werden nicht die Zukunft unserer Kinder retten, wie propagiert, sie werden diese Zukunft kaputt machen.
Es ist deshalb zu hoffen, so krass das auch klingt, dass der zu erwartende Zusammenbruch der Energieversorgung durch unvermeidbare Blackouts sehr bald kommt und der sedierten Bevölkerung aufzeigt, dass nicht Kohle- und Kernkraftwerke die Zukunft der nachfolgenden Generationen zerstören, sondern deren Abschaffung, und dass es dann nicht zu spät ist, gegenzusteuern.
Sozusagen “learning by feeling”.
Wenn jemand vorhat von ‘A’ nach ‘B’ zu gehen, dann ‘spekuliert’ er vorher auch intern über dieses Vorhaben, indem er eine Simulation dieses Vorhabens gedanklich erstellt.
Wie wirklich JEDER wissen kann, kann diese Simulation völlig korrekt durchgeführt worden sein und TROTZDEM kommt dieser Jemand NICHT bei ‘B’ an.
Was den wenigsten (ja, auch und gerade Wissenschaftlern) bewusst ist, dass eine Berechnung trotz solider und valider Algorithmen, Daten etc. allein aufgrund der Rechnerstruktur z.B. eine iterative Serie von Simulationen 999mal dasselbe Ergebnis produzieren kann, aber bei der 1000sten plötzlich ein völlig abweichendes Ergebnis bieten kann.
Wie bei einem Fraktalisierungsprozess sind bereits kleinste Veränderungen entscheidend für das Endergebnis, das enorm differieren kann deswegen.
Ein Fließkommafehler (siehe Pentium II) oder ein winziger Temperaturunterschied (siehe Quantencomputer) können solche Verzerrungen leicht hervorrufen und beeinflußen das Gesamte.
Ja, ein Taschenrechner wird immer 2×2=4 ausgeben – aber nur deswegen, weil er dabei keinerlei Spielraum hat bzw. sich die mikroskopischen Differenzen nicht makroskopisch auswirken können.
Sobald aber Iteration mit auch nur kleinsten Differenzen ins Spiel kommen, gerät jegliche Gewissheit ins Abseits.
Deswegen gilt selbst ‘2×2=4’ immer nur unter Vorbehalt.
Denn wenn es keine ‘saubere’ 2 ist, sondern 1,9 und 2,1, dann ist es schon nicht mehr 4, sondern 3,99! 😉
Auf 100 solcher Rundungsfehler bei dieser primitiven Rechnung kommt bereits eine ganze ‘1’ als Differenz heraus.
Digital bedeutet dies den Unterschied zwischen ‘0’ und ‘I’ und damit den möglichen Unterschied zwischen alles oder nichts.
Simulationen sind im besten Fall Indikatoren zur Vektorisierung, aber kein Beweis für irgendetwas.