Vom physischen Lockdown zum neuronalen Meltdown: Studie verursacht intellektuelles Fiasko beim Bayerischen Rundfunk

Lockdowns haben KEINEN Effekt auf die Mortalität. Eine Studie, ein Affront für all diejenigen, die dafür bezahlt werden, die Erzählung zu verteidigen, dass Regierungen und ihre Helferhelfer, egal, was sie auch tun, immer nur Gutes tun und Heil und Lebensfreude und Wohlstand und glücklich-lachende Kindergesichter in blühenden Landschaften Sicherheitsabstand haltender Maskenträger hervorbringen, und nur das. Nichts anderes.

Wer an diesem schönen Märchen auch nur einen Hauch von Zweifel anmeldet, auf den wird die Meute derer gehetzt, die zum Beispiel bei öffentlich-rechtlichen Anstalten ihr Dasein damit fristen, jede Häresie am vorgegebenen Glaubenssatz zu bekämpfen. Weil Häresie heute vornehmlich aus wissenschaftlichen Studien besteht, die deutlich zeigen, dass Lockdowns außer Kosten nichts bringen, Maskentragen keinen Effekt auf die Verbreitung von SARS-CoV-2 hat, COVID-19 Gentherapien nicht die Frischzellenkur des ewigen Lebens darstellen, als die sie verkauft werden, weil, mit anderen Worten, die lachenden Kinderwelten unter nutzlosem FFP2-Tand erstickt werden, deshalb stehen die Angehörigen dieser Meute, die sich in Rubriken wie “Wissen” oder “Faktenfinder” verschanzen, dort ihr Unwesen treiben, vor dem Problem, dass ihr Wissen nicht reicht, um das Wissen anderer, das Wissen gestandener Wissenschaftler auch nur zu hinterfragen. Deshalb suchen sie sich – oft genug – gedungene Akademiker, die ein ebenso tristes Dasein in den intellektuellen Reste-Discountern, die früher einmal Hochschulen waren, fristen, damit diese Übriggebliebenen den vermeintlichen Status ihrer Position ins Feld führen können, um missliebige Studien zu diskreditieren.

Dies gesagt, kommen wir nun zu einem Beitrag im Bayrischen Rundfunk, der mit “Kritik an Lockdown-Studie: “Bachelor-Student wäre durchgefallen“, überschrieben ist. Irgendjemand hat in öffentlichen Anstalten die Ansicht verbreitet, dass dann, wenn Denunziation die Absicht ist, es am besten sei, zu mehreren aufzutreten, um den Eindruck zu vermitteln, das, was Konsumenten zugemutet wird, sei eine Art Ergebnis von Crowdfunding, was zwangsläufig dem Eingeständnis gleichkommt, dass einer der Beteiligten alleine nicht über die neuronale Ausstattung verfügt hätte, um zustande zu bringen, was zu stande gebracht wurde. Und wenn man betrachtet, welche Erbärmlichkeit unter dem Titel “Kritik an Lockdown Studie: “Bachelor-Student wäre durchgefallen” zustande gekommen ist und in Rechnung stellt, das dieses Ergebnis wiederum ein Ergebnis kollektiv-neuronaler Aggregation ist, dann fragen wir uns, ob unsere Gewohnheit, von Redaktions-Zombies zu sprechen, Zombies Unrecht tut.

Die derogative Überschrift “Kritik an Lockdown-Studie: “Bachelor-Student wäre durchgefallen”, sie stammt von Simon Sachseder, Johannes Roßteuscher und Stefan Geier. Ihnen wurde der Auftrag zuteil, die Lockdown-Studie, die hohe Wellen schlägt, zu diskreditieren, zu thematisieren. Sie haben sich der Hilfe von Andreas Peichl, angeblich Professor für Volkswirtschaftslehre an der LMU München und Leiter des ifo Zentrums für Makroökonomik und Befragungen, von Sabine Hoffmann, “Biostatistikerin an der LMU München” von Max Geraedts, “Leiter des Instituts für Versorgungsforschung und Klinische Epidemiologie an der Unität Marburg, also von der stalinistisch besetzten Zone und von Andreas Schubert, RWTH Aachen, versichert.

Die Hilfe der vier Koniferen, akademische Gewächse zur symbolischen Zierde ansonsten intellektueller Brachen, sieht wie folgt aus – wir gehen sie für jede Konifere getrennt durch.

ifo-Makroökonom Peichl sagt:

  1. “Einen viel größeren methodischen Quatsch kann man nicht machen.”
  2. “Eine Bachelorarbeit hätte man mit der Studie nicht bestanden.”
  3. “Die Studie wurde passen dazu gemacht.”
  4. Zitat: “Die 24 ausgewerteten Studien haben die Autoren aus mehr als 18.000 Arbeiten ausgewählt. Anschließend wurden auch die 24 übrig gebliebenen Studien extrem unterschiedlich gewichtet. Manche gingen mit dem Faktor 169 in die Metaanalyse ein, andere mit dem Faktor drei. Hier seien die Einzelstudien besonders hoch gewichtet worden, die bei den Lockdown-Maßnahmen keinen Effekt fanden, sagt Peichl.”

Dass etwas methodischer Quatsch ist, das ist durchaus möglich, wir selbst schreiben das oft genug über eine Studie, aber im Gegensatz zu Peichl BEGRÜNDEN wir unsere Bewertung. Peichl wirft sie einfach so in den Ring und belässt es dabei. Offenkundig denkt er, eine BEGRÜNDUNG sei nicht notwendig, denn er ist ja ifo-Institus-Abteilungsleiter, was wiederum bedeutet, dass er keine Begründung geben kann, denn könnte er eine geben, dann würde er sich sicher nicht auf seine Position zurückziehen.

Dass Peichl die Studie als Bachelorarbeit nicht akzeptiert hätte, glauben wir sofort. Offenkundig ist die Akzeptanz von Arbeiten bei ihm vom Ergebnis abhängig. Gefällt ihm ein Ergebnis nicht, dann liest er die Studie erst gar nicht, wie im vorliegenden Fall offenkundig. So betrachtet ist Peichl natürlich eine Last für die LMU, denn es ist nur eine Frage der Zeit, bis seine Praxis auf einen Studenten treffen wird, der sein Recht auf zumindest ansatzweise objektive Bewertung vor einem Verwaltungsgericht einklagen wird.

Die Behauptung, die Studie wurde passend gemacht, die Autoren würden also Wissenschaftsbetrug ausführen, ist strafrechtlich relevant und hat uns dazu bewogen, uns mit Jonas Herby, Lars Jonung und Steve H. Hanke, die die besagte Studie verfasst haben, in Verbindung zu setzen.

Dass Peichl die Studie nicht gelesen haben kann, zeigt der zitierte Absatz, denn in der Studie werden 34, nicht 24 wie hier behauptet, Studien besprochen und unterschiedlich gewichtet. Dass Peichl von Meta-Analysen keine Ahnung haben kann, wird daran deutlich, dass er sich an der Gewichtung stört, denn Meta-Analysen basieren generell auf Gewichtung.

Stellen Sie sich vor, sie wollen 10 verschiedene Studien, die dieselbe Fragestellung behandeln, alle einen empirischen Zugang wählen, sich aber im Hinblick auf die Anzahl der berücksichtigten Fälle, die methodische Herangehensweise, den betrachteten Zeitraum, die berechneten Koeffizienten, die berücksichtigten Variablen und vieles mehr unterscheiden, auf einen gemeinsamen Nenner bringen, wie dies Meta-Analysen im Hinblick auf eine Fragestellung tun. Ohne die Formulierung eines Kriterienkatalogs, dessen Erfüllung in den einzelnen Studien überprüft wird, ist das nicht möglich. Der Kriterienkatalog führt dazu, dass viele Studien, die die Kriterien nicht erfüllen, ausgeschlossen werden. im vorliegenden Fall bleiben von 18.590 über eine Literatursuche gefundenen Studien, ganze 34 übrig, auch nach neuerlicher Zählung schließen wir uns der Überzeugung der Autoren, dass sie 34 Studien untersucht haben, an.

Diese 34 Studien sind nun im Hinblick auf die genutzten Daten und die Fälle, die sie berücksichtigen, die Grundlage im vorliegenden Fall sind Vergleiche auf Länderebene und je mehr Länder verglichen werden, desto besser für die Validität der Ergebnisse, verschieden, ihre QUALITÄT ist unterschiedlich. Herby, Jonung und Hanke haben dieses Problem damit zu lösen versucht, dass sie vier Qualitätskriterien eingeführt haben, die genutzt werden, um das Ergebnis, das sie direkt aus der Studie entnommen haben, und das sie auf einen allgemeinen Koeffizienten standardisiert haben, wie dies in den vielen Büchern zu Meta-Analysen beschrieben wird, zu GEWICHTEN. Das ist eine normale Praxis. Wer Gewichtung kritisiert, stellt die Nützlichkeit von Meta-Analysen als solche in Frage und muss natürlich für einen solchen Angriff eine Begründung geben. Peichl tut nichts dergleichen. Er nimmt den Mund sehr voll, und hält die Arbeit für schwer nachvollziehbaren Quatsch.

Nun ist er, als Makroökonom jemand, der in der Regel mit Modellchen wie dem folgenden hantiert:

Möglicherweise ist er überfordert, wenn es darum geht, konkrete Beschreibungen von Vorgehensweisen und deren Ergebnis nachzulesen, wie sie Herby, Jonung und Hanke für JEDE von ihnen berücksichtigte Studie gegeben haben:

Diese klare Beschreibung der Vorgehensweise und der Gewichtung findet man natürlich nur, wenn man die Studie liest. Und dass Peichl die Studie gelesen hat, daran haben wir nicht nur deshalb berechtigte Zweifel, weil er von 24 statt 34 Studien redet, sondern auch deswegen, weil ihm offenkundig nicht bekannt ist, dass das Ergebnis, über das sich Medien-Aktivisten und ihr akademischer Hilfsmob derzeit so echauffieren, ein TEILERGEBNIS IST, das auf 7 Studien basiert:

Wir haben gestern, als wir die Studie von Herby, Jonung und Hanke besprochen haben, bereits darauf hingewiesen, dass ihr Ergebnis vor allem durch die Studie von Chisadza et al. getrieben wird, etwas weniger durch die Studie von Shiva und Molana. Ein Blick in die letzte Kategorie zeigt warum: Die Studie von Chisadza und die von Shiva und Molana sind die qualitativ besten Studien. Und warum ist die Studie von Chisadza et al. die beste Studie? Auch hier hilft das weiter, was Peichl offenkundig nie getan hat: LESEN:

“Two studies, Shiva and Molana (2021) and Chisadza et al. (2021), meet all quality dimensions. The precision-weighted average for these studies is 0.0%, meaning that lockdowns had no effect on COVID-19 mortality. Two studies live up to 3 of 4 quality dimensions (Bjørnskov (2021a) and Stockenhuber (2020)). The precision-weighted average for these studies is -0.3%, meaning that lockdowns reduced COVID-19 mortality by 0.3%. Three studies lack at least two quality dimensions. These studies find that lockdowns reduce COVID19 mortality by 4.2%. To sum up, we find that the studies that meet at  least 3 of 4 quality measures find that lockdowns have little to no effect on COVID-19 mortality, while studies that meet 2 of 4 quality measures find a small effect on COVID-19 mortality.”

Das, was die Autoren als “Precision weighted average” bezeichnen, ist offenkundig das Maß, um das sich alles dreht. Der “precision weigthed Average” ist bei den Autoren definiert als 1/SE, also als Bruchteil des Standardfehlers, je kleiner der Standardfehler, desto verlässlicher das Ergebnis. Das ist ein allgemein akzeptiertes Gütekriterium, das sich in allen Lehrbüchern zur Meta-Analyse findet. Nur Herr Peichl scheint es nicht zu kennen, was die Frage aufwirft, wie er auf die Idee kommt, er könne eine Arbeit zu einem Gegenstandsbereich, der ihm offenkundig fremd ist, beurteilen und noch dazu in einer von allen wissenschaftlichen Sitten devianten Weise, wie er das tut. Damit diskreditiert er sich natürlich als Mensch und als Wissenschaftler, aber manchen sind die fifteen minutes of fame so wichtig, dass sie alles in Kauf nehmen, um ihren Namen in einem Schmierenblatt oder bei einem Schmierensender zu sehen.

Falls Sie, wenn sie die Tabelle oben betrachtet haben, sich fragen, wo der “Faktor 169” und der “Fakor 3” herkommen, von denen Peichl fabuliert. Der Faktor 169 und der Faktor 3, sie stammen aus einer anderen Tabelle, aus dieser hier.

Das Problem mit dieser Tabelle, es geht hier explizit NICHT um Lockdown, es geht um SIPOs [Shelter in Place Orders, Quarantäne-Anordnungen für Alte]. Offenkundig behauptet Peichl einfach etwas ins Blaue, offenkundig getrieben von dem Bemühen, eine Studie zu diskreditieren, deren Ergebnis ihm nicht gefällt. Es wundert uns nicht, dass Peichl die Arbeit von Herby, Jonung und Hanke nicht als Bachlorarbeit akzeptiert hätte, denn dazu hätte er sie lesen und verstehen müssen und sie nicht rundweg aufgrund eines Ergebnisses, das ihm nicht zu gefallen scheint, ablehnen dürfen. Eine solches Verhalten macht ihn natürlich als Wissenschaftler und vor allem als Dozent untragbar, aber vielleicht steht ihm ja eine Karriere als Haus-und-Hof-Akademiker des Bayerischen Rundfunk, als Mann zur Diskreditierung auf Zuruf offen.

Kommen wir zu den drei verbleibenden “Akademikern”, die sich über Studien abwertend äußern, die sie offenkundig nicht gelesen bzw. nicht verstanden haben:

Biostatistikerin Sabine Hoffmann schwätzt darüber, dass die Autoren keine Studien berücksichtigen, die ein “exponentielles Wachstum einer Infektionskrankheit abbilden”, also keine Simulationsstudien. Das kann man kritisieren, dann muss man aber begründen, warum eine Studie, die Ergebnisse simuliert, besser sein soll, als eine Studie, die auf AKTUELLEN DATEN auf empirischen, tatsächlichen Daten beruht. Das dürfte nicht so einfach sein.

Hinzu kommt, dass Herby, Jonung und Hanke ausführlich, lang und breit, ermüdend detailliert, auf mehreren Seiten die Auswahl der Studien, die Kriterien, die dieser Auswahl zugrunde liegen, BEGRÜNDEN. Im Verlauf dieser Begründung findet sich auch eine Passage, die dem Ausschluss von Simulationsstudien gewidmet ist. Die Gründe dafür: Simulationsstudien basieren auf mehr oder weniger wilden Annahmen, man denke nur an die Simulationsstudien von Neil Ferguson und seiner imperialen Clique, die, wenn man den Vorhersagezeitraum nur lange genug in die Zukunft reichen lässt, das komplette Vereinigte Königreich entvölkert haben, einschließlich der imperialen Clique übrigens. Simulationsstudien basieren nicht nur auf zumeist wilden Annahmen, keine zwei Simulationsstudien basieren auf DENSELBEN Annahmen. Warum soll man sich Probleme mit Studien, deren Aussage über die Realität irgendwo zwischen irrelevant und grottenfalsch angesiedelt ist, belasten, wenn man AKTUELLE Daten hat. Eine Frage an die “Biostatistikerin” des BR. Wir sind auf die Antwort gespannt. Im übrigen steht es Hoffmann natürlich frei, Hand anzulegen und die Probleme, die sie mit der Studie von Herby, Jonung und Hanke verbinden will, zu lösen, sofern sie dazu im Stande ist, versteht sich.

Die nächste angebliche Kritik, die Hoffmann äußert, die hat wiederum die Gewichtung zum Gegenstand, an der sich auch schon Peichl gestoßen hatte. Bei Hoffmann ist der Faktor 169 auf ein “50 mal so großes Gewicht” geschmolzen, Ausweis von zweierlei: Auch Hoffmann hat die Studie, die sie kritisieren will, nicht gelesen oder gelesen und nicht verstanden. Und auch Hoffmann hat von Meta-Analysen keine Ahnung, denn der ganze Witz von Meta-Analysen besteht darin, schlechte Studien und gute Studien, aussagekräfige und weniger aussagekräftige Studien entsprechend zu gewichten, um ein valides Ergebnis zu erreichen. Vermutlich gehört Hoffmann zu der Fraktion, die Berücksichtigungsgleichheit für alle Studien fordert. So wie im richtigen Quotenleben: Junk mit Kompetenz gleichstellen.

Andreas Schuppert hat die originellste Kritik. Die Lockdown-Maßnahmen seien gar nicht dazu dagewesen, Mortalität, sondern dazu, eine Überlastung des Gesundheitswesens zu verhindern.

Was soll man dazu sagen?
Was sagt man zu Leuten, die der Ansicht sind, Mortalität und Intensivstation oder Krankenhauseinlieferung hätten nichts miteinander zu tun? Was sagt man zu Leuten, die offenkundig nicht zu dem Gedanken fähig sind, dass eine politische Maßnahme, die die Anzahl der Menschen, die wegen schwerer Erkrankung in ein Krankenhaus eingeliefert werden,  reduzieren will, zwangsläufig dazu führen muss, dass auch weniger Menschen an der schweren Erkrankung sterben? Vielleicht hilft das:

Hey, Andreas, nicht alle, die in ein Krankenhaus horizontal eingefahren werden, treten vertikal wieder heraus.
Man soll die Hoffnung ja nicht aufgeben…

Wir haben Max Geraedts von der stalinistisch besetzten Zone der Unität Marburg vergessen. Geraedts ist, wie Peichl aus unserer Sicht ein Fall für einen Staatsanwalt, denn er wirft den Autoren vor, “absichtlich versucht zu haben, die von ihnen gewünschten Aussagen zu belegen”. Es ist schon interessant, auf welche Gedanken Max Geraedts kommt, vor allem, wenn man bedenkt, dass wissenschaftliche Ethik Fairness zu ihrer Grundlage hat. Fairness wiederum sieht es vor, nicht ins Blaue hinein zu behaupten, und zwar mit der Absicht, wie man annehmen muss, andere zu diffamieren und von ihrer Arbeit abzulenken. Wir haben noch selten eine Arbeit gelesen, in der detaillierter beschrieben worden wäre, wie eine Studienauswahl zustande gekommen ist, welche Kriterien angelegt wurden, um letztlich 34 (immer noch 34 und nicht 24) Studien zu analysieren. Ein Beispiel:

Wer noch eine Meta-Studie kennt, in der sich die Autoren nicht nur die Mühe machen, ihre methodische Vorgehensweise haarklein darzulegen, sondern auch für jede Studie, die sie aus den Analysen ausgeschlossen haben, angeben, auf Grundlage welchen Kriteriums der Ausschluss erfolgte, der möge sich bei uns melden. Dass Max Geraedts von der Lust, etwas zu diskreditieren, das er nicht kennt, getrieben ist, scheint offenkundig. Falls Sie Fragen haben, wie es zum Dritten Reich kommen konnte, fragen Sie Herrn Geraedts, er ist Experte.

Das also sind die qualifizierten Aussagen der vier Experten, die von den drei vom BR angefragt wurden, um eine Studie zu diskreditieren, die zum Besten an Meta-Analyse gehört, das wir gesehen haben. Wie jede Studie, so kann man auch die von Herby, Jonung und Hanke kritisieren. Das liegt in der Natur der Sache, denn jede Meta-Analyse ist eine Übung in Entscheidungen, die unterschiedliche Wissenschaftler unterschiedlich getroffen hätten. Wenn man eine solche Studie indes kritisiert, dann muss man sagen, was man wie besser gemacht hätte. Der konstruktive Teil einer Kritik, der Hans Albert so wichtig war und den Rubikon zwischen dem, der nur kritisieren und oft genug denunzieren will, und dem, dem es um Erkenntnis geght, beschreibt, er fehlt bei den BR-Koniferen vollständig, was wiederum kein Wunder ist, denn konstruktive Kritik setzt guten Willen, Fairness und Lektüre voraus. Drei Fremdworte, die wir den drei Koniferen ans Herz legen, im Fremdwörter-Duden nachzuschlagen.

Einen Peichl haben wir noch, denn einer fehlt noch. In wissenschaftsfernen Kreisen hält sich hartnäckig das Gerücht, dass Peer Review ein Gütekriterium wäre, aber nur dann, wenn die Peer Review im Rahmen institutionalisierter Fachzeitschriften durchgeführt wird. Diesen Peichls sei die Lektüre von “Peer Revieved” – kein Qualitätssiegel”, einem Beitrag, den Dr. habil. Heike Diefenbach für die Blaue Reihe von ScienceFiles verfasst hat, empfohlen. Wer nach dieser Lektüre immer noch vollumfänglich an die qualitätssichernde Kraft von Peer Review Verfahren glaubt, der gehört eingeliefert, sofern er sich nicht bereits in einer Anstalt des öffentlichen Knechts befindet.

Aber auch den wissenschaftsfremden Peer Review Fetischisten Marke Peichl kann geholfen werden. Abermals liegt die Erkenntnis in Lektüre, abermals in der Lektüre der Studie, die Peichl zwar kritisiert, aber so offenkundig nicht gelesen hat.

“The authors thank Line Andersen, Troels Sabroe Ebbesen, Nicholas Hanlon, and Anders Lund Mortensen for their research assistance.
The authors also wish to thank Douglas Allen, Fredrik N. G. Andersson, Jonas Björk, Christian Bjørnskov, Joakim Book, Gunnar Brådvik, Kristoffer Torbjørn Bæk, Ulf Gerdtham, Daniel B. Klein, Fredrik Charpentier Ljungqvist, Christian Heebøl-Nielsen, Martin Paldam, Jonas Ranstam, Spencer Ryan, John Strezewski, Roger Svensson, Ulf Persson, Anders Waldenström, and Joakim
Westerlund for their comments.”

Die Autoren bedanken sich hier bei Kollegen, die ihre Arbeit gelesen und kommentiert haben. Die Kollegen nennt man auch Peers. Das Lesen einer Arbeit und anschließende kommentieren, dass erfüllt den Tatbestand einer Peer Review. Mit Peichl ist entweder seine Unkenntnis als Wissenschaftsfremder oder seine Lust am Abwerten von Studien, deren Ergebnis ihm nicht passt, durchgegangen. Suchen Sie sich aus, was ihnen wahrscheinlicher vorkommt.

Wer solche Akademiker hat, der muss sich um Wissenschaft keine Sorgen machen, denn Wissenschaft findet nicht mehr statt.


Einen haben wir noch, als Zugabe, einen Echten-Hoffmann, den wir vielleicht diese Woche zur Wahl des Denkbehinderten der Woche stellen:

“Für die schwer nachvollziehbare Gewichtung der Arbeiten benutzen die Autoren laut Hoffmann “einen Trick”, der grundsätzlich die Studien mit der niedrigsten Varianz am höchsten bewertet. Die Methode sei in manchen Fällen von statistischen Auswertungen durchaus gebräuchlich, hier aber völlig ungeeignet, weil sie automatisch die Arbeiten am höchsten gewichte, deren Ergebnis am nächsten bei Null liegt.”

Einmal mehr der Hinweis, dass sich eine schwere Nachvollziehbarkeit nur bei denjenigen stellt, die die Studie  und ihren Anhang nicht gelesen haben:

“The estimates used in the meta-analysis are not always readily available in the studies shown in Table 2. In Appendix B Table 9, we describe for each paper how we interpret the estimates and how they are converted to a common estimate (the relative effect of lockdowns on COVID-19 mortality) which is comparable across all studies.”

Von einer besonderen Begabung in Denkbehinderung zeugt die Fähigkeit, Autoren das Ergebnis ihrer Analysen vorzuwerfen und zu behaupten, eine Gewichtung, die ein Ergebnis erbracht hat, das den Autoren zum Zeitpunkt der Gewichtung selbst nicht bekannt sein konnte, das liegt einfach am Arbeistablauf, denn man schreibt einen Befehl in einem Statistikprogramm und erst nachdem der Befehl abgesetzt wurde, wird das Ergebnis errechnet, der Vorwurf also, das Ergebnis sei bedenklich, weil es eben das Ergebnis ist, das es ist, dieser Vorwurf an sich ist bedenklich, neuronal bedenklich. Dass die Arbeiten am höchsten gewichtet werden, die die geringste Wirkungsweise von Lockdowns oder NPIs zeigen, liegt daran, dass diese Arbeiten als die qualitativ Besten ANHAND VON KRITERIEN identifiziert wurden. Kriterien zu nutzen ist offenkundig etwas, das Hoffmann vollkommen unnachvollziehbar ist. Alles verschwimmt, angesichts von fifteen minutes of fame, in denen man ein nicht vorhandenes Ego streicheln zu können glaubt.

[…]

We’re shameless, we will do anything
to get our fifteen minutes of fame
We have no integrity, we’re ready to crawl
To obtain celebrity we’ll do anything at all

[…]



Anregungen, Hinweise, Fragen, Kontakt? Redaktion @ sciencefiles.org


Sie suchen Klartext?
Wir schreiben Klartext!

Bitte unterstützen Sie unseren Fortbestand als Freies Medium.
Vielen Dank!

[wpedon id=66988]



ScienceFiles Spendenkonto:

HALIFAX (Konto-Inhaber: Michael Klein):

IBAN: GB15 HLFX 1100 3311 0902 67
BIC: HLFXGB21B24


Direkt über den ScienceFiles-Spendenfunktion spenden:

Zum Spenden einfach klicken


ScienceFiles und die Alternativen Medien:

Folgen Sie uns auf TELEGRAM. Werden Sie einer von derzeit mehr als 16.000 Abonnenten. Oder diskutieren Sie auf unserem Diskussionskanal.
Unser Backup-Kanal auf Element:Matrix
Gerade erst eröffnet: Er wächst und wächst. SciFi auf Gettr

Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.

ScienceFiles-Abo
Loading


 

Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen. ScienceFiles lebt weitgehend von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:

Donorbox

Unterstützen Sie ScienceFiles


Unsere eigene ScienceFiles-Spendenfunktion

Zum Spenden einfach klicken

Unser Spendenkonto bei Halifax:

ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):
  • IBAN: GB15 HLFX 1100 3311 0902 67
  • BIC: HLFXGB21B24

Print Friendly, PDF & Email
23 Comments

Schreibe eine Antwort zu TannenherzAntwort abbrechen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Entdecke mehr von SciFi

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen

Entdecke mehr von SciFi

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen