Prüfung auf Herz und Nieren ist möglich: Wie qualitätvoll ist die Berichterstattung durch mainstream-Medien?

von Dr. habil. Heike Diefenbach

Die mainstream-Medien berufen sich gerne auf „die“ Wissenschaft, wenn sie die von ihnen bevorzugte Version der Dinge als unumstößliche Wahrheit darstellen und damit angeblich die Aufklärung der Öffentlichkeit vorantreiben wollen. Ob es um den angeblich von Menschen gemachten Klimawandel geht oder darum, welche Maßnahmen oder Medikamente im Kampf gegen Covid-19 was bewirken oder nicht bewirken – in mainstream-Medien ist in aller Regel kein Raum für Unsicherheit oder Zweifel oder für die Darstellung von Argumenten und Gegenargumenten, verschiedene Seiten der Medaille. Immer scheinen mainstream-Medien genau zu wissen, was „die“ Wissenschaft als falsch oder richtig erwiesen hat, selbst dann, wenn in „der“ Wissenschaft diesbezüglich offensichtlich keineswegs Einigkeit besteht.

In Deutschland erfolgt die Beschäftigung mit der Qualität der Berichterstattung der mainstream-Medien in aller Regel nicht (bzw. nicht direkt). Vielmehr werden Studien darüber angefertigt, inwieweit und ggf. warum Menschen den mainstream-Medien vertrauen oder nicht vertrauen (so als wäre das Vertrauen von Menschen in ein Medium ein hinreichend zuverlässiger Indikator für die Qualität seiner Berichterstattung. Was das betrifft, haben Prochazka und Schweiger (2020) festgestellt:

ARD-Faktenfinder bei der Arbeit

„Die [von den Autoren durchgeführte] Studie zeigt, dass journalistische Medien nach wie vor relativ hohe Vertrauenswerte erzielen, sich allerdings auch eine substanziell große Gruppe mit sehr geringem Vertrauen in den Journalismus entwickelt hat. Kritikpunkte an den Medien umfassen vor allem mangelnde Vollständigkeit und Korrektheit der Beiträge, eine Vermischung von Nachricht und Meinung sowie mangelnde Ausgewogenheit. Die Befragten führen dies vor allem auf mangelnde Integrität im Journalismus zurück und gehen davon aus, dass Medieneigentümer und Politiker die Berichterstattung beeinflussen und Medien in ihrem Streben nach Auflage und Quote Qualitätsansprüche hintanstellen“ (Prochazka & Schweiger 2020: 204), und nicht auf die „Komplexität der Welt, Zeitdruck, mangelnde Information durch Politik und Wirtschaft“ (Prochazka & Schweiger 2020: 199) also nicht auf „‘unabsichtliche‘ Defizite im Journalismus“ “ (Prochazka & Schweiger 2020: 199).

Dementsprechend meint die Mehrheit der insgesamt 936 Befragten in der Studie von Prochazka und Schweiger, dass Journalisten sozusagen könnten, wenn sie wollten (oder dürften):

„Hinsichtlich ihrer Kompetenz werden Journalisten hingegen positiver bewertet: Nur rund 24 Prozent der Befragten glauben, dass Fehler durch mangelnde Kompetenz der Journalisten zustande kommen“ (Prochazka & Schweiger 2020: 200).



Tatsächlich bekennen sich mainstream-Medien zumindest zum Teil offen zum sogenannten „Haltungsjournalismus“ bestätigen insofern den Eindruck, den die „substanziell große Gruppe“ in der Studie von Prichazka & Schweiger hat, dass mainstream-Medien „Fehler“ gewöhnlich absichtlich machen – und diese „substanziell große Gruppe“ umfasst, je nachdem, welche Indikatoren man zur Grundlage nimmt, zwischen 24 Prozent und 72 Prozent der Befragten (vgl. (Prochazka & Schweiger 2020: 200; Abbildung 3):

„So stimmt eine deutliche Mehrheit von 72 Prozent der Aussage zu, dass Medien nur nach Auflage und Quote streben, und 57 Prozent der Befragten gehen ganz oder eher davon aus, dass Politiker oder Eigentümer von Medienhäusern den Journalisten vorschreiben, was und wie sie berichten sollen. Damit glauben mehr Menschen, dass der journalistischen Qualität durch Manipulationen und den Einfluss der Politik und Medieneigentümern geschadet wird als durch unbeabsichtigte Fehler und Unklarheiten. Die un[?!]bewusste Nähe von Journalisten und Politikern betrachten rund 43 Prozent als Ursache für journalistische Qualitätseinbußen. Auch die Annahme, dass Journalisten häufig ihre politische Sichtweise durchsetzen wollen, findet bei rund 41 Prozent der Befragten Zustimmung. Hinsichtlich ihrer Kompetenz werden Journalisten hingegen positiver bewertet: Nur rund 24 Prozent der Befragten glauben, dass Fehler durch mangelnde Kompetenz der Journalisten zustande kommen“ (Prochazka & Schweiger 2020: 200).

Aber haben die Befragten mit dieser Einschätzung Recht? Könnten Journalisten, die bei den mainstream-Medien angestellt sind, wirklich, wenn sie nur wollten (oder dürften)? Ist es nicht möglich, dass „Haltungsjournalismus“ eine Art Flucht nach vorn darstellt angesichts des Umstandes, dass Journalisten weitgehend unfähig sind, (gerade komplizierte) Sachverhalte sorgfältig zu recherchieren, sich mit ihnen auseinanderzusetzen, sie der Sache angemessen einzuschätzen und angemessen dazustellen?! Ist es nicht viel einfacher, diese vergleichsweise anspruchsvolle Tätigkeit mit einem Schlag loszuwerden, indem man „Haltungsjournalismus“ betreibt und dementsprechend einfach so interpretiert und darstellt, wie es einem gerade vorkommt bzw. so, wie es einem in den weltanschaulichen Kram passt?!

Man könnte dieser Vermutung mit Verweis z.B. auf das „Working Paper“ von Quandt et al. (2020) widersprechen, die – im Frühjahr 2020 – der Berichterstattung von „mainstream news media“ (Quandt et al. 2020: 5) (wie sie in deren facebook-Auftritten zum Ausdruck kommt) – mit Bezug auf das neue Corona-Virus bzw. Covid-19 ein sehr gutes Zeugnis ausstellen:

„While some criticism regarding the performance of journalism during the crisis received mild empirical support, the analysis did not find overwhelming signs of systemic dysfunctionalities. Overall, journalistic media did not default to a uniform reaction nor to sprawling, information-poor pandemic news, but they responded with a multi-perspective coverage of the crisis” (Quandt et al. 2020: 1).

Natürlich setzt eine Messung der Qualität von Berichterstattung durch mainstream-Medien, wenn sie sich nicht nur auf formale Kriterien bezieht, sondern Inhalte betrachtet oder mitbetrachtet, voraus, dass der Wahrheitswert der entsprechenden Inhalte bekannt ist. Aber gerade mit Bezug auf Inhalte, die Covid-19 betreffen (oder den Klimawandel) ist dies bis heute in vieler Hinsicht nicht der Fall. Wie also wollen die Autoren wissen, ob die inhaltliche Berichterstattung über das neue Corona-Virus bzw. Covid-19 durch die mainstream-Medien Wahres oder Falsches verbreitet hat?

Hier die Antwort:

“In the previous study on alternative news media, we used the fact-checking sites Mimikama and Correctiv to identify Corona-related fake news and conspiracy theories, which resulted in four stories … In a dictionary-based approach, we checked whether these stories were also present in the data of the current study (RQ5) using the same keyword lists that were developed in the previous study (for a detailed description see, supplemental materials). After the keyword-assisted detection of posts that referred to the respective fake news or conspiracy theories, the documents were analyzed manually to summarize them in subordinate styles of representation to see how these stories were covered” (Quandt 2020: 7).

Aber wer hat die Qualität des angeblichen “fact checkings” durch Mimikama und Correctiv überprüft? Niemand. Was spricht dafür, dass sogenannte „fact checker“ ihrerseits können – falls sie wollen? Angesichts ihrer öffentlich nicht bekannten Qualifikationen gar nichts. Darüber hinaus muss man in Rechnung stellen, dass ein „fact checking“ über bislang nur teilweise bekannte und noch in der Diskussion stehende Sachverhalte gar nicht möglich ist. Statt Aufschluss über die Qualität der Berichterstattung in den mainstream-Medien zu geben, sind solche „Studien“ ihrerseits, was ihre Qualität betrifft, höchst fragwürdig und vermutlich angemessen als „Haltungsforschung“ zu bezeichnen.



Leider ist das typischerweise das Niveau der „Studien“ zur (angeblichen) Untersuchung der Qualität der Berichterstattung in Medien, seien es mainstream-Medien oder soziale Medien. Dabei wäre es recht einfach, die Qualität der Berichterstattung in Medien (gerade mainstream-Medien) zu erforschen. Man müsste sich zu diesem Zweck auf klar entscheidbare Sachverhalte beziehen und betrachten, wie Medien über sie zu einer Zeit berichtet haben, zu der der entsprechende Sachverhalt bereits klar entscheidbar war. Zu solchen klar entscheidbaren Sachverhalten gehören (rechtskräftig gewordene) gesetzliche Regelungen. Ob eine Sache so oder anders gesetzlich geregelt ist, lässt sich leicht überprüfen.

Es ist auch durchaus möglich, die Qualität der Berichterstattung durch Medien auch dann anhand klar entscheidbarer Sachverhalte zu beurteilen, wenn es um gesellschaftlich brisante und umstrittene Themen geht. Die U.S.-amerikanischen Mediziner Lewis et al. haben dies in ihrer Studie über „Public Education and Misinformation on Brain Death in Mainstream Media“ aus dem Jahr 2016 vorgemacht.

Ihr Anliegen war es, festzustellen, inwieweit mainstream-Medien ihrer Leserschaft falsche Informationen mit Bezug auf den Hirntod bzw. den Umgang mit Hirntoten speziell mit Bezug auf Organtransplantation gaben. Bemerkenswert an dieser Studie ist, dass ihnen die Beantwortung ihrer Frage gelang, ohne dabei vorab fragwürdige Entscheidungen über Wahrheit oder Unwahrheit von Sachverhalten, hier: z.B. mit Bezug auf die Frage, wann genau Leben noch Leben oder Tod schon Tod ist, treffen zu müssen, oder zu ethischen Fragen, wie sie sich uns allen mit Bezug auf Organtransplantation stellen mögen, Stellung zu nehmen. Vielmehr beziehen sich die Autoren diesbezüglich allein darauf, wie Hirntod und der Umgang mit Hirntoten in den USA gesetzlich geregelt ist:

„The Uniform Determination of Death Act, which was created in 1981 by the American Bar Association, The American Medical Association, the National Conference of Commissioners of Uniform State Laws, and the President’s Commission for the Study of Ethical Problems in Medicine and Biomedical and Behavioral Research, proclaims an individual with irreversible cessation of all functions of the brain, including the brainstem, is dead. Brain death is legally accepted as equivalent to cardiopulmonary death throughout the United States. Despite this, the public is generally unfamiliar with the legal and medical definitions of brain death” (Lewis et al. 2016: 1082).

Der Maßstab dafür, ob bzw. wie häufig mainstream-Medien Falsches im Zusammenhang mit Hirntot/Hirntoten bzw. Organtransplantationen berichten, war für die Autoren die Übereinstimmung mit den Inhalten des „Uniform Determination of Death Act“ bzw. ob die mainstream-Medien ihrer Leserschaft die entsprechenden Inhalte überhaupt und falls ja, richtig oder falsch darstellten.

Die Studie von Lewis et al. (2016) basiert auf der Analyse von 208 Artikeln, die vor dem 31. Juli 2015 auf den am weitesten verbreiteten Internet-Seiten von mainstream-Medien – welche das im Jahr 2014 waren, haben die Autoren der entsprechenden Aufstellung des Pew Research Center entnommen (Lewis et al. 2016: 1083) –mit Bezug auf zwei in den USA berühmt gewordenen Fälle von Hirntot veröffentlicht wurden:

„Because the media plays an important role in educating the public and impacting public perception on medical topics, we sought to evaluate whether mainstream media provides education or misinformation to the public about brain death through review of articles on two recent highly publicized brain death cases: (i) the Jahi McMath case, in which a teenage girl was declared brain dead and her family refused to allow organ support to be discontinued; and (ii) the Marlise Muñoz case, in which a pregnant woman was declared brain dead and the hospital refused to terminate organ support until they were ordered to do so by a judge” (Lewis et al. 2016: 1982).

Die Artikel wurden daraufhin ausgewertet, ob sie (1) “teaching points” enthielten, also die Leserschaft mit Bezug auf für die beiden Fälle relevanten Inhalte des „Uniform Determination of Death Act“ aufgeklärt wurde, und ob sie (2) Mis- oder Fehlinformationen enthielten (Lewis et al. 2016: 1083), wobei „misinformation“ definiert wurde als

„… misleading, incomplete, or incorrect information including situations in which the author quoted an individual and did not point out why the quote was misleading, incomplete, or incorrect such that readers would inappropriately accept the content of the quotes as facts“ (Lewis et al. 2016: 1083).

Das Hauptergebnisse der Studie von Lewis et al. (2016: 1083-1984) ist, dass Misinformation in 74 Prozent oder 154 der insgesamt 208 analysierten Artikel enthalten waren. Beispielsweise wurden die beiden hirntoten Frauen oder eine von ihnen in 149 Artikeln als „alive“ („lebend“) oder als „on life support“ (d.h. an Lebenserhaltungssysteme angeschlossen) beschrieben. Von diesen 149 Artikeln haben 144 die Frau(/-en) gleichzeitig als hirntot bezeichnet.

„This represents a clear contradiction-in-terms by addressing provision of ‚life support‘ to a patient who is dead, and this language creates an obvious source of confusion for readers“ (Lewis et al. 2016: 1086).

In 34 Artikeln wurde suggeriert, die hirntoten Frauen (oder eine von ihnen) seien mit Patienten im Wachkoma vergleichbar oder mit ihnen identisch. Auch mit Bezug auf die rechtlichen Regelungen im Umgang mit Hirntoten berichteten die Artikel Falsches. So wurde z.B. behauptet, dass Ärzte dazu verpflichtet seien, die Genehmigung für den Abbruch der Organ(funktions)unterstützung durch die Familienangehörigen des Patienten, durch Gerichte oder die Krankenhausverwaltung einzuholen, nachdem der Patient als hirntot erklärt wurde.



Was die „teaching points“ bzw. den Bericht von Wissenswertem mit Bezug auf das Thema betrifft, hat nur eine Minderheit von 20 Prozent (in absoluten Zahlen: 61) der Artikel solche Fakten berichtet. Die grundlegend wichtige Information, wie „Hirntod“ überhaupt definiert wird, fand sich in nur 4 Prozent bzw. neun (in absoluten Zahlen) der Artikel, und nur 7 Prozent der Artikel (in absoluten Zahlen: 14) haben berichtet, dass Ärzte angewiesen sind, Organ(funktions)untersützung nach der Feststellung des Hirntodes abzuschalten, außer in dem Fall, in dem die Familie des Toten einer Organtransplantation zugestimmt hat.

Mit Autorennamen versehen waren 114 der 208 Artikel – also nur eine knappe Mehrheit von 54,8 Prozent –, während die restlichen 94 Artikel nur einen Hinweis auf die Nachrichtenagentur enthielten, von der der Artikel stammte (Lewis et al. 2016: 1084). Interessanterweise haben Lewis et al. einen Zusammenhang zwischen dem Vorhandensein von „teaching points“ und der Bekanntmachung der Autorenschaft der Artikel festgestellt:

„Of the articles with named authors, 63% (37) included at least one teaching point. Only 10% (9) of the articles without named authors included a teaching point” (Lewis et al. 2016: 1084).

Dass mit Autorennamen versehen Artikel deutlich mehr sachliche Informationen zur Sache enthalten als solche, die lediglich einen Verweis auf eine Nachrichtenagentur enthalten, ist ein plausibles Ergebnis, wenn man davon ausgeht, dass es die Gründlichkeit und Zuverlässigkeit des in einem Text Geschriebenen tendenziell befördert, wenn ein Autor für seinen Text mit seinem Namen öffentlich einsteht (bzw. einstehen muss). Wenn das so ist, darf man es als ein Kriterium für die Qualität eines Medienberichtes ansehen, wenn er den Namen eines Autoren trägt und nicht nur einen Verweis auf einen Nachrichtenagentur (oder überhaupt irgendeine Organisation).

Insgesamt betrachtet haben von den 208 analysierten Artikeln nur zehn Prozent sachliche Informationen zum Thema und keinerlei Misinformation enthalten. 21 Prozent haben sachliche Informationen zum Thema, aber auch Misinformation enthalten, und 16 Prozent haben weder sachliche Informationen zum Thema noch Misinformationen enthalten. Die Mehrheit von 53 Prozent hat nur Misinformationen (und überhaupt keine sachliche Information zum Thema) beinhaltet (Lewis et al. 2016: 1085).

D.h. eine knappe Mehrheit der Artikel von 53 Prozent war in keiner Weise lesenswert, während nur zehn Prozent der Artikel lesenswert aufgrund ihres sachlichen Informationsgehaltes und fehlerfrei war.

Es sei hier noch einmal betont, dass die Artikel dem Internet-Auftritt der in den USA am weitesten verbreiteten Medien, darunter die Washington Post, die Daily Mail und die New York Times, entnommen waren. Man kann also nicht umhin, den mainstream-Medien diesbezüglich ein sehr schlechtes Qualitätszeugnis auszustellen:

„In reporting on prominent brain death stories, mainstream media provides poor education to the public on important legal, medical, and social facts about brain death“ (Lewis et al. 2016: 1086),

und dies, obwohl solche Fakten relativ einfach zu recherchieren sind – sofern man hinreichend interessiert und versiert mit Bezug auf effiziente Recherche ist. Aber es scheint, dass man bei den mainstream-Medien zumindest Letzteres, vielleicht auch beides, nicht ist.

Die Studie von Lewis et al. bezieht sich auf die USA. Und sie bezieht sich auf ein bestimmtes Thema (Hirntod), wie es dort zu einem bestimmten Zeitpunkt in den mainstream-Medien behandelt wurde. Es wäre deshalb eine unzulässige Verallgemeinerung, wenn man nun sagen wollte, dass dieses Ergebnis umstandslos auf andere Länder, andere Themen und andere Zeiten übertragen werden könnte.

Was die Studie von Lewis et al. aber zweifellos zeigt, ist, dass die pauschale Rede von den Massenmedien als „Qualitätsmedien“ ebenfalls nicht uneingeschränkt akzeptiert werden kann. Vielmehr macht der Befund von Lewis et al. deutlich, dass es eine rein empirische Frage ist, welche Medien worüber und wann in welcher Weise und dementsprechend: qualitätvoll oder eben nicht qualitätvoll berichten.

Hier tut sich ein riesiges Feld für methodisch saubere empirische Forschung über die Qualität von Berichterstattung in den mainstream-Medien – auch in Deutschland – auf, d.h. Forschung, die den Namen Forschung verdient und der Frage nach der Qualität von Berichterstattung nicht einfach – im Zuge eines logischen Fehlschlusses ad auctoritatem – an andere Leute delegiert, denen man aus unbekannten Gründen das Urteilsvermögen zuspricht, das die „Forscher“ durch eigene „Forschung“ nicht erreichen zu können glauben.

Es kann seinerseits als eine spannende Forschungsfrage gelten, warum dieses riesige Feld nicht beackert wird, obwohl es auf relativ einfache Weise methodisch sauber machbar ist, auch im Rahmen von Qualifikationsarbeiten. Vermutlich hat das mit der derzeit weit verbreiteten Angst davor zu tun, dass methodisch saubere Forschung die Eigenschaft hat, auf aus ideologischen oder politischen Gründen gepflegte Narrative keinerlei Rücksicht zu nehmen.

Man stelle sich nur vor, was z.B. eine Forschung ergeben würde, die die Qualität der Berichterstattung durch mainstream-Medien im Zusammenhang mit Zuwanderung untersucht. Wer diese Berichterstattung unsystematisch, aber einigermaßen aufmerksam, verfolgt, kann allein schon aufgrund seiner Erfahrungswerte die Hypothese aufstellen, dass eine solche Forschung keine „teaching points“ und sehr viel Misinformation identifizieren würde. Das beginnt schon da, wo von „Schutzsuchenden“ gesprochen wird, obwohl es tatsächlich keinerlei so lautenden Aufenthaltstitel gibt, setzt sich fort über die Tatsache, dass für „Rassismus“ gewöhnlich keinerlei Definition gegeben wird, und reicht ggf. bis hin zur vollständigen Unterschlagung der Tatsache, dass ein Vorfall mit Zuwanderung zu tun hat, z.B. dann, wenn die Identität eines Zugewanderten, der eine Straftat begangen hat, vorenthalten wird.

Aufgrund all dessen (und aufgrund der Tatsache, dass deutsche mainstream-Medien in vielen Fällen Berichte aus Zeitungen, die in anderen Ländern erscheinen, einfach übernehmen (gerne z.B. aus dem britischen „Guardian“), ist nicht ersichtlich, warum mainstream-Medien in Deutschland eine höhere Qualität haben sollten als diejenige, die Lewis et al. für die mainstream-Medien in den USA festgestellt haben.


Literatur:

Lewis, Ariane, Lord, Aaron S., Czeisler, Barry M. & Caplan, Arthur, 2016: Public Education and Misinformation on Brain Death in mainstream Media. Clinical Transplantation 30(9): 1082-1089.

Prochazka, Fabian & Schweiger, Wolfgang, 2020: Vertrauen in Journalismus in Deutschland: Eine Typologie der Skeptiker. Media Perspektiven 4/2020: 196-206.
https://www.ard-werbung.de/media-perspektiven/fachzeitschrift/artikel/detailseite-2020/vertrauen-in-journalismus-in-deutschland-eine-typologie-der-skeptiker/

Quandt, Thorsten, Boberg, Svenja, Schatto-Eckrodt, Tim & Frischlich, Lena, 2020: Pandemic News: Facebook Pages of Mainstream News Media and the Coronavirus Crisis – A Computational Content Analysis. Münster Online Research (MOR) Working Paper 2/2020.
https://arxiv.org/pdf/2005.13290.pdf



Wissenschaftliche Texte aufbereitet zum argumentativen Gebrauch finden Sie bei ScienceFiles.
Unterstützen Sie bitte unseren Fortbestand als Freies Medium.




Folgen Sie uns auf TELEGRAM


Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.

ScienceFiles-Abo
Loading



ScienceFiles-Shop


 

Print Friendly, PDF & Email
One Comment

Bitte keine Beleidigungen, keine wilden Behauptungen und keine strafbaren Inhalte ... Wir glauben noch an die Vernunft!

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Translate »

ScienceFiles-Betrieb

Was uns am Herzen liegt ...

 

Ein Tag ScienceFiles-Betrieb kostet zwischen 250 Euro und 350 Euro.


 

Wenn jeder, der ScienceFiles liest, uns ab und zu mit einer Spende von 5, 10, 20, 50 Euro oder vielleicht auch mehr unterstützt, vielleicht auch regelmäßig, dann ist der Fortbestand von ScienceFiles damit auf Dauer gesichert.


Wir bedanken uns bei allen, die uns unterstützen!


ScienceFiles-Spendenkonto

Vielen Dank!

Holler Box