LfM-Fake-News Studie: Fachkräfteportal für Kinder- und Jugendhilfe verbreitet Falschnachrichten

Es ist immer wieder erstaunlich, dass Menschen, die bar jeder Ahnung darüber sind, was empirische Sozialforschung ist und wie man die Ergebnisse, die im Rahmen von z.B. Meinungsumfragen gewonnen werden, interpretiert, sich dennoch auf diese Ergebnisse stürzen und eine phantasievolle Narration weben, die mit den Daten überhaupt nichts zu tun hat.

morons2Wir haben eine solche Narration beim Fachkräfteportal für Kinder- und Jugendhilfe gefunden, für das wir bislang nur feststellen können, dass sich dort keine Fachkräfte finden, wenn es um die Interpretation von Umfrageergebnisse geht. Statt dessen findet sich dort der Ausdruck dessen, was man im Englischen raving madness nennt.

Zunächst die Narration. Die Zahlen in Klammer beziehen sich auf unsere kostenfreie Überprüfung dieser Fake-News:

“Falschmeldungen im Internet sind in der Mitte der Gesellschaft angekommen. Dies hat eine Studie der Landesanstalt für Medien Nordrhein-Westfahlen (LfM) ergeben [1].

Fast 80% der Jugendlichen sind bereits mit Fake News in Berührung gekommen, erkennen diese aber häufiger als Erwachsene. [2]

Neben der Hassrede im Netz, deren steigende Brisanz erst vor zwei Wochen durch eine Studie der LfM belegt wurde, ist auch das Thema der verfälschten Information, der sogenannten Fake News oder auch “alternativen Wahrheit” inzwischen in der Mitte der Gesellschaft angekommen. Das belegt eine weitere Studie der Landesanstalt für Medien NRW (LfM). [3]

Danach ist mehr als die Hälfte der deutschen Onlinenutzer (59%) schon einmal mit Fake News in Berührung gekommen. [4]

Jüngere Nutzer erkennen dabei eher als Ältere Falschmeldungen. In der Gruppe der 14- bis 24-jährigen haben bereits 77 Prozent Fake News im Internet gesehen. [5]

Kennzeichnungsmöglichkeiten und neue Löschgesetze werden von vielen Befragten befürwortet. [6]”

Und nun zur Berichtigung der Fake-News, die von keinerlei Fachkräften aus dem Fachkräfteportal für Kinder- und Jugendhilfe verbreitet werden.

[1]
Falschnachrichten im Internet sind nicht in der Mitte der Gesellschaft angekommen. Die Aussage ist zum einen Unsinn, zum anderen wurde in der Umfrage, auf die sich diese Behauptung bezieht, keinerlei Versuch unternommen, die gesellschaftliche Mitte zu bestimmen. Fake-News.

Frosa LfM Fake News 1[2] Fast 80% der Jugendlichen sind nicht mit Fake News in Berührung gekommen, weil in der Umfrage überhaupt nicht danach gefragt wurde, ob Jugendliche mit Fake-News in Berührung gekommen sind. Die Umfrage wurde von Forsa, dem Institut zur Forcierung gewünschter Ergebnisse durchgeführt, und deshalb muss man genau hinsehen. Wenn man genau hinsieht, dann liest man das Wörtchen „(vermutliche)“ vor Fake News. D.h. Forsa hat seine Befragten gefragt, ob sie „persönlich schon (vermutliche) Fake News bzw. Falschnachrichten im Internet bemerkt haben“. Was also erfragt wurde ist, ob die Befragten GLAUBEN, dass sie schon einmal eine Fake News gesehen haben. 13% der Jugendlichen, das sind 14 bis 24jährige für Forsa, weil das Institut zu wenige Befragte hat, um bei 18 Jahren einen Schnitt zu machen, sagen, dass sie häufig etwas, das sie für Falschnachrichten gehalten haben, gesehen haben (ob es sich dabei um Fake News gehandelt hat, ist eine ganz andere Frage), 35% sagen, sie haben ab und zu etwas gesehen, das sie für Falschnachrichten gehalten haben und 29% sagen, dass sie selten etwas gesehen haben, was sie für Falschnachrichten gehalten haben. Das macht in der Addition 77% der 15 bis 24jährigen. Daraus werden beim Fachkräfteportal für Kinder- und Jugendhilfe fast „80% der Jugendlichen“, die bereits mit Fake News in Berührung gekommen sein sollen. Ob derartige Phantasien unter dem Einfluss von Designerdrogen, Opiaten, Selbstüberschätzung oder Dummheit zu Stande kommen?

[3]
Fake News haben nichts mit alternativen Fakten zu tun. Alternative Fakten und Fake News sind auch immer noch nicht in der Mitte der Gesellschaft angekommen. Hier geht die Phantasie eines offensichtlich linken Schreibers mit ihm durch. Jedenfalls ist in keiner der Studien, auf die sich der Phantast bezieht, auch nur entfernt versucht worden, die Mitte der Gesellschaft zu operationalisieren.

[4]
Noch einmal zur Erinnerung: Forsa fragt danach ob man „persönlich schon (vermutliche) Fake News bzw. Falschnachrichten im Internet bemerkt“ hat.

Für die 59% der deutschen Onlinenutzer gilt deshalb, dass sie nicht mit Fake News in Berührung gekommen sind, sondern in 9% der Fälle angeben, häufig etwas, das sie für Fake News gehalten haben (unabhängig davon, ob es sich tatsächlich um Fake News gehandelt hat), bemerkt zu haben, 28% wollen ab und zu etwas, das hätte Fake News sein können, bemerkt haben und 22% selten. Deshalb ist die Aussage, dass 59% der deutschen Onlinenutzer mit Fake News in Berührung gekommen sind, schlicht falsch. Das sollte auch bei den Fachkräften für was auch immer ankommen.

[5]
Die 80 % aus der Unterüberschrift, die dort Jugendlichen zugeschrieben wurden, sind nun zu 77% in der Gruppe der 14 bis 24jährigen mutiert. Die Aussage ist dennoch falsch, denn die 77% der 14 bis 24jährigen, bei denen es sich nach aller Erfahrung um nicht mehr als 195 Befragte handeln dürfte, wurden nicht nach tatsächlichen Fake News befragt, sondern nach etwas, das ihnen wie Fake News vorgekommen ist. Wenn die Befragten ungefähr dasselbe Urteilsvermögen haben, wie die Fachkräfte des Fachportals, dann dürfte alles, was ihnen wie Fake News vorgekommen ist, keine Fake News gewesen sein.

[6]
Frosa LfM Fake News 2Die Behauptung haben wir anhand der Daten (Tabelle links) näher betrachtet. Auf den ersten Blick stimmen 86% der Befragten der Aussage zu „Es braucht neue Gesetze, damit Facebook und Co, Fake News schneller löschen müssen“. Auf den zweiten Blick sagen 35% der Befragten, dass sie die ganze Aufregung nicht verstehen, weil es Fake News schon immer gegeben habe, ebenso viele geben an, nicht an Fake News interessiert zu sein. Wenn sie nicht an Fake News interessiert sind, werden sie wohl kaum der Aussage zustimmen, dass es neue Gesetze braucht, um Facebook und Co zum schnelleren Löschen von Fake News zu zwingen, denn: Sie interessieren sich ja nicht für Fake News. Das lässt zwei Möglichkeiten: Die Daten von Forsa sind falsch oder die Befragten haben tatsächlich beidem zugestimmt, mehr Gesetzen gegen und keinem Interesse an Fake News. In beiden Fällen ist die Itembatterie Junk, im ersten Fall qua Datenfälschung im zweiten Fall qua Zustimmungs-Bias, denn offensichtlich haben eine Reihe von Befragten generell ihre Zustimmung erklärt und nicht darauf gehört, was ihnen am Telefon als Aussage präsentiert wurde.

Eine der wenigen Freiheiten, die in Deutschland noch zu bleiben scheinen, ist die Freiheit, in der Öffentlichkeit die eigene Unkenntnis zur Schau zu stellen. Die Verantwortlichen des Fachkräfteportals für Kinder und Jugendhilfe haben davon gerade ausgiebig Gebrauch gemacht.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Mitläufereffekt: Plötzlich ist eine Mehrheit für Zensur

Schon 1975 hat Kurt Holm in seinem Standardwerk über die Befragung den Mitläufereffekt als Mittel der Meinungsmanipulation in Umfragen beschrieben. Den Befragten wird suggeriert, dass zu einer bestimmten Frage bereits eine Mehrheit oder eine Obrigkeit oder eine Autorität zu einem bestimmten Urteil gekommen ist und dann werden die Befragten gefragt, zu welchem Urteil sie denn kommen: „Dieser Appell an den Mitläufereffekt“, so schreibt Holm, hat „natürlich nur einen Sinn, wenn der Befragte auch tatsächlich unter dem Eindruck steht, dass so wie er denkt und handelt, auch viele andere denken und handeln, ohne offen darüber zu sprechen“ (Holm, 1983: 63).

Holm_Entsprechend kann der Mitläufereffekt auch als Variante sozialer Erwünschtheit angesehen werden, soziale Erwünschtheit, die darin besteht, mit seiner Meinung die Mehrheitsmeinung zu repräsentieren, sich als Mitglied der Mehrheit, der In-Group darzustellen, nicht als Außenseiter mit abweichender Meinung.

In jedem Fall führen Mitläufereffekt und soziale Erwünschtheit dazu, dass Befragte den Befragern nach dem Mund reden, was Letztere leidlich ausnutzen, wenn es darum geht, eine bestimmte Verteilung von Antworten in angeblich repräsentativen Befragungen herbei zu manipulieren.

YouGov leistet dies seit neuestem sogar in besonders innovativer Weise und in eigenen Worten dadurch, dass „1036 Personen ab 18 Jahren im Zeitraum vom 7. bis 11. April repräsentativ befragt“ wurden. Wie man repräsentativ befragt, ist eine Frage, die mit Sicherheit niemand bei YouGov beantworten kann, einfach deshalb nicht, weil die Formulierung vollkommener Unsinn ist.

Aber darum geht es auch nicht. Es geht darum, mit dem Wörtchen „repräsentativ“ jenen Köder zu legen, den Journalisten gerne fressen, so dass die Ergebnisse von YouGov ihren Weg in die Medien Deutschlands finden, sich dort in Schlagzeilen wie: „Mehrheit der Deutschen finden Gesetzentwurf gegen Hasskommentare sinnvoll“ niederschlagen.

Die Mehrheit der Deutschen hat mit Sicherheit keine Ahnung, was in dem Gesetzentwurf, den sie nach den Ergebnissen, die YouGov verkaufen will, „sinnvoll finden“, steht. Entsprechend muss diese Mehrheit, nicht der Deutschen, sondern der 1036 Befragten, die YouGOV zusammenbekommen hat, auf das Vertrauen, was YouGOV an Informationen über den Gesetzentwurf bereitstellt.

YouGov Stellt diese Informationen bereit:

You Gov Hasskomentare Grafik 1„Die Bundesregierung will stärker gegen Hasskommentare und Falschnachrichten im Internet vorgehen. Sie stimmte dem Gesetzentwurf von Justizminister Heiko Maas zu. Dieser sieht vor, dass Betreiber sozialer Netzwerke innerhalb von 24 Stunden strafbare Inhalte löschen müssen. Sonst drohen im Extremfall bis zu 50 Millionen Euro Bußgeld. Sind Sie der Meinung, dass dieses Vorgehen sinnvoll ist, um gegen Hasskommentare und Falschnachrichten im Internet vorzugehen?“

Die Mehrheit der Befragten, die nicht wissen, was im Gesetzentwurf steht, erfährt von YouGov, dass das, was sie nicht kennen, von der Bundesregierung bereits abgesegnet wurde, dass Betreiber sozialer Netzwerke strafbare Inhalte löschen müssen, die zwar wenig mit Hasskommentaren und gar nichts mit FakeNews zu tun haben, aber dennoch mit beidem in Verbindung gebracht werden. Sie werden dann gebeten, anzugeben, ob das Gesetz, mit dem gegen strafbare Inhalte in sozialen Netzwerken vorgegangen werden soll, ein Vorgehen, von dem sie zwar nicht wissen, wie es aussieht, so dass sie es auch nicht beurteilen können, von dem ihnen aber gesagt wurde, dass es gegen strafbare Inhalte gerichtet sei, also gegen Kriminalität und dass es die Bundesregierung bereits abgesegnet habe, auf jeden Fall sinnvoll ist, eher sinnvoll ist, eher nicht sinnvoll ist oder auf keinen Fall sinnvoll ist.

Und als wäre der Aberwitz nicht bereits auf die Spitze getrieben, geben nunmehr die Befragten, zu dem, von dem sie nicht wissen, wie es funktionieren soll, weil es noch niemand weiß, nicht einmal Heiko Maas weiß es, eine Beurteilung darüber ab, ob das, von dem sie nicht wissen, wie es funktionieren soll, sinnvoll ist.

Letztlich misst die Frage von YouGov, die man nicht anders als als vollkommenen Blödsinn bezeichnen kann, Blödsinn, der mit Manipulationsabsicht in die Welt gesetzt wird, nichts, gar nichts.

Das hindert YouGov natürlich nicht daran, reißerische Schlagzeilen zu formulieren und das Ergebnis den Pressevertretern anzudienen, die gerne auf solche Ergebnisse zurückgreifen, um ihre eigene Ideologie bestätigt zu finden.

Fragt man nun, wie es dazu kommt, dass Meinungsforscher ihre Aufgabe vor allem darin sehen, Zustimmung zu dem herbei zu manipulieren, was als politisch Korrekt angesehen wird, dann bieten sich eine Reihe von Erklärungen an:

Die Erklärung durch Opportunismus: Meinungsforscher finden, was der, der die Meinungsforscher bezahlt, gerne erfunden hätte.

Die Erklärung durch Inkompetenz: Mit dem Advent des Genderismus an Hochschulen sind Methoden der empirischen Sozialforschung und die dazu gehörigen Kenntnisse weitgehend verschwunden. Die meisten Absolventen haben keine Ahnung mehr von Reliabilität und Validität und kennen auch die Kunst des Frageformulierens nicht einmal mehr vom Hörensagen.

Die Erklärung durch Isomorphie: Meinungsforscher rekrutieren sich alle aus dem selben Meinungssumpf, zeichnen sich alle durch die selbe Unkenntnis im Hinblick auf die Methoden empirischer Sozialforschung aus und sind entsprechend darauf angewiesen, Fragen zu kopieren und zu verwenden, die andere Meinungsforscher, die genauso inkompetent sind, aber nicht so zögerlich, bereits formuliert haben.

Welche Erklärung zutrifft, ist anyones guess.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Haters gonna hate und Spinners gonna spin

Beim Gunda-Werner-Institut, dem Feminismus- und Geschlechter-Ableger der Heinrich-Böll-Stiftung hat die Technik Einzug gehalten. Scheinbar gibt es einen Praktikanten, der von HTML und Java-Script ein wenig versteht und deshalb gibt es bei der Stiftung eine Online-Umfrage, eine Online-Umfrage zum Thema „Hasskommentare“.

Welch‘ anderes Thema als „Hasskommentare“ könnte man bei der Gunda-Werner-Stiftung schon bearbeiten wollen?

Schnell hill esserWo früher Studenten in Methodenvorlesungen geschwitzt und versucht haben, die Kunst der empirischen Sozialforschung zu erlernen, da denkt heute jeder dahergelaufene Hempel, er könne selbst eine Umfrage machen, eben einmal drauflos fragen, so wie beim Gunda-Werner-Institut, bei dem man die Umfrage zu Hasskommentaren offensichtlich benötigt, um das zu bestätigen, was die Gundas sowieso schon wissen:

“Hasskommentare sind in Deutschland ein Tatbestand des Strafrechts, auch im Internet. Trotzdem werden sie kaum geahndet. Allzu oft antworten Polizei oder Staatsanwaltschaft auf Anzeigen mit „Täter*innen nicht ermittelbar“. Betroffen sind diejenigen, die ohnehin Diskriminierungserfahrungen machen: Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“

Das ist der erste Absatz auf der Umfrage-Seite der Gundas. Der Absatz erweckt den Eindruck, dass längst bekannt sei, wer Opfer und Täter von Hasskommentaren sind, wie viele davon es gibt, was Hasskommentare überhaupt sein sollen usw. Drei Absätze weiter sind die Gundas dann plötzlich auf dem Boden der Realität, sie, die eben noch genau wussten, dass es „Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“ sind, die Opfer von Hasskommentaren werden, sie schreiben nun in einem beispiellosen Akt des Selbst-Widerspruchs innerhalb von zwei Absätzen:

“Bislang mangelt es an verlässlichen Daten zu Täter*innenprofil, den betroffenen Diskussionsteilnehmer*innen und den Auswirkungen auf das Verhalten im Netz.“

Es gibt eben Dumme und die Gundas. Die Gundas, die wissen alles über etwas, von dem sie selbst sagen, dass sie nichts davon wissen. Besser kann man die eigene Beschränktheit eigentlich nicht auf den Punkt bringen. Aber weil das noch nicht reicht, demonstrieren die Dilettanten in empirischer Sozialforschung gleich noch mit einer einzigen Abbildung, dass sie zu den absoluten Ahnungslosen auf dem Gebiet der empirischen Sozialforschung gehören.

Gunda spins

Die Abbildung ist vollkommen wertlos, denn es fehlt jede Angabe zur Grundgesamtheit. Ohne diese Angabe machen Prozentangaben aber keinen Sinn. Besonders lustig ist die Überschrift „repräsentative Ergebnisse“. Wir halten zwar nicht viel von Repräsentativität, aber diejenigen, die sich seit Jahren bemühen, mit Auswahlverfahren, Gewichtungsverfahren und allerlei mathematischen Verrenkungen sicherzustellen, dass die Befragten, die sie zusammen bekommen haben, repräsentativ für die Gesamtbevölkerung sein sollen, nicht einmal sie haben verdient, dass die Gundas auf ihrem Zug Trittbrett fahren, die Gundas, die denken, man macht eine Umfrage, sammelt die Antworten, prozentuiert und schreibt „repräsentatives Ergebnis“ darüber.

Und natürlich, daran haben wir keinen Zweifel, wird es eine ganze Reihe von Journalisten, die so ungefähr dasselbe intellektuelle Niveau erreicht haben, wie die Gundas, geben, die die Ergebnisse für bare Münze, für repräsentative bare Münze nehmen.

Schuster, bleib‘ bei Deinen Leisten, können wir nur sagen und die Gundas zurückschicken, zu dem, was sie können. Was war das noch einmal? Kochen? Nein, kochen war es wahrscheinlich auch nicht?

FakeNews, FakeUmfragen, FakeVerstand: dpa verbreitet Datenjunk

Ein große Mehrheit der Menschen in Deutschland ist überzeugt, durch Fake News könnten Wahlen beeinflusst werden“.

YouGov hat es angeblich ermittelt.

dpa verbreitet es.

Wir fragen: Was wäre wohl herausgekommen, wenn man die Frage anders gestellt hätte?

Nicht:

Survey ResearchWie sehr stimmen Sie der Aussage zu, „dass Populisten aufgrund von FakeNews an Zustimmung gewinnen“?

sondern:

Wie sehr stimmen Sie der Aussage nicht zu, „dass Populisten aufgrund von FakeNews an Zustimmung gewinnen“?

Dass Befragte gerne zustimmen, ist ein bekanntes Phänomen. Dass man sie durch positive Formulierungen zur Zustimmung bewegen kann, ist noch bekannter, hat gar einen eigenen Namen: „affirmation bias“. Und dass dieser „affirmation bias“ besonders bei Fragen zu Themen, deren richtige Bewertung die Medien Tag und Nacht in die Hirne ihrer Konsumenten zu trommeln versuchen, vorhanden ist, ist noch bekannter.

Kennt man diese Möglichkeit, Umfragen zu manipulieren, bei YouGov nicht oder setzt man sie bewusst ein?

Wie auch immer, dass die Ergebnisse Unsinn sind, kann man auch anders argumentieren, nämlich mit Bezug auf diejenigen, die die Antworten gegeben haben:

84% der 1017 Befragten sind der Ansicht, dass Populisten aufgrund von FakeNews an Zustimmung gewinnen können. Natürlich sind diese 84% der Ansicht, dass der Versuch, mit FakeNews Zustimmung zu erheischen, bei ihnen erfolglos wäre, denn anfällig sind immer die anderen, nie man selbst. Entsprechend bleiben 16%, die nach Ansicht von 84% der 1017 YouGov-Befragten für FakeNews anfällig sind. Indes, 14% sind der Ansicht, dass FakeNews eher oder ganz und gar nicht zu Gunsten von Populisten wirken. Bleiben noch 2% die vielleicht anfällig sind, aber die fallen unter den statistischen Fehler. Die Frage, die man bei YouGov gestellt hat, ist schlichter Blödsinn, produziert kein verwertbares Ergebnis, sondern Datenjunk. Das hindert dpa natürlich nicht daran, den Datenjunk zu verbreiten.

Das gleiche trifft auf die Feststellung zu, dass 90% der 1017 YouGov-Befragten voll und ganz oder eher der Ansicht sind, FakeNews könnten zur Diskriminierung einzelner Personen führen.

Ein Tag ohne dpa und YouGov könnte dazu führen, dass sich der Verstand einzelner Personen wieder aus dem Wahnsinn in die Normalität rettet.

Nun, wer stimmt dieser Aussage zu? Voll und ganz oder eher?

Kann im Konjunktiv als „könnte, macht die You-Gov Frage zunichte, denn könnte kann viel. Z.B:

Könnte das Treffen zwischen Merkel und Trump dazu führen, dass Ralf Stegner einen seiner Beleidigungstweets absetzt.

Der Neumond von heute, könnte dazu führen, dass in Wanne Eickel ein Mensch nicht diskriminiert wird, der bei Vollmond noch diskriminiert worden wäre.

Und die Befragung von 1017 Deutschen durch YouGov könnte dazu führen, dass die Bereitschaft, sich von YouGov in Zukunft befragen zu lassen, erheblich sinkt.

Zustimmung?
Voll und ganz?
Oder eher eher?

N24-EMNID-Junk-Umfrage: 56% wollen mit Linksautonomen verhandeln -> Papierkorb

Derzeit wird von N24 das Ergebnis einer Umfrage, einer N24-Emnid-Umfrage verbreitet, die sich mit „den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße in Berlin“ beschäftigt.

Die N24-Emnid-Umfrage ist ein Lehrstück in versuchter Manipulation.

1000 Personen will Emnid am 12. Juli befragt haben, per Telefon wie zu vermuten steht und natürlich ist die Umfrage repräsentativ. Was sonst sollte sie sein? Sie muss repräsentativ sein, denn wer interessiert sich für die Meinung von 1000 Insassen des Irrenhauses in Fallingbostel? Aber natürlich wurden keine 1000 Insassen eines Irrenhauses befragt. Zumindest hoffen wir, dass sie nicht befragt wurden. Wir müssen hoffen, denn wer die 1000 Befragten sind, die Emnid da am 12. Juli angerufen haben will – wir wissen es nicht.

Statt dessen wird eine Pressemeldung verbreitet, für die Leichtgläubigen in den Redaktionen, die voller Auslassungen und Manipulationsversuche steckt.

framingEs beginnt bereits mit der Überschrift Umfrage „zu den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße“, eine Meisterleistung in Sachen Euphemismus, mit dem die Tatsache verwischt wird, dass es sich um Gewalttaten, um Steine, Flaschen und Feuerwerkskörper handelt, die von den Bewohnern der Rigaer Straße und ihren Fans auf Polizisten geworfen wurden. Bei N24 und Emnid werden daraus Ausschreitungen „rund um [ein] Wohnprojekt“, die nicht weiter zuordenbar sind.

Was soll man, angesichts eines solche Rahmens von den Antworten auf die folgenden Fragen erwarten, die Befragte innerhalb eines suggestiven Rahmen geben, der gaukelt, die Ausschreitungen hingen irgendwie mit einem Wohnprojekt zusammen, wo doch die Bewohner des nämlichen Projekts und ihre Fans diejenigen sind, die die Ausschreitungen begonnen und zu verantworten haben. [Ob es ein Zufall ist, dass mit dem Begriff der Ausschreitungen ein Begriff gewählt wurde, der im Zusammenhang mit Fußballspielen Verwendung findet, sei einmal daher gestellt.]

Wenn man Befragten suggeriert, dass die Schuldfrage nicht eindeutig geklärt werden kann, weil die Ausschreitungen eben nicht auf bestimmte Verursacher zurückführbar seien, sondern nur einem „Umfeld“ “rund um ein Wohnprohjekt” zuordenbar seien, dann folgt daraus ein positiver Bias, eine positive Programmierung der meisten Befragten. Dieser bias wirkt sich so aus, dass mehr Befragte einem Dialog zustimmen, als ihn ablehnen. Wie man Befragte mit positiven oder negativen Suggestionen und Rahmen perfekt leiten kann, das haben Amos Tversky und Daniel Kahneman in einer Vielzahl von Studien meisterhaft gezeigt.

N24Emnid-ManipulationIm vorliegenden Fall führt die Manipulation dazu, dass 56% mit „gewaltbereiten Linksautonomen Gespräche führen wollen“ und 34% dafür votieren, dass mit „polizeilicher Härte gegen Linksradikale“ vorgegangen wird. Man fragt sich, angesichts solcher Ergebnisse, was die bei Emnid da eigentlich gefragt haben, ob sie tatsächlich einmal von Linksautonomen und einmal von Linksradikalen gesprochen haben. Was auch immer Emnid gefragt hat, es war Unsinn, denn 6% sind dafür, mit den Linksradikalen Gespräche zu führen und gleichzeitig mit polizeilicher Härte gegen sie vorzugehen. Warum auch nicht.

Die vielfältigen Manipulationsversuche, die sich derzeit in Medien finden, wenn es um die Rigaer Straße 94 in Berlin geht, lassen nur den Schluss zu, dass

Kriminalität, dann, wenn sie von Linksradikalen, Linksautonomen oder Links- was auch immer ausgeht, geadelte und zu rechtfertigende Kriminalität ist.

So wie man im Dritten Reich Verständnis für die kleinen Eskapaden der SA (1933-1934) hatte, so hat man sie heute, für die kleinen Eskapaden der Linksautonomen, Linksradikalen … – man kann richtig nachvollziehen, wie sich bei Journalisten die Finger sträuben, von Linksextremen zu schreiben und damit die Kriminellen aus Berlin als das zu bezeichnen, was sie sind.

Was die Umfrage von N24-Emnid angeht, so ist sie nicht nur wegen der suggestiven Art und Weise, in der die Umfrage geführt wurde, ein Fall für den Mülleimer, sie ist es auch wegen einer Reihe von Auslassungen, die man anhand der folgenden Fragen darstellen kann:

  • Auf welche Basis beziehen sich die Prozentangaben?
  • Welche Fragen wurden den Befragten genau vorgelegt?
  • Welche Antwortalternativen wurden den Befragten gegeben?
  • Von wann bis wann fand die Befragung statt?
  • Welche sozio-demographischen Merkmale haben die Befragten, die an der Befragung teilgenommen haben?

Die Auslassungen sind erheblich und man muss sich fragen, warum die Ergebnisse von N24-Emnid verbreitet werden, ohne diese grundlegenden Fragen zu beantworten. Als Antwort bieten sich zwei Möglichkeiten an: (1) Unkenntnis der Methoden empirischer Sozialforschung, (2) Versuch, die Öffentlichkeit mit Ergebnissen einer suggestiven Befragung zu manipulieren. In beiden Fällen handelt es sich um eine Junk-Umfrage, die in den Papierkorb geworfen werden muss.

Das wird sie natürlich nicht. Vielmehr kann man vorhersagen, dass sich Mainstream-Medien auf die Ergebnisse der Umfrage stürzen werden. Sie werden sich deshalb drauf stürzen, weil (1) die Unkenntnis über die Methoden empirischer Sozialforschung in den Redaktionen weit verbreitet ist, (2) die Unkenntnis darüber, was ein Prozentwert ausdrückt, in den Redaktionen fast noch weiter verbreitet ist und (3) die ideologische Passung des Ergebnisses mit dem ideologischen Klima der meisten Redaktionen einfach zu groß ist, als dass man auf Kleinigkeiten wie Manipulation und Auslassung bei der Umfrage oder Zweifel an deren Reliabilität und Validität Rücksicht nehmen müsste.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise
error: Content is protected !!
Profile photo of Michael Klein
Holler Box
Skip to toolbar