Haters gonna hate und Spinners gonna spin

Beim Gunda-Werner-Institut, dem Feminismus- und Geschlechter-Ableger der Heinrich-Böll-Stiftung hat die Technik Einzug gehalten. Scheinbar gibt es einen Praktikanten, der von HTML und Java-Script ein wenig versteht und deshalb gibt es bei der Stiftung eine Online-Umfrage, eine Online-Umfrage zum Thema „Hasskommentare“.

Welch‘ anderes Thema als „Hasskommentare“ könnte man bei der Gunda-Werner-Stiftung schon bearbeiten wollen?

Schnell hill esserWo früher Studenten in Methodenvorlesungen geschwitzt und versucht haben, die Kunst der empirischen Sozialforschung zu erlernen, da denkt heute jeder dahergelaufene Hempel, er könne selbst eine Umfrage machen, eben einmal drauflos fragen, so wie beim Gunda-Werner-Institut, bei dem man die Umfrage zu Hasskommentaren offensichtlich benötigt, um das zu bestätigen, was die Gundas sowieso schon wissen:

“Hasskommentare sind in Deutschland ein Tatbestand des Strafrechts, auch im Internet. Trotzdem werden sie kaum geahndet. Allzu oft antworten Polizei oder Staatsanwaltschaft auf Anzeigen mit „Täter*innen nicht ermittelbar“. Betroffen sind diejenigen, die ohnehin Diskriminierungserfahrungen machen: Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“

Das ist der erste Absatz auf der Umfrage-Seite der Gundas. Der Absatz erweckt den Eindruck, dass längst bekannt sei, wer Opfer und Täter von Hasskommentaren sind, wie viele davon es gibt, was Hasskommentare überhaupt sein sollen usw. Drei Absätze weiter sind die Gundas dann plötzlich auf dem Boden der Realität, sie, die eben noch genau wussten, dass es „Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“ sind, die Opfer von Hasskommentaren werden, sie schreiben nun in einem beispiellosen Akt des Selbst-Widerspruchs innerhalb von zwei Absätzen:

“Bislang mangelt es an verlässlichen Daten zu Täter*innenprofil, den betroffenen Diskussionsteilnehmer*innen und den Auswirkungen auf das Verhalten im Netz.“

Es gibt eben Dumme und die Gundas. Die Gundas, die wissen alles über etwas, von dem sie selbst sagen, dass sie nichts davon wissen. Besser kann man die eigene Beschränktheit eigentlich nicht auf den Punkt bringen. Aber weil das noch nicht reicht, demonstrieren die Dilettanten in empirischer Sozialforschung gleich noch mit einer einzigen Abbildung, dass sie zu den absoluten Ahnungslosen auf dem Gebiet der empirischen Sozialforschung gehören.

Gunda spins

Die Abbildung ist vollkommen wertlos, denn es fehlt jede Angabe zur Grundgesamtheit. Ohne diese Angabe machen Prozentangaben aber keinen Sinn. Besonders lustig ist die Überschrift „repräsentative Ergebnisse“. Wir halten zwar nicht viel von Repräsentativität, aber diejenigen, die sich seit Jahren bemühen, mit Auswahlverfahren, Gewichtungsverfahren und allerlei mathematischen Verrenkungen sicherzustellen, dass die Befragten, die sie zusammen bekommen haben, repräsentativ für die Gesamtbevölkerung sein sollen, nicht einmal sie haben verdient, dass die Gundas auf ihrem Zug Trittbrett fahren, die Gundas, die denken, man macht eine Umfrage, sammelt die Antworten, prozentuiert und schreibt „repräsentatives Ergebnis“ darüber.

Und natürlich, daran haben wir keinen Zweifel, wird es eine ganze Reihe von Journalisten, die so ungefähr dasselbe intellektuelle Niveau erreicht haben, wie die Gundas, geben, die die Ergebnisse für bare Münze, für repräsentative bare Münze nehmen.

Schuster, bleib‘ bei Deinen Leisten, können wir nur sagen und die Gundas zurückschicken, zu dem, was sie können. Was war das noch einmal? Kochen? Nein, kochen war es wahrscheinlich auch nicht?

Holzhammer-Manipulation: Von der Schlafstörung zur Wahrnehmungsstörung mit der ARD

Haben Sie Lust auf eine kleine Reise in die Welt der ideologisch veränderten Wahrnehmung, die Welt, in der alles rosarot oder dunkelbraun ist, die Welt, in der schreckliche neoliberale Menschenschinder ihre Arbeitssklaven um den Schlaf bringen?

Dann los.

Unser Reiseführer ist Christoph Scheld aus dem ARD-Hauptstadtstudio. Natürlich ist die Reise nur figurativ, nicht wirklich. Sagen wir lieber, Scheld hält uns einen Vortrag mit dem Titel:

„Deutschland schläft schlecht“.

study_sleepless_01Ein missglückter Titel, den Scheld hier gewählt hat, denn Deutschland schläft gar nicht, weil es Deutschland in keiner materiellen und schlaffähigen Form gibt. Seien wir nachsichtig, schließlich bemerkt Scheld schon im dritten Satz seines öffentlich-rechtlichen Vortrags, dass er Unsinn gesprochen hat. Natürlich schläft nicht Deutschland schlecht: „Vier von fünf Berufstätigen schlafen schlecht“. Und diese Zahlen, so lesen wir in Satz 2, sie seien „alarmierend“.

Mehr als 3.500 ihrer berufstätigen Versicherten, so versichert Scheld, habe die DAK befragt. Vier von fünf hätten zumindest gelegentlich Störungen beim Einschlafen oder Durchschlafen…“

Gelegentlich. Haken wir hier doch einmal nach, und zwar bei der DAK und dem Gesundheitsreport, den die DAK auf Grundlage der Daten von 2,6 Millionen erwerbstätigen Versicherten und einer Befragung von 5.200 Erwerbstätigen im Alter von 18 bis 66 Jahren durchgeführt hat bzw. hat durchführen lassen, u.a. von Forsa, was das Vertrauen in die Daten nicht unbedingt erhöht.

Aufmerksame Leser werden festgestellt haben: die „mehr als 3.500 Befragten“, von denen Scheld weiß, tauchen bei der DAK nicht wirklich auf oder sollte Scheld mit seinen „mehr als 3.500 Befragten“ die 5.200 von Forsa Befragten oder die 2,6 Millionen Versicherten, deren Daten analysiert wurden, gemeint haben?

Er wird es wissen. So wie wir wissen, dass die 3.500 Befragten von Scheld bei der DAK zu 5.200 von Forsa Befragten bzw. zu 2,6 Millionen Versicherten geworden sind.

Von den 5.200 Befragten geben 80% an, dass sie mindestens gelegentlich Schlafprobleme haben. Was damit genau gemeint ist: Niemand außer Forsa weiß es. Vermutlich haben die Forsierer von Forsa gefragt: Wie oft im vergangenen Monat (oder Woche, oder 14 Tagen) hatten Sie Probleme beim Einschlafen: Oft, selten, gelegentlich, nie. Alle, die nicht nie sagen, haben dann Schlafprobleme. Vielleicht hat Forsa auch gefragt: Wie sehr stimmen sie der folgenden Aussage zu: „Ich habe Schlafproblem“ – voll und ganz, eher, eher nicht, ganz und gar nicht. Alle bis eher nicht haben gelegentlich Schlafprobleme.

Für Schlafprobleme: x files

Was genau gefragt wurde. Was genau „gelegentliche Schlafprobleme“ sind, niemand sagt es uns und deshalb ist Vorsicht geboten: Wenn nicht mitgeteilt wird, was genau sich hinter einer schwammigen Formulierung wie „gelegentlich“ verbirgt, dann haben die, die es verschweigen, in der Regel einen Grund, es zu verschweigen, z.B. Belanglosigkeit von Ergebnissen. Und sind Ergebnisse belanglos, dann kann man nicht die ganze Bevölkerung in Schlafprobleme reden.

Und man kann Journalisten, wie Christoph Scheld nicht dazu veranlassen, Unsinn zu schreiben, wie er das tut.

Denn: Scheld, immer unter Berufung auf die Studie der DAK oder die Autorität von Ingo Fietze (Schlafforscher) und Andreas Storm (Vorsitzender der DAK), behauptet nicht nur, dass 80% der Berufstätigen Schlafprobleme haben, er behauptet auch, dass diese Schlafprobleme, sich aus den folgenden Ursachen speisen:

“Die Gründe hängen bei den meisten Betroffenen mit dem Berufsleben zusammen. Nachtschichten, starker Termin- und Leistungsdruck gelten als Risikofaktoren. Und wer von sich sagt, häufig an der Grenze der Leistungsfähigkeit zu arbeiten, ist prädestiniert für ernsthafte Schlafprobleme.“

Sind sie jetzt erschrocken, weil sie ein Workaholic sind, der derzeit noch keine Schlafprobleme hat? Dann geben wir Entwarnung, denn entweder Scheld schreibt Quatsch, weil er intellektuell überfordert ist, oder er lügt bewusst.

Alles beginnt damit, dass bei der DAK jemand Fracksausen bekommen hat. Es mag ja noch angehen, Journalisten, die es einem auch wirklich leicht machen, aufs Glatteis zu führen und sie schreiben zu lassen, 80% der berufstätigen Bevölkerung hätten Schlafstörungen, für die letztlich die fiesen und miesen Arbeitgeber verantwortlich sind, aber natürlich kann man derartigen Unsinn nicht als DAK schreiben.

Entsprechend haben sich die DAKler auf ihre Daten besonnen. In diesen Daten finden sich 9,4% mit Schlafstörungen, die Arztbekannt sind und den Tatbestand der Insomnie erfüllen. Für diese 9,4 Prozent werden die Gründe angeführt, die Scheld oben nennt, nicht für die 80% derjenigen, die gelegentlich von Problemen beim Einschlafen oder Durchschlafen berichten: „Wer zum Beispiel häufig an der Grenze seiner Leistungsfähigkeit arbeitet, steigert sein Risiko, die schwere Schlafstörung Insomnie zu entwickeln. Auch starker Termin- und Leistungsdruck, Überstunden sowie Nachschichten und ständige Erreichbarkeit nach Feierabend gelten in diesem Zusammenhang als wichtige Risikofaktoren“.

Ob Scheld seine Leser absichtlich täuschen will, um seinen Impuls auszuleben und die bösen Kapitalisten an den Pranger zu stellen, die ihre armen Arbeitnehmer bis ins Privatleben, ja bis in den Schlaf verfolgen? Nun, die Antwort auf diese Frage lautet nach unserer Ansicht: Ja. Denn Scheld schreibt nicht nur die falschen Ursachen der falschen Gruppe von Berufstätigen zu, er verschweigt auch die Gründe, die von der DAK für gelegentliche Probleme beim Einschlafen oder Durchschlafen genannt werden:

“Viele Arbeitnehmer sorgen aber auch selbst für einen schlechten Schlaf. Nach der Studie der DAK-Gesundheit schauen 83 Prozent der Erwerbstätigen vor dem Einschlafen Filme und Serien, 68 Prozent erledigen abends private Angelegenheiten an Laptop oder Smartphone.“

Ganz zu schweigen von dem Säugling in der Nachbarwohnung, der einem den Schlaf raubt, weil er ständig schreit.

Unser Fazit lautet somit:

  • Deceibe infeigle obfuscateScheld täuscht seine Leser über die Prävalenz von Schlafstörungen.
  • Er täuscht seine Leser über die Ursachen von Schlafstörung.
  • Er unterschlägt Ursachen für Schlafstörungen.
  • Und er verbreitet Alarmismus, so wie dies auch die DAK tut.

“ Die DAK-Analyse zeigt, dass sich dieser Trend auch bei den Krankmeldungen auswirkt. Die Fehltage aufgrund von Schlafstörungen stiegen um rund 70 Prozent auf jetzt 3,86 Tage je 100 Versicherte. „

Alarmierend, alarmierend wie einfach es ist, Journalisten durch Grundrechenarten zu überfordern. Wenn 3,68 Fehltage je 100 Versicherte zu verzeichnen sind, dann heißt das, jeder Versicherte, der von der DAK untersucht wurde (vielleicht 2,9 Millionen, vielleicht 5.200 – wer weiß), fehlt im Durchschnitt 0,04 Tage am Arbeitsplatz und in einem Jahr. Alarmierend. Und die Steigerung, wie alarmierend die Steigerung erst ist: 0,016 Tage pro Versichertem und Jahr.

Alarmierend.
Fast, dass diese alarmierenden Zahlen uns den Schlaf rauben könnten.

FakeNews, FakeUmfragen, FakeVerstand: dpa verbreitet Datenjunk

Ein große Mehrheit der Menschen in Deutschland ist überzeugt, durch Fake News könnten Wahlen beeinflusst werden“.

YouGov hat es angeblich ermittelt.

dpa verbreitet es.

Wir fragen: Was wäre wohl herausgekommen, wenn man die Frage anders gestellt hätte?

Nicht:

Survey ResearchWie sehr stimmen Sie der Aussage zu, „dass Populisten aufgrund von FakeNews an Zustimmung gewinnen“?

sondern:

Wie sehr stimmen Sie der Aussage nicht zu, „dass Populisten aufgrund von FakeNews an Zustimmung gewinnen“?

Dass Befragte gerne zustimmen, ist ein bekanntes Phänomen. Dass man sie durch positive Formulierungen zur Zustimmung bewegen kann, ist noch bekannter, hat gar einen eigenen Namen: „affirmation bias“. Und dass dieser „affirmation bias“ besonders bei Fragen zu Themen, deren richtige Bewertung die Medien Tag und Nacht in die Hirne ihrer Konsumenten zu trommeln versuchen, vorhanden ist, ist noch bekannter.

Kennt man diese Möglichkeit, Umfragen zu manipulieren, bei YouGov nicht oder setzt man sie bewusst ein?

Wie auch immer, dass die Ergebnisse Unsinn sind, kann man auch anders argumentieren, nämlich mit Bezug auf diejenigen, die die Antworten gegeben haben:

84% der 1017 Befragten sind der Ansicht, dass Populisten aufgrund von FakeNews an Zustimmung gewinnen können. Natürlich sind diese 84% der Ansicht, dass der Versuch, mit FakeNews Zustimmung zu erheischen, bei ihnen erfolglos wäre, denn anfällig sind immer die anderen, nie man selbst. Entsprechend bleiben 16%, die nach Ansicht von 84% der 1017 YouGov-Befragten für FakeNews anfällig sind. Indes, 14% sind der Ansicht, dass FakeNews eher oder ganz und gar nicht zu Gunsten von Populisten wirken. Bleiben noch 2% die vielleicht anfällig sind, aber die fallen unter den statistischen Fehler. Die Frage, die man bei YouGov gestellt hat, ist schlichter Blödsinn, produziert kein verwertbares Ergebnis, sondern Datenjunk. Das hindert dpa natürlich nicht daran, den Datenjunk zu verbreiten.

Das gleiche trifft auf die Feststellung zu, dass 90% der 1017 YouGov-Befragten voll und ganz oder eher der Ansicht sind, FakeNews könnten zur Diskriminierung einzelner Personen führen.

Ein Tag ohne dpa und YouGov könnte dazu führen, dass sich der Verstand einzelner Personen wieder aus dem Wahnsinn in die Normalität rettet.

Nun, wer stimmt dieser Aussage zu? Voll und ganz oder eher?

Kann im Konjunktiv als „könnte, macht die You-Gov Frage zunichte, denn könnte kann viel. Z.B:

Könnte das Treffen zwischen Merkel und Trump dazu führen, dass Ralf Stegner einen seiner Beleidigungstweets absetzt.

Der Neumond von heute, könnte dazu führen, dass in Wanne Eickel ein Mensch nicht diskriminiert wird, der bei Vollmond noch diskriminiert worden wäre.

Und die Befragung von 1017 Deutschen durch YouGov könnte dazu führen, dass die Bereitschaft, sich von YouGov in Zukunft befragen zu lassen, erheblich sinkt.

Zustimmung?
Voll und ganz?
Oder eher eher?

Mainzer Studie: Vertrauen, von Medien belogen zu werden, steigt

Ein Beitrag zum Thema „Fake-Wissenschaft“

„Vertrauen in Medien steigt“ – das meldet die ZEIT„Studie: Vertrauen in die Medien steigt massiv an – das Misstrauen aber ebenso“ – so titelt MeediaUnd im Tagesspiegel dilettiert Joachim Huber unter der Schlagzeile „Vertrauen in die Medien deutlich gestiegen – und gefallen“.

contradictionAlle drei Schlagzeilen beziehen sich auf eine „Studie der Uni Mainz“, die „Kommunikationsforscher der Universität Mainz“ (ZEIT), der Kommunikationsforscher Tanjev Schultz und sein Kollege Oliver Quiring (Tagesspiel und Meedia) durchgeführt haben. Nein, nicht die beiden Kommunikationsforscher, von denen einer (Tanjev Schultz) unlängst von der Redaktion der Süddeutschen Zeitung auf einen Lehrstuhl für Journalistik an der Universität Mainz gewechselt ist und einer (Oliver Quiring) Leiter des Forschungsbereichs Kommunikationswissenschaft an der Gutenberg Universität Mainz ist, haben die „Studie“ durchgeführt, sondern Ifak.

Ifak, eines der vielen Meinungsforschungsinstitute, die den Glauben an die Repräsentativität hochhalten, weil sie damit ihr Geld verdienen, hat „bundesweit 1.200 Personen“ (Meedia) befragt, von Oktober bis November 2016. Herausgekommen ist dabei laut ZEIT, dass die „Zahl der Bürger, die den Medien vertrauen … in den letzten Jahren deutlich gestiegen ist“. Denn: Heute sind 40 Prozent der Deutschen der Ansicht, man könne den Medien „in wichtigen Fragen eher oder voll und ganz vertrauen. 2008 hatte der Aussage nur knapp jeder Dritte zugestimmt“.

Hurra, das Vertrauen in die Medien ist gestiegen.

Allerdings ist auch das Misstrauen in die Medien gestiegen, denn laut derselben Studie des Mainzer Professoren und des ehemaligen Angestellten der Süddeutschen Zeitung, die Ifak durchgeführt hat, sagt etwa „jeder vierte Deutsche, dass man den Medien in wichtigen Fragen eher nicht oder überhaupt nicht vertrauen könne. 2008 waren das noch neun Prozent gewesen“ (ZEIT).

Prinzip 1 des Rationalen Widerstands besagt: Etwas ist nicht sein Gegenteil. Das Vertrauen in die Medien kann nicht gleichzeitig steigen und sinken. Dass dennoch behauptet wird, es steige und falle gleichzeitig, ist einem Trick geschuldet, den die Mainzer Universitätsangestellten anwenden: Normalerweise gibt man dann, wenn man Aussagen über die Antworttendenz machen will, ein zentrales Maß wie den Mittelwert an. Nur dann, wenn man ein Ergebnis schönreden will, zerlegt man eine zentrale Tendenz in zwei sich widersprechende Tendenzen, von denen aber nur eine wahr sein kann.

Gehen wir der Sache auf den Grund.

Zunächst das Argument dafür, die Studie des Kommunikationsforschers und des ehemaligen Journalisten von der Süddeutschen Zeitung in den Mülleimer zu werfen, denn da gehört die Junk-Studie hin.

Methoden eSEs ist nicht möglich, auf der Basis zweier Befragungen, zweier Querschnittsbefragungen, die im Abstand von 7 Jahren, einmal 2008 und einmal 2016 durchgeführt wurden, Aussagen über die Entwicklung zu machen. 2008 wurden völlig andere Personen befragt als 2016, Aussagen darüber, dass sich z.B. die Einstellung gegenüber den Medien verändert hat, kann man aber nur machen, wenn man dieselben Befragten zu unterschiedlichen Zeitpunkten befragt, wenn man die Daten einer Längsschnittsstudie zur Verfügung hat. Diese Daten haben die beiden in empirischer Sozialforschung Unbedarften aus Mainz nicht zur Verfügung. Ergo sind aussagen wie: „Vertrauen in Medien steigt“ oder „Vertrauen in die Medien steigt massiv an“ auf Basis der Daten von Schultz und Quiring nicht möglich.

Aber in der Zwischenzeit hat man sich daran gewöhnt, dass Verlaufsaussagen auf Grundlage diskreter Zeitpunkte, die wiederum von nicht vergleichbaren Populationen gewonnen wurden, gemacht werden. Warum sollen nicht auch Schultz und Quiring als Vertreter dieses Fehlers in empirischer Sozialforschung bekannt werden?

In jedem Fall werden sie bekannt werden als zwei Lehrstuhlbesetzer, die ihre Position an der Universität wohl dazu ausnutzen wollen, die Leser von ZEIT, Meedia, Tagesspiegel und all den anderen Mainstream-Medien, die die Meldung gerne und wortgetreu übernehmen werden, zu manipulieren und zu betrügen.

Die Manipulation steckt im Detail und ist denen, die in empirischer Sozialforschung nicht bewandert sind, schnell untergeschoben.

Wer hat bei den Formulierungen „eher oder voll und ganz“ bzw. „eher nicht und überhaupt nicht“ gestutzt?

Was meinen Sie, wie sehr kann man deutschen Medien in wichtigen Fragen vertrauen?“ Eher oder voll und ganz bzw. eher nicht und überhaupt nicht?

Ganz nebenbei werden den Lesern hier zusammengefasst Antwortkategorien untergeschoben, ohne dass ihnen das mitgeteilt wird, denn die Antwortmöglichkeiten auf die Fragen waren:
Voll und ganz vertrauen
Eher vertrauen
Eher nicht vertrauen
Überhaupt nicht vertrauen.

Wenn aus vier ursprünglichen Kategorien plötzlich zwei werden, dann ist Vorsicht geboten, denn dann wollen Forscher oft etwas verbergen. Es ist umso mehr Vorsicht geboten, wenn plötzlich der Usus, Kennzahlen der zentralen Tendenz zur Zusammenfassung der Antwortverteilung zu nutzen, fallengelassen wird, wie dies im vorliegenden Beispiel der Fall ist, in dem dieselbe Frage einmal mehr Vertrauen und einmal weniger Vertrauen für die Befragung in 2016 ergibt, als dies 2008 der Fall war. Warum ist Vorsicht geboten? Weil durch die Zusammenfassung die Daten manipuliert werden können, und zwar so, dass das Ergebnis geschönt wird.

Ausgangspunkt z.B. diese Verteilung für das Jahr 2008:

  • Voll und ganz vertrauen: 15%
  • Eher vertrauen: 14%
  • Eher nicht vertrauen: 6%
  • Überhaupt nicht vertrauen: 3%

So könnte die Verteilung, die zu dem zusammengefassten Ergebnis für 2008 (29% Vertrauen, 9% kein Vertrauen) geführt hat, ausgesehen haben. Die Verteilung für 2016 kann folgendes Aussehen haben:

  • Voll und ganz vertrauen: 15%
  • Eher vertrauen: 25%
  • Eher nicht vertrauen: 6%
  • Überhaupt nicht vertrauen: 19%

Oder

  • Voll und ganz vertrauen: 5%
  • Eher vertrauen: 35%
  • Eher nicht vertrauen: 10%
  • Überhaupt nicht vertrauen: 15%

Die Prozente, die zu 100% fehlen, lassen vermuten, dass es neben einer Kategorie „weiß nicht“ noch eine Mittelkategorie des „weder noch“, also derjenigen gibt, die nicht wissen, ob sie Mainstream Medien vertrauen oder nicht. Offensichtlich halten die Mainzer Universitätsangestellten diese Information für entbehrlich.

sciencefiles-rationaler-widerstand-3Beide oben dargestellte Verteilungen für das Jahr 2016 führen zu 40% zusammengefasstem Vertrauen und zu 25% zusammengefasstem Misstrauen an deutschen Medien. Dahinter verbergen sich jedoch gänzlich andere Verteilungen und gänzlich andere Zuschreibungen von Vertrauen. Das wissen Wissenschaftler natürlich und deshalb nutzen sie Maße der zentralen Tendenz. Dass dies der Komminkationslehrer und der Journalist aus Mainz nicht tun, kann daran liegen, dass sie keine Ahnung von wissenschaftlichen Gepflogenheiten haben oder daran, dass sie mit ihren Ergebnissen manipulieren und betrügen wollen.

Wie dem auch sei, selbst mit zusammengefassten Daten lässt sich noch ein Teil Wahrheit rekonstruieren und ein Maß der zentralen Tendenz berechnen. Wir berechnen den Mittelwert für die Verteilung von 29% Vertrauen und 9% Misstrauen in 2008 und den Mittelwert für die Verteilung von 40% Vertrauen und 24% Misstrauen in 2016 (unsere Werteskale reicht von 1 bis 2. Je höher der Mittelwert, desto weniger Vertrauen in Medien besteht).

Der Mittelwert für 2008 beträgt: 1,23, der Mittelwert für 2016 beträgt: 1,375. Mit anderen Worten, wenn man die Befragung von 2008 mit der Befragung von 2016 vergleicht, dann muss man feststellen, dass das Misstrauen in öffentliche Medien 2016 größer ist als 2008. Das sieht man auch daran, dass die Anzahl derjenigen, die kein Vertrauen zu Medien haben, 2016 um 15% höher liegt, als 2008. Dagegen liegt die Zahl derer, die vertrauen, im Jahr 2016 um 11% höher als 2008.

Aus den vorhandenen Daten herauslesen zu wollen, dass das Vertrauen in Medien steigen würde bzw. massiv gestiegen sei, grenzt an Datenfälschung. Es ist in jedem Fall ein Fall für die Ethikkommission der Universität Mainz, sofern es die dortige Ethikkommission als ihre Aufgabe betrachtet zu verhindern, dass Universitätsangestellte, von denen einer zugegebenermaßen mehr Erfahrung mit der Süddeutschen Zeitung als mit dem, was an Universitäten gefordert wird und Standard sein sollte, hat, versuchen, die Öffentlichkeit mit manipulierten Daten zum Narren zu halten.

Wissenschaftlichen Ansprüchen und Ansprüchen an Moral und Ehrlichkeit genügt die Darstellung der Daten durch Schultz und Quiring nicht. Aber vielleicht reicht es ja für einen Gastauftritt beim diesjährigen Mainzer Karneval, bei Mainz bleibt Mainz, wie es singt und lacht…

Steinmeier als Bundespräsident: So geht Meinungsmanipulation

Stellen Sie sich vor, Sie kommen nach einem längeren Urlaub nach Hause und sind hungrig. Im Kühlschrank findet sich, der längeren Abwesenheit geschuldet, ein ranziges Stück Butter, ein Camembert, der über das Verfallsdatum ist, aber noch keine Verfallserscheinungen aufweist, Sie haben ein Stück Brot, das jeden Ziegelstein weich aussehen lässt und zudem finden Sie noch ein Glas Marmelade mit einer großartigen Schimmelpilzzucht „on top“. Wofür entscheiden Sie sich, wenn Sie sich entscheiden müssen?

Wetten, Sie essen den Camembert?

So geht suggestive Meinungsforschung. Trick 20 auf dem untersten Arsenal der Meinungsbeeinflussung funktioniert über die Unterdrückung von Alternativen oder sagen wir es mehr in Meinungsforschungsslang: Durch die unvollständige Vorgabe von Antwortalternativen.

Fragen wir also anders:
Wen können Sie sich am ehesten als Bundespräsidenten vorstellen?

  • schimmelpilzWolfgang Schäuble
  • Norbert Lammert
  • Winfried Kretschmann
  • Frank-Walter Steinmeier
  • Ursula von der Leyen
  • Margot Käßmann

Wem also trauen Sie am ehesten zu, das Amt des Bundespräsidenten auszufüllen, so hat TNS Emnid nach übereinstimmenden Meldungen, identischen Meldungen in ZEIT; FAZ und Spiegel gefragt? Und damit die Illusion, Sie hätten eine Wahl auch wirklich vorhanden ist, sind Mehrfachnennungen möglich, was natürlich völliger Blödsinn ist, wenn man danach fragt, wem ein Befragter am ehesten zutrauen würde, das Amt des Bundepräsidenten zu füllen (wohl mit seiner Persönlichkeit, nicht mit seiner Körperfülle). Und weil es völliger Blödsinn ist, Mehrfachnennungen zuzulassen, kann dahinter nur ein suggestiver Trick stehen: Wahltäuschung.

Die Wahl gleicht der, vor die Sie Ihr Kühlschrank nach Ihrer Rückkehr von einer längeren Abwesenheit gestellt hat und abermals wählen sie den Camembert, im übertragenen Sinne natürlich: „Mehrheit wünscht sich Steinmeier als Präsidenten“, lauten dann die entsprechenden Überschriften über dem entsprechenden Text, und bei der SPD frohlockt man: Der stellvertretende Vorsitzende der SPD, Olaf Scholz, meint: „Steinmeier ist der Politiker, den sich die meisten Deutschen als Staatsoberhaupt wünschen. Wer diesen Wunsch aus reiner Parteipolitik missachtet, schadet dem Ansehen der Demokratie“.

Ja, ja, mit dem Ansehen der Demokratie sind Politiker immer schnell bei der Hand, wenn Ihnen die Ergebnisse passen. Aber stellen wir uns nur einen Augenblick vor, ein Ministerpräsident ist so demokratisch gesinnt und fragt seine Bevölkerung, ob sie in der Europäischen Union bleiben will, und die Mehrheit der Bevölkerung sagt „nein“, ob der Demokratieachter Olaf Scholz aus Berlin dann immer noch der Ansicht wäre, man müsse den Willen der Mehrheit achten, weil alles andere der Demokratie schaden würde?

Wir alle kennen die Antwort. Der Opportunistenzirkus, der in Deutschland als Politik durchgehen soll, macht die Antwort jeden Tag aufs Neue deutlich.

Doch zurück zur manipulierten Camembert-Umfragen von TNS Emnid, bei der angeblich herausgekommen ist, dass die „Mehrheit der Deutschen“ Frank-Walter Steinmeier als Bundespräsidenten sehen will.

Dorroch MeinungsmacherDie Manipulation hinter der Umfrage von TNS Emnid kann man anhand einer Umfrage von YouGOV deutlich machen. Die YouGOVer sind noch nicht so firm im deutschen Manipulationswesen und haben entsprechend gefragt, wen die Befragten am ehesten als Bundespräsidenten unterstützen würden. Die Frage trägt der Tatsache Rechnung, dass die Wahl des Bundespräsidenten über die Bundesversammlung erfolgt, deren Zusammensetzung wiederum Ergebnis eines Geschachers zwischen den Parteien ist, dass Bürger mit anderen Worten keinerlei Mitsprache bei der Wahl des Bundespräsidenten haben.

[Nebenbei an Herrn Scholz: 70% der Deutschen wollen den Bundespräsidenten direkt wählen. Den Willen der Deutschen zu ignorieren, würde der Demokratie Schaden zufügen, nicht wahr Herr Scholz? Wir haben extra eine entsprechende Umfrage von TNS Emnid gesucht, weil Herr Scholz ja den Umfragen von TNS Emnid vertraut.]

Zudem haben die YouGOVer ihre Befragten nicht gezwungen, sich für einen der Vorgeschlagenen zu entscheiden und das Ergebnis einer manipulationsfreien Befragung von 1040 Deutschen lautet:

  • 46% können sich keinen der Genannten als Bundespräsident vorstellen.
    Genannt wurden:
  • Frank-Walter Steinmeier (er kommt auf 13%);
  • Gregor Gysi (schafft 10%);
  • Norbert Lammert (müde 7%);
  • Winfried Kretzschmann (schlappe 4%);
  • Wolfgang Schäuble (gleich schlappe 4%);
  • Margot Käßmann (ebenso schlappe 4%);
  • Der Rest der Vorschläge verschwindet im Statistischen Fehler von 2%.

Die Umfrage von YouGOV legt somit den Schluss nahe, dass 87% der Deutschen, um in der hochtrabenden Sprache zu bleiben, mit der die Ergebnisse auf Basis von in der Regel 1000 Befragten in Deutschland immer hochstilisiert werden, Frank-Walter Steinmeier nicht als Bundespräsident sehen wollen. Die meisten Deutschen wollen gar keinen der Vorgeschlagenen als Bundespräsidenten sehen.

Sich dieser Meinung der meisten Deutsche zu widersetzen, würde der Demokratie Schaden zufügen – oder?

N24-EMNID-Junk-Umfrage: 56% wollen mit Linksautonomen verhandeln -> Papierkorb

Derzeit wird von N24 das Ergebnis einer Umfrage, einer N24-Emnid-Umfrage verbreitet, die sich mit „den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße in Berlin“ beschäftigt.

Die N24-Emnid-Umfrage ist ein Lehrstück in versuchter Manipulation.

1000 Personen will Emnid am 12. Juli befragt haben, per Telefon wie zu vermuten steht und natürlich ist die Umfrage repräsentativ. Was sonst sollte sie sein? Sie muss repräsentativ sein, denn wer interessiert sich für die Meinung von 1000 Insassen des Irrenhauses in Fallingbostel? Aber natürlich wurden keine 1000 Insassen eines Irrenhauses befragt. Zumindest hoffen wir, dass sie nicht befragt wurden. Wir müssen hoffen, denn wer die 1000 Befragten sind, die Emnid da am 12. Juli angerufen haben will – wir wissen es nicht.

Statt dessen wird eine Pressemeldung verbreitet, für die Leichtgläubigen in den Redaktionen, die voller Auslassungen und Manipulationsversuche steckt.

framingEs beginnt bereits mit der Überschrift Umfrage „zu den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße“, eine Meisterleistung in Sachen Euphemismus, mit dem die Tatsache verwischt wird, dass es sich um Gewalttaten, um Steine, Flaschen und Feuerwerkskörper handelt, die von den Bewohnern der Rigaer Straße und ihren Fans auf Polizisten geworfen wurden. Bei N24 und Emnid werden daraus Ausschreitungen „rund um [ein] Wohnprojekt“, die nicht weiter zuordenbar sind.

Was soll man, angesichts eines solche Rahmens von den Antworten auf die folgenden Fragen erwarten, die Befragte innerhalb eines suggestiven Rahmen geben, der gaukelt, die Ausschreitungen hingen irgendwie mit einem Wohnprojekt zusammen, wo doch die Bewohner des nämlichen Projekts und ihre Fans diejenigen sind, die die Ausschreitungen begonnen und zu verantworten haben. [Ob es ein Zufall ist, dass mit dem Begriff der Ausschreitungen ein Begriff gewählt wurde, der im Zusammenhang mit Fußballspielen Verwendung findet, sei einmal daher gestellt.]

Wenn man Befragten suggeriert, dass die Schuldfrage nicht eindeutig geklärt werden kann, weil die Ausschreitungen eben nicht auf bestimmte Verursacher zurückführbar seien, sondern nur einem „Umfeld“ „rund um ein Wohnprohjekt“ zuordenbar seien, dann folgt daraus ein positiver Bias, eine positive Programmierung der meisten Befragten. Dieser bias wirkt sich so aus, dass mehr Befragte einem Dialog zustimmen, als ihn ablehnen. Wie man Befragte mit positiven oder negativen Suggestionen und Rahmen perfekt leiten kann, das haben Amos Tversky und Daniel Kahneman in einer Vielzahl von Studien meisterhaft gezeigt.

N24Emnid-ManipulationIm vorliegenden Fall führt die Manipulation dazu, dass 56% mit „gewaltbereiten Linksautonomen Gespräche führen wollen“ und 34% dafür votieren, dass mit „polizeilicher Härte gegen Linksradikale“ vorgegangen wird. Man fragt sich, angesichts solcher Ergebnisse, was die bei Emnid da eigentlich gefragt haben, ob sie tatsächlich einmal von Linksautonomen und einmal von Linksradikalen gesprochen haben. Was auch immer Emnid gefragt hat, es war Unsinn, denn 6% sind dafür, mit den Linksradikalen Gespräche zu führen und gleichzeitig mit polizeilicher Härte gegen sie vorzugehen. Warum auch nicht.

Die vielfältigen Manipulationsversuche, die sich derzeit in Medien finden, wenn es um die Rigaer Straße 94 in Berlin geht, lassen nur den Schluss zu, dass

Kriminalität, dann, wenn sie von Linksradikalen, Linksautonomen oder Links- was auch immer ausgeht, geadelte und zu rechtfertigende Kriminalität ist.

So wie man im Dritten Reich Verständnis für die kleinen Eskapaden der SA (1933-1934) hatte, so hat man sie heute, für die kleinen Eskapaden der Linksautonomen, Linksradikalen … – man kann richtig nachvollziehen, wie sich bei Journalisten die Finger sträuben, von Linksextremen zu schreiben und damit die Kriminellen aus Berlin als das zu bezeichnen, was sie sind.

Was die Umfrage von N24-Emnid angeht, so ist sie nicht nur wegen der suggestiven Art und Weise, in der die Umfrage geführt wurde, ein Fall für den Mülleimer, sie ist es auch wegen einer Reihe von Auslassungen, die man anhand der folgenden Fragen darstellen kann:

  • Auf welche Basis beziehen sich die Prozentangaben?
  • Welche Fragen wurden den Befragten genau vorgelegt?
  • Welche Antwortalternativen wurden den Befragten gegeben?
  • Von wann bis wann fand die Befragung statt?
  • Welche sozio-demographischen Merkmale haben die Befragten, die an der Befragung teilgenommen haben?

Die Auslassungen sind erheblich und man muss sich fragen, warum die Ergebnisse von N24-Emnid verbreitet werden, ohne diese grundlegenden Fragen zu beantworten. Als Antwort bieten sich zwei Möglichkeiten an: (1) Unkenntnis der Methoden empirischer Sozialforschung, (2) Versuch, die Öffentlichkeit mit Ergebnissen einer suggestiven Befragung zu manipulieren. In beiden Fällen handelt es sich um eine Junk-Umfrage, die in den Papierkorb geworfen werden muss.

Das wird sie natürlich nicht. Vielmehr kann man vorhersagen, dass sich Mainstream-Medien auf die Ergebnisse der Umfrage stürzen werden. Sie werden sich deshalb drauf stürzen, weil (1) die Unkenntnis über die Methoden empirischer Sozialforschung in den Redaktionen weit verbreitet ist, (2) die Unkenntnis darüber, was ein Prozentwert ausdrückt, in den Redaktionen fast noch weiter verbreitet ist und (3) die ideologische Passung des Ergebnisses mit dem ideologischen Klima der meisten Redaktionen einfach zu groß ist, als dass man auf Kleinigkeiten wie Manipulation und Auslassung bei der Umfrage oder Zweifel an deren Reliabilität und Validität Rücksicht nehmen müsste.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Forcierte Hass-Umfrage: Opportunistische Meinungsforschung

Die Landesmedienanstalt in Nordrhein-Westfalen vermeldet auf Ihrer Internetseite, den neuesten Coup in Sachen Hate Speech: Die Ergebnisse einer forcierten Hass-Umfrage:

“Das Internet ist längst zu einer der wichtigsten Quellen für die Meinungsbildung geworden. Gegenwärtig ist allerdings zu beobachten, dass sich im Netz zunehmend Hetze und Diskriminierung verbreiten.“

Es sei angemerkt, dass es keine Daten gibt, die zeigen, dass wir gegenwärtig eine „zunehmende Hetze und Diskriminierung“ im Internet beobachten. Das einzige was sich beobachten lässt, ist dass die politische Agitation gegen vermeintliche Hetze und Diskriminierung im Internet ständig zunimmt und dass die Geldsummen die finanzmittelaufsaugenden Schwämmen wie der Amadeu-Antonio-Stiftung geschenkt werden, immer größer werden.

Umfragemissbrauch“Eine aktuelle Forsa-Umfrage, die von der Landesanstalt für Medien Nordrhein-Westfalen (LfM) in Auftrag gegeben wurde, zeigt nun die große Tragweite, die Hasskommentare im Netz mittlerweile aufweisen.

So geben rund zwei Drittel aller befragten Personen an, bereits mit Hassbotschaften in sozialen Netzwerken, Internetforen oder Blogs konfrontiert worden zu sein. In der Altersgruppe der 14- bis 24-Jährigen haben sogar 91 Prozent schon Erfahrungen mit Hass im Netz gemacht.

Hate Speech ist damit zu einem gesamtgesellschaftlichen Problem geworden. Und das, obwohl die Gruppe derjenigen, die im Netz bereits schon hasserfüllte Kommentare geschrieben hat, laut den Umfragedaten lediglich ein Prozent umfasst.“

Viel Geld aus den Taschen von Bürgern hat die Landesmedienanstalt in Nordrhein-Westfalen an Forsa weitergereicht, um eine Umfrage zu Hasskommentaren zu bekommen, die sich gewaschen hat, mit der man Stimmung machen kann, Aktionen lostreten kann, Steuergelder umwidmen kann, damit noch mehr noch häufiger lamentieren können, wie viel Hass es doch im Internet gibt, und sich selbst als diejenigen anpreisen können, die den Hass im Internet bekämpfen. Indes fragt man sich, wie die Korrelation, die zwischen der steigenden Zweckentfremdung von Steuergeldern für den Kampf gegen Hate Speech und der behaupteten Zunahme von Hate Speech besteht, anders zu erklären ist als damit, dass die vielen Mittel, die zur Bekämpfung von Hate Speech eingesetzt werden, entweder dazu führen, dass Hate Speech zunimmt oder vollkommen wirkungslos verpuffen in jedem Fall also aus dem Fenster geworfen sind?

So wie die Gelder für die Forsa-Umfrage aus dem Fenster geworfen sind.
2.044 Personen hat man bei Forsa befragt; ab 14 Jahren, in einer Befragung, die man jedem Erstsemester der die Methoden der empirischen Sozialforschung studiert, um die Ohren hauen würde.

Beginnen wir mit der ersten Frage, die Forsa seinem Publikum präsentiert. „Wie häufig haben Sie persönlich schon Hate Speech bzw. Hasskommentare im Internet gesehen – z.B. auf Webseiten, in Blogs, in sozialen Netzwerken oder in Internetforen?“
Die Antworten auf diese Frage geben die Grundlage für den Alarmismus der Landesanstalt, der Eingang zitiert wurde:

„In der Altersgruppe der 14- bis 24-Jährigen haben sogar 91 Prozent schon Erfahrungen mit Hass im Netz gemacht“, so lamentiert die Pressemeldung der Landesmanipulationsanstalt, in der Unterschlagen wird, dass die Frage abgestufte Antworten vorsieht: sehr häufig, häufig, weniger häufig und noch nie. Die Abstufung und die damit einhergehende zeitliche Dimension, bei der Landesanstalt wird darauf gepfiffen und es wird von „Erfahrungen mit Hass im Netz“ fabuliert, wo danach gefragt wurde, ob schon einmal ein Hasskommentar gesehen wurde.

Offensichtlich verbindet man bei der Landesanstalt für Medien in NRW ein ganz konkretes Ziel, ein ganz konkretes Interesse mit dieser Befragung, die dazu benutzt werden soll, Maßnahmen gegen den angeblichen Hass im Netz und Maßnahmen zur Stasiisierung des Netzes unter tätiger Mithilfe ehemaliger innoffizieller Mitarbeiter der Stasi zu legitimieren.

Die forcierte Umfrage von Forsa, sie lässt dies jedoch nicht zu. Zwei grundlegende Handwerksfehler verhindern das:

Eine Aussage über die Häufigkeit eines Hasskommentars im Internet ist weitgehend nutzlos, wenn nicht bekannt ist, wie häufig der entsprechende Befragte das Internet und entsprechende Internetseiten nutzt. Man hätte bei Forsa also fragen müssen: Wie häufig die entsprechenden Befragten überhaupt im Internet unterwegs sind, um eine Basis für die Angabe, man sehe „sehr häufig“, „häufig“, „weniger häufig“ oder „nie“ Hasskommentare im Internet. Es macht einen Unterschied, ob jemand, der täglich mehrere Stunden im Internet unterwegs ist, angibt, er sehe „sehr häufig“ Hasskommentare oder jemand, der einmal im Monat eine Verbindung zum Internet herstellt. Das war Handwerksfehler 1, der die gesamte Umfrage bereits in Frage stellt.

Handwerksfehler 2 stellt die gesamte Umfrage nicht in Frage, vielmehr sorgt Handwerksfahler 2 dafür, dass man jetzt genau weiß, dass die Umfrage eine Umfrage für den Mülleimer ist. Im Hinblick auf die Häufigkeit, mit der Hasskommentare wahrgenommen werden, präsentieren die Antworteintreiber von Forsa eine Abbildung, die zeigt, dass 14- bis 24-jährige angeben, häufiger Hasskommentare zu sehen als 25- bis 44-jährige, 45- bis 59-jährige und Befragte, die mehr als 59 Jahre alt sind.

Hass-umfrage forsa

Ein Sozialforscher, der eine solche Verteilung sieht, dem drängt sich förmlich die Hypothese auf, dass die Epidemie von Hasskommentaren bei 14- bis 24-jährigen darauf zurückzuführen ist, dass sie ein vollkommen anderes Verständnis davon haben, was ein Hasskommentar ist, als ältere Personen. Entsprechend würde ein Sozialforscher, der seine Methoden beherrscht, sicherstellen, dass alle Befragten ein ungefähr gleiches Verständnis davon haben, wonach er eigentlich fragt. Er würde sie entweder in einer offenen Frage bitten, ein oder zwei Beispiele für Hasskommentare anzugeben oder er würde ihnen eine Definition von Hasskommentar in der Frage vorgeben.

forsa forcierenNicht so Forsa. Dort werden Ergebnisse insofern forciert, als völlig offengelassen wird, was Befragte unter Hasskommentaren verstehen. Das zeigt deutlich, dass es nicht darum geht, Hasskommentare und ihre Verbreitung im Internet zu untersuchen. Es geht darum, möglichst viele zusammenzubekommen, die der Ansicht sind, sie hätten „sehr häufig“, „häufig“ oder „weniger häufig“ einen Hasskommentar gesehen. Ob es sich bei den Hasskommentaren, die die Befragten gesehen haben wollen, um einen Hasskommentar handelt, den auch andere als einen solchen bezeichnen würden, oder ob sie es mit hysterischen oder angeberischen Befragten oder mit Befragten zu tun haben, für die alles ein Hasskommentar ist, was nicht ihrer Meinung entspricht, das ist den Forcierern von Forsa egal. Sie sollen zeigen, dass es ganz viele Hasskommentare im Internet gibt, dafür werden sie bezahlt und genau das ist das Ergebnis, das sie präsentieren.

Bei der Landesanstalt für Medien in NRW ist man entsprechend hoch erfreut darüber, dass bestätigt wurde, was bestätigt werden sollte: Die Legitimation dafür, noch mehr Geld in die Netzwerke zu gießen, die Steuergelder aufsaugen wie Schwämme, damit sie noch lauter darüber klagen können, dass trotz aller Gelder, die sie für die Bekämpfung von Hate Speech erhalten, Letztere immer häufiger wird.

Einen Erfolg haben die Bekämpfer der von ihnen geschaffenen Hysteriefolgen, 14- bis 24jährige geben häufiger an als alle anderen Altersgruppen, „einen Hasskommentar bzw. dessen Verfasser bei dem entsprechenden Portal gemeldet“ zu haben. Wenn es darum geht, die Kultur der Denunziation, die in der DDR oder im Dritten Reich so blühende Landschaften hinterlassen hat, wiederherzustellen, dann scheinen die Kämpfer gegen irgendwelche Hasskommentare zumindest bei denen, die man noch leicht indoktrinieren kann, erfolgreich zu sein.

Noch ein Grund, froh über den BREXIT zu sein.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Junk Science: Enthemmte Mitte oder enthemmte Akademiker?

Alle zwei Jahre wieder, kommt sie auf uns nieder: die Mitte-Studie, in der sich Medizin- und Patchworksoziologen der Universität Leipzig, um Elmar Brähler an empirischer Sozialforschung versuchen. Die Mitte-Studie des Jahres 2012 haben wir bereits unter der Überschrift „Die Konstruktion des Rechtsextremismus“ analysiert. Die 2014-Auflage der Mitte-Studie haben wir uns erspart. Die 2016-Auflage müssen wir wieder zur Kenntnis nehmen, als Reaktion auf sozialen Druck, der über unsere Mailbox ausgeübt wird. Ok. Wir analysieren die Mitte-Studie!

junk_scienceEine Veränderung vorweg: Nicht mehr die Friedrich-Ebert-Stiftung, sondern ein Konglomerat aus Heinrich-Böll-Stiftung (Grüne), Otto-Brenner-Stiftung (Gewerkschaft) und Rosa-Luxemburg-Stiftung (LINKE) hat sich dieses Jahr bereiterklärt, die Kosten der Mitte-Studie zu übernehmen. Die Kosten allein für die Durchführung der Befragung, die zu 2.420 verwertbaren Interviews geführt hat, dürften bereits mehrere 100.000 Euro betragen. Es ist also auch 2016 wieder sichergestellt, dass Steuermittel in großem Umfang für die Mitte-Studie verbrannt werden, verbrannt deshalb, weil mit der Studie keinerlei wissenschaftlicher, sondern ausschließlich ideologischer Nutzen verbunden ist (Sofern man im Zusammenhang mit Ideologien überhaupt von Nutzen sprechen kann). Ideologischer Nutzen muss damit verbunden sein, sonst würden ihn nicht die drei linken Vereine von Parteien und Gewerkschaft mit den Steuergeldern bezahlen, die ihnen zugeschustert werden – oder handelt es sich hier nur um eine schlechte Angewohnheit?

Erhebungsmethoden

Die Mitte-Studie ist eine der Studien, die von sich behaupten, sie seien repräsentativ. Das an sich, ist bereits Unsinn, wie wir an anderer Stelle gezeigt haben. Im vorliegenden Fall kommen noch einige Irrtümer hinzu, die die Autoren wie folgt darlegen:

“Je größer die Stichprobe, desto geringer ist die Fehlerwahrscheinlichkeit. Das wichtigste Merkmal einer repräsentativen Erhebung ist allerdings, dass jedes relevante Merkmal in der Bevölkerung die gleiche Chance hat, in die Stichprobe einzugehen.“ (Decker et al., 2016: 25).

Enthemmte AkademikerZwei Sätze, zwei Fehler. Mit zunehmender Größe einer Stichprobe sinkt die Fehlerwahrscheinlichkeit nicht, denn die Fehlerwahrscheinlichkeit hat zunächst einmal nichts mit dem Umfang der Stichprobe, sondern mit der Qualität der Stichprobe zu tun: Wenn es gelingt, drei Deutsche zu finden, die so mittelmäßig sind, dass sie regelmäßig genau die Angaben zu Fragen machen, die die Mehrheit der Bevölkerung macht, dann ist die Fehlerwahrscheinlichkeit, also die Wahrscheinlichkeit, dass die Stichprobe die zugrundeliegende Population nicht abbildet, sehr gering. Wenn ich dagegen 5000 Mitglieder der Antifa zu Fragen des Anstands und der Moral befrage, werden am Ende der Befragung Ergebnisse stehen, die sehr weit von dem abweichen, was in der Mehrheit der Bevölkerung mit Anstand und Moral verbunden wird. Die Fehlerwahrscheinlichkeit ist also hoch. Kurz: Die Leipziger Mediziner haben nicht viel Ahnung von empirischer Sozialforschung.

Das macht auch der Folgesatz deutlich, der von „relevanten soziodemographischen Merkmalen“ spricht. Dummerweise weiß man immer erst hinterher, welche Merkmale relevant für eine bestimmte Fragestellung sind. Wüsste man es bereits vorher, man müsste gar keine Befragungen durchführen. Abermals erzählen die Autoren Unsinn. Die Mär der Repräsentativität, sie behauptet, dass jedes Element der Grundgesamtheit, also im vorliegenden Fall, jeder, der in Deutschland lebt, die gleiche Wahrscheinlichkeit hat, in die Mitte-Befragung zu gelangen.

Auch hinter dem eigenen Anspruch, eine repräsentative Stichprobe der Gesamtbevölkerung gezogen zu haben, bleiben die Autoren und USUMA, ihr Umfrageinstitut aus alter Verbundenheit, zurück: Ihre Stichprobe hat verhältnismäßig zu viele junge (unter 45 Jahre) und alte (über 65 Jahre) Befragte, zu viele Frauen (55,3%), zu viele Geschiedene und zu wenige Befragte ohne einen Schulabschluss, gemessen an der Verteilung der entsprechenden Gruppen in der Gesamtbevölkerung. Und dies ist nur das Ergebnis einer kursorischen Prüfung.

Fazit zu den Erhebungsmethoden: Dilettantismus.

Befragungsmethoden

Die Mitte-Studie will vornehmlich „Rechtsextremismus“ messen. Rechtsextremismus ist der Verkaufsanker, der Köder, an dem sich die öffentlich-rechtlichen Medienanstalten mit Sicherheit festbeißen, und der Köder, der öffentlich-rechtliche Medienanstalten wie die ARD, die Ergebnisse der Mitte-Studie nur zu gerne und ohne Prüfung übernehmen sieht (immer vorausgesetzt, Journalisten bei öffentlich-rechtlichen Medien stellen keine Negativauswahl dar, die zur Prüfung der entsprechenden Ergebnisse gar nicht in der Lage sind.).

Rechtsextremismus wird in der Mitte-Studie völlig ungewöhnlich und wie folgt definiert:

“Der Rechtsextremismus ist ein Einstellungsmuster, dessen verbindendes Kennzeichen Ungleichwertigkeitsvorstellungen darstellen. Diese äußern sich im politischen Bereich in der Affinität zu diktatorischen Regierungsformen, chauvinistischen Einstellungen und einer Verharmlosung bzw. Rechtfertigung des Nationalsozialismus. Im sozialen Bereich sind sie gekennzeichnet durch antisemitische, fremdenfeindliche und sozialdarwinistische
Einstellungen. (Decker & Brähler, 2006)“(Decker et al., 2016: 29)

Die angeblichen Wissenschaftler sind nicht einmal in der Lage, sich selbst korrekt zu zitieren. Da es sich um ein wörtliches Zitat handelt, ist eine Seitenangabe aus Decker und Brähler zwingend notwendig. In jedem Einführungskurs in die Quellenkunde wären die Autoren durchgefallen, und Friedrich Kahlenberg würde in seinem Bundesarchiv rotieren, wenn er noch in seinem Bundesarchiv wäre.

Abgesehen davon wird Rechtsextremismus also als Oberismus einer Reihe von Unterismen definiert. Jeder der Unterismen wird sodann gemessen, und zwar anhand von je drei Items.

Die hohe Kunst der Befragung, sie hat eine Reihe von No-Goes definiert, d.h. von Arten und Weisen des Vorgehens und der Formulierung von Fragen, die ein lauterer Wissenschaftler vermeidet. Decker et al. meiden die entsprechenden Vorgehensweisen nicht. Man findet sie fast alle versammelt.

Holm_Alle Aussagen, denen die Befragten zustimmen können oder nicht, werden mit fünf Antwortoptionen präsentiert: „lehne völlig ab“, „lehne überwiegend ab“, „stimme teils zu teils nicht zu“, „stimme überwiegend zu“, „stimme voll und ganz zu“. Sobald es an die Auswertung geht, sind drei der fünf Antwortoptionen verschwunden, die Ergebnisdarstellung beschränkt sich weitgehend auf die Optionen „stimme überwiegend zu“ und „stimme voll und ganz zu“ und beide Optionen werden der Einfachheit halber zusammengefasst. Das ist eine der Unsitten der empirischen Sozialforschung, die häufig durch zu geringe Fallzahlen bedingt ist. Warum, so muss man fragen, wird mit „Likert-Skalen“ erhoben, wenn das erste, was bei der Auswertung verschwindet, eben jene Likert-Skala ist? Zur Erinnerung: Likert-Skalen sind mit Blick auf die Auswertung der Daten entwickelt worden, nicht mit Blick auf die Erhebung der Daten. Aber das wissen die Mannen um Brählert offensichtlich nicht.

Grundsätzlich ist das Zusammenfassen von Antwortkategorien ein zulässiges Verfahren, jedenfalls dann, wenn die Aussagen, denen Befragte zustimmen oder die sie ablehnen sollen, entsprechend eindeutig formuliert sind. Das sind sie im vorliegenden Fall aber nicht.

  • „Die Ausländer kommen nur hierher, um unseren Sozialstaat auszunutzen.“
    „Die Bundesrepublik ist durch die vielen Ausländer in einem gefährlichen Maß überfremdet.“

Beide Aussagen sollen Ausländerfeindlichkeit messen. Wenn ein Befragter nun „stimme überwiegend zu“ zur ersten Aussagen als seine Antwortoption angibt, dann kann hinter dieser Angabe die Überlegung stehen, dass nicht alle Ausländer nach Deutschland kommen, um „unseren Sozialstaat auszunutzen“. Der entsprechende Befragte hätte sich somit an dem Wörtchen „nur“ gestört und mit Recht so, denn das Wörtchen „nur“ macht aus der Frage eine eine unzulässige Suggestivfrage, die darauf abzielt, entsprechende „affektuelle Reaktionen hervorzurufen“, wie Kurt Holm (1986: 64) das nennt. Man muss also annehmen, dass Befragte, die „überwiegend zustimmen“, die suggestive Ladung der Frage erkannt haben und ablehnen. Sie mit Befragten, die affektuell im vollen Umfang und damit so, wie suggeriert reagieren und „voll und ganz zustimmen“ zusammenzuwerfen, ist eine Manipulation der Ergebnisse, die den Ethikkrat der Profession beschäftigen müsste, wenn der entsprechende Ethikrat ein Ethikrat und kein Feigenblatt wäre.

Die selbe Argumentation kann im Hinblick auf die zweite Aussage anhand der Qualifikation „gefährlich“ vorgenommen werden. Wieder kommt man zu dem Ergebnis, dass die Daten von Decker et al. mit ihrer Zusammenfassung in einem nicht zulässigen Maß manipuliert wurden.

Noch ein paar Beispiele aus dem Schattenreich der suggestiven Fragen:

  • „Auch heute noch ist der Einfluss der Juden zu groß“:
    Setzt voraus, dass der Einfluss der Juden einst zu groß war.
  • “Es gibt wertvolles und unwertes Leben.“Formuliert eine Bigotterie, wie sich nicht zuletzt daran zeigt, dass viele Menschen kein Problem damit haben, Tiere zu fressen und damit tierisches Leben zu vernichten, das sie wohl als unwert zu weiterem Leben angesehen haben.
  • “Die Juden haben einfach etwas Besonderes und Eigentümliches an sich und passen sich nicht an“: Aus der Trickkiste der mehrfachen Stimuli, aus denen sich der Forscher aussuchen kann, was er gerne hätte. Sind die Befragten, die hier zustimmen, nun der Ansicht, Juden hätten etwas Besonderes an sich oder etwas Eigentümliches oder etwas Besonderes und etwas Eigentümliches? Sind die Befragten der Ansicht, sie würden sich wegen diesem Besonderen oder wegen diesem Eigentümlichen oder wegen beiden nicht anpassen oder der Ansicht, dass sich Juden unabhängig von Besonderem und Eigentümlichem nicht anpassen?

Jedem Methodenlehrer an einer Universität, der sich mit Frageformulierungen befasst, müssen angesichts dieser kategorialen Fehler bzw. dieser angewendeten Manipulationstechniken die Haare zu Berge stehen. Bei Decker et al. stehen die Haare sicher nicht zu Berge, nicht einmal die Schamesröte wird sie ereilen – das ist eine Prognose mit einer Fehlerwahrscheinlichkeit von weniger als 5% (auf eine F-Verteilung bezogen).

Der größte Hammer, der letztlich ganz deutlich zeigt, dass es bei der sogenannten Mitte-Studie einzig darum geht, Daten zur ideologischen Verwendung zusammenzustellen und damit die Befragten, die bereitwillig an der Befragung teilgenommen haben, zu missbrauchen, findet sich in den Tabellen 3 bis 8. Sie alle stellen Ergebnisse für Ost und West, für Abitur oder kein Abitur, für Altersgruppen oder letzte Partiwahl etc. dar, und zwar für „Befürwortung Diktatur“, „Chauvinismus“, „Ausländerfeindlichkeit“, „Antisemitismus“, „Sozialdarwinismus“, „Verharmlosung Nationalsozialismus“.

Wie sich vielleicht der ein oder andere Leser noch erinnert, definieren Decker und Brähler Rechtsextremismus als Oberismus über den hier genannten Unterismen. Rechtsextremismus setzt sich also nach ihrer eigenen Definition aus den sechs Unterismen zusammen, ist eine Kombination aus ihnen.

Ihre eigene Definition haben sie offensichtlich vergessen, wenn es darum geht, die Ergebnisse mit dem, was man wissenschaftliche Lauterkeit nennt, darzustellen. Statt Rechtsextremismus als Kombination der sechs Unterismen darzustellen, erwecken die Autoren den Eindruck, Rechtsextremismus ergebe sich schlicht durch Addition der sechs Ismen. Sie suggerieren ihren Lesern, es seien im Kern immer die gleichen Befragten, die den Unterismen von Rechtsextremismus zustimmen (oder schlimmer noch, man könne die Unterismen addieren, um zum Ausmaß an Rechtsextremismu zu gelangen). In Tabelle 3 wird z.B. von 2.1% der Befragten behauptet, dass sie den Nationalsozialismus verharmlosen würden. Die Darstellung suggeriert, dass sich diese 2.1% auch unter denen finden, die Sozialdarwinismus, Antisemitismus, Ausländerfeindlichkeit, Chauvinismus und Diktatur befürworten. Und das ist falsch. Würden die Autoren ihren eigenen Anspruch einlösen und die sechs Unterismen zu Rechtsextremismus zusammenfassen, es gingen Ihnen reihenweise Befragte verloren, d.h., sie stünden am Ende mit vielleicht 2% Rechtsextremen nach ihrer eigenen Definition da und mit vielleicht 5%, die man mit viel gutem Willen als dem, was Decker et al. als Rechtsextremismus gemessen zu haben glauben, nahe stehend ansehen könnte. Immer vorausgesetzt, man kann die Zusammenfassung der Antwortkategorien und die Art und Weise der Formulierung der Aussagen rechtfertigen. Das kann man aber nicht, wie wir bereits dargelegt haben.

Ganz nebenbei ist es in der empirischen Sozialforschung ein Muss, für die Skalen, von denen man behauptet, man habe sie gemessen, auch zu prüfen, ob man sie tatsächlich gemessen hat. Entsprechende Methoden finden sich unter dem Stichwort „Reliabilität“. Wenig verwunderlich finden sich in der Mitte-Studie, der anscheinend völlig enthemmten Leipziger Akademiker, keinerlei Hinweise darauf, dass ein Reliabilitätstest durchgeführt worden wäre, so dass man davon ausgehen muss, dass die Autoren zwar behaupten, z.B. Chauvinismus gemessen zu haben, ihre Operationalisierung der latenten Variable „Chauvinismus“ aber nicht reliabel ist, d.h. sie haben irgend etwas gemessen.

Schnell hill esserDie neue Mitte-Studie ist somit ein weiteres Beispiel dafür, dass angebliche Wissenschaftler gerne bereit sind, die ideologische Schmutzarbeit für ihre Auftraggeber zu erledigen bzw. dass sie so mit Ideologie angefüllt sind, dass sie gar nicht merken, wem sie freudig zu Willen sind. Es finden sich so ziemlich alle Techniken der suggestiven und manipulativen Befragung, die lautere Wissenschaftler meiden wie die Pest, es findet sich eine unlautere Zusammenfassung der Antworten, die Befragte gegeben haben und somit ein Missbrauch der Befragten und es finden sich suggestive Darstellungsweisen, die das Phänomen, das man angeblich gemessen haben will, aufblasen wie einen Luftballon auf dem Jahrmarkt. Nur eines findet sich in der gesamten „Mitte-Studie“ nicht: Eine Operationalisierung von Mitte und eine enthemmte Mitte findet sich auch nicht. Der Begriff, ist wohl dazu gedacht, die Naiven in den Redaktionen der Medien zu ködern. Mit Erfolg wie sich zeigt. Auf den gesamten mehr als 200 Seiten des Machwerks findet sich der Begriff der „enthemmten Mitte“ nicht ein einziges Mal. Er findet sich ausschließlich in der Überschrift des Machwerks und in den Medien.

In der DDR war es üblich, Wissenschaft daran zu identifizieren, dass sie im ideologischen Einklang mit dem herrschenden Marxismus-Leninismus steht. Da einige der Autoren der Mitte Studie eine DDR-Sozialisation erfahren haben, hat sich bei Ihnen offensichtilch noch nicht der mit dem Ende der DDR verbundene soziale Wandel in der Wissenschaft herumgesprochen, der es unnötig macht, die eigenen Ergebnisse anhand von ideologischen Vorgaben aufzubügeln, um dann ein Fleißkärtchen von seinen Auftraggebern zu erhalten.

Der Alte Mann hat sich in seinem Blog auch zum Thema geäußert.

 


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Antidiskriminierungsstelle: Fast alle werden diskriminiert!

Werden Sie eigentlich diskriminiert?

Wie diskriminiert?

Diskriminiert eben: Sie werden doch wissen, ob Sie wegen ihres jungen oder alten Alters, wegen ihres Geschlechts oder ihrer Geschlechtsidentität, ihrer Religion oder Weltanschauung, aus rassistischen Gründen oder wegen der ethnischen Herkunft, wegen Behinderung und Beeinträchtigung oder wegen ihrer sexuellen Orientierung oder ihrer sozioökonomischen Lage diskriminiert werden!

Stellen Sie sich einfach vor, Sie werden angerufen und eine gelangweilte Stimme rasselt einen vorgefertigten Text herunter, bei dem Sie etwas mit Anti und Stelle und Diskriminierung mitbekommen und an dessen Ende Sie gefragt werden, ob Sie teilnehmen wollen. Woran? Na an der Diskriminierungsumfrage der Antidiskriminierungsstelle, die XY in deren Auftrag durchführt. Mensch! (Fühlen Sie sich bitte nicht diskriminiert, dass gerade Sie bei diesem Unsinn mitmachen sollen.)

Aber sicher nehmen Sie daran teil – oder?

Und los geht’s

ADS_Umfrage

Die Ikonographie wird auch immer infantiler

„Ich lese Ihnen nun einige Eigenschaften vor, aufgrund derer Diskriminierung stattfinden kann. Bitte sagen Sie mir jeweils, ob Sie persönlich in den letzten 24 Monaten in Deutschland aufgrund dieser Eigenschaften diskriminiert wurden oder nicht:

  • wegen ihres zu niedrigen/ zu hohen Alters;
  • aufgrund des Geschlechts / der Geschlechtsidentität;
  • aufgrund der Religion oder Weltanschauung;
  • aus rassistischen Gründen oder wegen der (ethnischen) Herkunft;
  • wegen einer Behinderung, Beeinträchtigung oder chronischen Krankheit;
  • aufgrund der sexuellen Orientierung;
  • aufrgund ihrer sozioökonomischen Situation;

Wie – Ihr Gedächtnis reicht nicht 24 Monaten zurück? Sie werden doch wissen, ob Sie vor einem Jahr und 10 Monaten aus rassistischen Gründen oder wegen der (ethnischen) Herkunft diskriminiert wurden? Was rassistische Gründe sind? Ja, also: Sie werden doch wissen, was rassistische Gründe sind. Phantasieren Sie sich irgendetwas zusammen, was Sie für rassistische Gründe halten. Wir sind nur an den Zahlen interessiert. Halt, ich weiß etwas: Sind Sie vielleicht, Sie wissen schon, nun, undeutsch, übers Mittelmeer gekommen oder aus der Türkei. Ja? Prima. Dann qualifizieren Sie sich über ihre ethnische Herkunft. Sie wurden doch bestimmt diskriminiert, so als Türke … oder?

So oder so ähnlich wird die Umfrage, die die Antidiskriminierungsstelle offensichtlich in Auftrag gegeben hat, um so viele wie nur möglich Diskriminierte zu finden, wohl durchgeführt worden sein. Die Umfrage, die natürlich repräsentative Umfrage mit „gewichteten“ 992 Befragten, sie ist ein Musterbeispiel für eine Junk-Umfrage, mit der nahezu alle Regeln der empirischen Sozialforschung verletzt werden. Wenn mit der Umfrage überhaupt etwas über Diskriminierung zu erfahren ist, dann darüber, wo die Trennlinie verläuft, die ernstzunehmende und lautere Forschung von Junk-Umfragen wie der der Antidiskriminierungsstelle diskriminiert

Beginnen wir mit dem Thema „Diskriminierung“.

Man fragt nicht nach Diskriminierung. Das ist so ähnlich als würde man die Messung des IQ dadurch vornehmen, dass man Befragten eine Skala von 0 bis 230 vorlegt und sie bittet, ihren IQ einzutragen. Die EU-Kommission hat eine ähnliche innovative, aber völlig unlautere Strategie genutzt, um Rassismus mit der Frage: Wie rassistisch sind Sie? zu messen. Dr. habil. Heike Diefenbach hat die entsprechende Messung in einem wissenschaftlichen Beitrag zerlegt.

Aber selbst wenn man danach fragen könnte, ob sich jemand diskriminiert fühlt oder nicht, so müsste man doch sicherstellen, dass man eine ungefähre Vorstellung davon hat, was der Antworter unter Diskriminierung versteht und welche Erfahrungen er darunter fasst. Was fasst z.B. ein 14jähriger unter die Angabe, er sei wegen seines niedrigen Alters diskriminiert worden? Die Tatsache, dass er aus dem Spiele-Center geworfen wurde? Dass ihm der Kauf von Johnny Walker verwehrt wurde? Wer eine sinnvolle und lautere Umfrage machen will, deren Ziel nicht nur darin besteht, die Notwendigkeit der Antidiskriminierungsstelle zu belegen, der muss dafür Sorge tragen, dass er auch weiß, worauf die Befragten antworten und was sie ihm sagen.

Wer derart offen formuliert und dann noch anmerkt, dass man „subjektive Diskriminierungserfahrungen“ (4) erhoben habe, der kann nicht erwarten, dass er von auch nur einem Wissenschaftler ernst genommen wird. Wenn man „subjektive Diskriminierungserfahrungen“ erheben will, dann muss man auch sicherstellen, dass man das Subjektive daran versteht, also weiß, was ein 14jähriger unter Diskriminierung versteht und in welcher Situation sich der 55-Jährige diskriminiert gefühlt hat. Wenn es aber nur darum geht, viele Befragte mit subjektiver Diskriminierungserfahrung zu sammeln, dann ist es egal, ob die subjektive Diskriminierung aus dem verwehrten Kauf von Johnny Walker besteht oder daraus, dass ein 60-Jähriger von seinem Abgeordneten als Pack beschimpft wird, weil er an einem Spaziergang teilgenommen hat.

Prof FacepalmDass es der Antidiskriminierungsstelle ausschließlich darum gegangen ist, so viele selbsternannte Diskriminierte zu sammeln, wie nur möglich, egal wie, das zeigt sich nicht nur daran, dass es den 992 gewichteten Befragten überlassen bleibt, was sie denn nun einmal als Diskriminierung wegen z.B. zu niedrigem oder zu hohem Alter ansehen wollen, sondern auch daran, dass die Aussagen, zu denen die Befragten um Auskunft gebeten werden, mehrdeutig sind. Was nutzt eine Auskunft, man sei aus rassistischen Gründen oder wegen der (ethnischen) Herkunft diskriminiert worden? Wenn jemand sagt: Ja, das trifft auf mich zu, ist er dann aus rassistischen Gründen oder wegen seiner ethnischen Herkunft diskriminiert worden? Was bedeutet es, wenn jemand sagt, er sei aus rassistischen Gründen diskriminiert worden? Wenn jemandem die Tür vor der Nase zugeschlagen wird und der jemand ist Roma und nimmt die total übel, macht eine subjektive Diskriminierung daraus, attribuiert es auf sein Romasein und nicht auf die Nachlässigkeit des Vorgängers, ist das Diskriminierung? Für die Antidiskriminierungsstelle ist es notwendiger Weise Diskriminierung, für jeden normalen Menschen nicht.

Aber im Bemühen, so viele Diskriminierte zusammenzutragen, wie nur möglich, hinterlässt die Antidiskriminierungsstelle ein Feld der methodischen Leichen, die sie zu allem Überfluss auch noch offen herumliegen lässt.

Entsprechend ist die Umfrage der Antidiskriminierungsstelle ein mit Steuergeldern finanzierter Versuch, die Öffentlichkeit über die Notwendigkeit der Antidiskriminierungsstelle zu täuschen und weitere Mittel für den Kampf gegen, na Diskriminierung eben, einzusammeln:

„Sie brauchten aber mehr Unterstützung. Deshalb müsse der gesetzliche Diskriminierungsschutz verbessert werden, etwa durch ein eigenes Klagerecht für Verbände sowie für die Antidiskriminierungsstelle des Bundes. So könnten laut Lüders Betroffene vor Gericht effektiv unterstützt werden …“

Die Antidiskriminierungsstelle ist eben auch nichts anderes als eine Lobbygruppe in eigener Sache, eine Mistelorganisation, die sich von Steuergeldern ernährt und sich selbst Gutes tut. Übrigens hat die Antidiskrminierungsstelle es bis heute nicht für notwendig erachtet, die zum Teil bösartige Täuschung von männlichen Bewerbern im Rahmen des Professorinnenprogramms auch nur zur Kenntnis zu nehmen.

Epilog

Wie sehr es der Antidiskriminierungsstelle darum geht, die Öffentlichkeit zu täuschen, zeigt sich auch an Formulierungen wie: „Fast jeder dritte Mensch in Deutschland hat in den vergangenen zwei Jahren Diskriminierung erlebt„, Formulierungen, die von einer zu eigenem Urteil unfähigen Presse nur zu willig aufgenommen werden und in „Benachteiligung – Jeder Dritte fühlt sich diskriminiert“ sinnentleert werden. Tatsächlich haben 31,4% von 992 gewichteten Befragten gesagt, sie wären aufgrund einer der oben genannten Eigenschaften diskriminiert worden, also 311 Befragte. Von 311 Befragten zu jedem dritten Mensch in Deutschland (sind Touristen, die ja auch Menschen in Deutschland sind, eigentlich eingeschlossen?) ist es ein weiter Weg. Inwieweit die Aussage eines Befragten, er sei diskriminiert worden, etwas mit Diskriminierung zu tun hat, ist darüber hinaus eine Frage, deren Stellung bereits die kognitiven Fähigkeiten der meisten ADSler übersteigen dürfte.

Gewichten muss man übrigens dann, wenn die Stichprobe, die doch eigentlich repräsentativ sein soll, so verzerrt ist, dass selbst diejenigen, die routinemäßig behaupten, eine Stichprobe sei repräsentativ, sich unwohl fühlen, und das will etwas heißen. Wie verzerrt die angeblich repräsentative Stichprobe der ADS ist, kann man sich aufgrund der Tatsache, dass 55,4% der Befragten weiblich und 44,6% der Befragten männlich sind, lebhaft vorstellen. Wenn eine angeblich repräsentative Stichprobe es nicht schafft, ein dichotomes Merkmal, das in der Bevölkerung relativ gleichverteilt ist (50,9% Frauen, 49,1% Männer) zu repräsentieren, dann ist der einzige Schluss der, dass die Junk-Umfrage selbst für Repräsentativitätsfetischisten eine Junk-Umfrage ist.

Mehr zum Thema Repräsentativität:

Der Mythos der Repräsentativität

 

Helfen Sie uns dabei, ScienceFiles vom Hobby zum fest etablierten Blog zu machen. Machen Sie mit beim ScienceFiles-Projekt.

Mit Ihrer Spende können Sie dazu beitragen, dass wir uns nicht mehr nur nebenbei um ScienceFiles kümmern können und uns dem, was wir investigative Wissenschaft und angewandte Sozialwissenschaft nennen, voll widmen können.
Paypal:

PAYPAL

Spendenkonto:
Wir empfehlen Transferwise, um die horrenden Bankgebühren deutscher Banken zu vermeiden.

  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Junk-Umfrage der Drogenbeauftragten soll zeigen: „Die Mehrheit ist vernünftig“

Als empirische Sozialforscher, die ihr Handwerk noch von der Pike auf gelernt haben, die mit Kollegen stundenlang über die beste Frageformulierung diskutiert und Pre-Tests benutzt haben, um die eigenen Annahmen darüber, wie Fragen von Befragten verstanden werden, zu prüfen, kommen uns regelmäßig die Tränen, wenn wir das sehen, was derzeit als „empirische Sozialforschung“ oder auch „Umfrageforschung“ bezeichnet wird.

Wir haben uns deshalb entschieden, neben der Kategorie der Junk-Studie nun auch die Kategorie der Junk-Umfrage zu eröffnen, um darin die Umfragen zu sammeln, bei denen jemand gemeint hat, er könne eben einmal ins Feld gehen, dort ein paar Fragen stellen, anschließend die Ergebnisse verkünden und sich für den produzierten Meinungsumfrage-Junk fürstlich bezahlen lassen.

insa consulereDie erste Junk-Umfrage, mit der wir die neue Kategorie bestücken, kommt aus dem Hause INSA-Consulere, einem Meinungsforschungsinstitut, das die Drogenbeauftrage des Bundes, Marlene Mortler, zu kennen scheint, denn sie hat INSA-Consulere mit einer Umfrage beauftragt. Vielleicht wurde der Prozess des Kennenlernens auch dadurch erleichtet, dass der Geschäftsführer von INSA-Consulere – Hermann Binkert, der diese Position seit dem 15. August 2011 inne hat, zuvor als Staatssekretär in der Thüringer Staatskanzlei gewirkt hat. Damals war Binkert auch noch CDU Mitglied.

Wie dem auch sei, INSA-Consulere hat eine Umfrage durchgeführt, zu der wir folgende Informationen erhalten:

  • Es wurden 2.187 Personen befragt.
  • Der Befragungszeitraum war vom 19. September bis zum 21. September 2015.

Die Menge der Befragten und die Kürze der aufgewandten Zeit verweisen auf eine telefonische Befragung, die aus nur wenigen Fragen bestanden haben kann.

Die Befragung hat Rauchen zum Gegenstand und scheint im Wesentlichen eine Itemskala umfasst zu haben sowie die Fragen nach Alter und Geschlecht der Befragten.

Die Itemskala lässt sich wie folgt rekonstruieren:

Stimmen Sie den folgenden Aussagen eher zu oder nicht zu?

  • Ich rauche Tabak auch wenn Kinder mit im Auto sitzen.
  • Ich kenne die gesundheitlichen Risiken, denen Kinder durch rauchende Erwachsene im Auto ausgesetzt sind.
  • Die Gesundheit lässt sich auch noch im hohen Alter durch regelmäßige Bewegung verbessern.

Als Antwortalternative hatten die Befragten dann offensichtlich die Möglichkeit „stimme zu“, „stimme nicht zu“ und „weiß nicht/Keine Angabe“ zu nennen.

Herauskommt, dass 89% meinen, sie würden die gesundheitlichen Risiken kennen, denen Kinder durch rauchende Erwachsene im Auto ausgesetzt sind und 4% der Aussage zustimmen, dass sie auch Tabak rauchen, wenn Kinder im Auto sitzen.

Und jetzt kommt Marlene Mortler und interpretiert:

scully facepalm„Die weit überwiegende Mehrheit der Raucher in Deutschland verhält sich heute vorbildlich und schützt nichtrauchende Mitmenschen. Doch rauchen immer noch Einzelne im Beisein von Kindern. In der aktuellen Umfrage gaben dies 4 Prozent der Befragten an. Es ist zu vermuten, dass die Dunkelziffer noch sehr viel höher ist. Insbesondere dann, wenn man weiß, dass in derselben Umfrage 11 Prozent angaben, nicht genügend über die Risiken informiert zu sein. So kann es nicht bleiben.“

Schon im ersten Satz liegt Marlene Mortler falsch, denn davon, dass INSA-Consulere ausschließlich Raucher befragt hat, kann keine Rede sein. Es finden sich keinerlei Anzeichen dafür, dass ausschließlich Raucher befragt wurden, was auch schwierig ist, da es sich um eine telefonische Befragung handelt und man der Telefonnummer nicht entnehmen kann, ob jemand raucht oder nicht raucht.

INSA-Consulere behauptet, eine repräsentative Umfrage durchgeführt zu haben, was, zusammen mit der ungewöhnlich hohen Fallzahl von 2.187 Befragten nur den Schluss zulässt, dass nicht nur Raucher befragt wurden, denn für Raucher sind keine sozialdemographischen Grunddaten verfügbar, die man nutzen könnte, um vermeintliche Repräsentativität zu errechnen.

Folglich hat INSA-Consulere nicht nur Raucher befragt.

Das macht die Antworten, die Marlene Mortler so erregen, unbrauchbar, denn was kommt wohl heraus, wenn man Raucher und Nichtraucher gleichermaßen fragt, ob sie der Aussage zustimmen, „Ich rauche Tabak auch wenn Kinder mit im Auto sitzen“? Es macht irgendwie keinen Sinn, Nichtrauchern diese Frage zu stellen, oder?

Und weil dem so ist, stellt sich die Frage, wer hier wen hinters Licht führen will – Marlene Mortler die Bevölkerung oder INSA-Consulere Marlene Mortler.

Betrachtet man die „detaillierten Ergebnisse“, die für die Studie zur Verfügung stehen, dann finden sich zu den einzelnen Abbildungen regelmäßig 2.187 Befragte als Basis. Entsprechend muss man davon ausgehen, dass Nichtraucher und Raucher in gleicher Weise mit den jeweiligen Fragen belästigt wurden und Marlene Mortler das entsprechend nicht verstanden hat, weil sie von Rauchern spricht, oder man es Marlene Mortler schlicht nicht gesagt hat.

Wie dem auch sei, die Umfrage ist schon als Junk-Umfrage qualifiziert, weil keinerlei Filter genutzt wird, um eine Frage, die nur Raucher betrifft auch nur Rauchern zu stellen (bzw. für den Juristen als Geschäftsführer, hilfsweise: die Umfrage ist schon deshalb Junk, weil an keiner Stelle Angaben dazu zu finden sind, wie viele Raucher sich überhaupt unter den Befragten finden (es müssen mindestens 127 gewesen sein).

Marlene Mortler macht in ihrer Pressemeldung drei Angaben zu Ergebnisse aus der vermeintlichen Szudie von INSA-Consulere, alle drei Angaben sind falsch.

Die Studie umfasst nicht nur Raucher, die 4% sind entsprechend nicht vier Prozent der Raucher, sondern 4% aller Befragten, was notwendiger Weise bedeutet, dass 4% der Befragten aber mehr als 4% der befragten Raucher im Auto rauchen wenn Kinder mitfahren.

insa consulere leereSchließlich sind es nicht 11%, die der Aussage „Ich kenne die gesundheitlichen Risiken, denen Kinder durch rauchende Erwachsene im Auto ausgesetzt sind“ nicht zustimmen, sondern 7%. Dass Mortler aus 7% 11% macht und Befragten, die der zitierten Aussage nicht zustimmen, unterstellt, sie seien „nicht genügend über die Risiken informiert“, kann nur auf die Dunkelziffer zurückzuführen sein, die es logisch und normal denkenden Menschen unmöglich macht, vermeintliche Gedankengänge von Politikern wie Mortler nachzuvollziehen. Wenn Marlene Mortler demnächst im Bundestag am Rednerpult steht und einem Einwurf aus den Reihen der Opposition nicht zustimmt, dann bedeutet das also nicht, dass Mortler nicht zustimmt, sondern dass sie nicht genügend informiert ist, um auf den Einwurf zu reagieren.

Kurz: Der Junk-Umfrage folgt eine Junk-Pressemeldung, die voller Fehler steckt und in der Marlene Mortler entsprechend Junk erzählt.

Dass die Mehrheit vernünftig ist, wie es in der Überschrift zu dieser Pressemeldung heißt, kann entsprechend nur auf die allgemeine Bevölkerung abzüglich all derer, die mit der Pressemeldung und der Umfrage befasst waren, bezogen sein.

INSA-Consulere will auf seiner Seite den Eindruck vermitteln, es handle sich dabei um ein weitverzweigtes Unternehmen mit den Sparten:

http://www.insa-meinungstrend.de/
http://www.50plus-studie.de/
http://www.insa-online.de/

Indes, keine der Seiten ist aktiv bzw. vorhanden, für alle Seiten ergibt sich die selbe Fehlermeldung, die Nutzern von Parallels Plesk Panel bestens vertraut sein dürfte:

Insa non consulere

Letztlich geht es bei derartigen Umfragen nicht darum, Ergebnisse zu erzielen, sondern darum, Legitimation für zukünftige Ausgaben zu beschaffen, mit denen z.B. eine Kampagne gegen das Rauchen im Auto oder das Verbot des Rauchens im Auto legitimiert werden soll. Es macht also nichts, dass die Ergebnisse aus einer Junk-Umfrage stammen und Mortler den Junk-Ergebnissen durch eine Junk-Interpretation weitere Gewalt antut. Die Junk-Umfrage ist vielmehr Teil eines sich selbst erhaltenden Systems, das der Finanzierung und dem Unterhalt von Nutznießer-Netzwerken aus Steuermitteln dient.