Bertelsmann-Studie: Zwei-Drittel der Deutschen sind totalitär und naiv

Man muss nicht nach dem Motiv oder der Intention der Verfasser fragen, wenn die Ergebnisse einer „Online-Panel-Befragung“, die seit 2015 in drei Wellen durchgeführt wurde, zeitlich so getaktet wurde, dass ein Ergebnisbericht kurz vor der Bundestagswahl bereit steht. Man muss schon deshalb nicht nach ihren Motiven fragen, weil der Ergebnisbericht mit „Die Stunde der Populisten?“ überschrieben ist. Man kann bereits hier feststellen, dass es nicht darum geht, wissenschaftliche Forschungsergebnisse zu präsentieren, sondern Nahrung für politische Kämpfer bereitzustellen, für all diejenigen, die (1) „Populismus“ täglich gebrauchen, (2) keine Ahnung haben, was der kognitive Gehalt von Populismus sein soll, was Populismus bedeutet und (3) den Begriff einzig wegen seiner affektiven, seiner affektiv-negativen Konnotation benutzen.

Dass Populismus von denen, die sich für die politischen oder irgendwelche Eliten in Deutschland halten als negativer Kampfbegriff benutzt wird, das wussten wir allerdings schon vor dem teuren Online-Panel der Bertelsmann-Stiftung. Dass Populismus vor allem benutzt wird, um die AfD und ihre Wähler zu bekämpfen, war auch bekannt. Was also ist der Zweck dieser neuen Studie? Der Zweck kommt bei der ARD eher unter der Hand mit: Populisten, das sind Ungebildete mit geringem Einkommen. Wer gebildet ist, kein geringes Einkommen hat und etwas vorstellen will, der ist kein Populist. Da Populisten vorzugsweise die AfD oder die LINKE wählen, sind beide Parteien als Parteien der Loser ausgezeichnet. Das sollte reichen, um die Mittelschicht von der Wahl der AfD abzuhalten. So wohl das Kalkül.

Ob dieses Kalkül aufgeht, ist letztlich eine Frage, deren Antwort davon abhängt, wie naiv Deutsche wirklich sind, wie viele Deutsche sich durch einen methodisch völlig unnötig aufgebauschten Ansatz täuschen lassen und wieder einmal der Behauptung, die Ergebnisse seien „repräsentativ“ auf den Leim gehen. Denn: Methodisch betrachtet ist die vorliegende Studie ebenso Junk, wie sie es inhaltlich ist.

So hat sich z.B. der Redakteur der Tagesschau, der die Studie beschreiben musste, ernsthaft bemüht zu verstehen, was die Bertelsmänner Robert Vehrkamp und Christopher Wratil da methodisch getrieben haben. Herausgekommen ist folgender Unfug:

„Um die Populismus-Neigung zu erfassen, haben die Forscher drei repräsentative Onlinebefragungen durchgeführt“ und:
„Infratest dimap befragte zwischen Juli 2015 und März 2017 dreimal jeweils mehr als 1600 Wahlberechtigte.“

Beides wird dem, was die Bertelsmänner getrieben haben, nicht gerecht. Die Bertelsmänner behaupten bekanntlich, sie hätten eine Online-Panel-Befragung durchgeführt. Panel ist die wissenschaftliche Bezeichnung für eine zu mehreren Zeitpunkten mit den selben Befragten durchgeführte Befragung. Die Bertelsmänner haben drei Wellen durchgeführt. In der ersten Welle (Juli 2015) wurden 1.049 Wähler und 1.052 Nichtwähler gezogen und befragt. Die Grundgesamtheit des Panels umfasst somit 2.101 Befragte. Natürlich ist diese erste Welle repräsentativ, obwohl es in der Bevölkerung nicht mehr als 50% Nichtwähler bei Bundestagswahlen gibt. Aber lassen wir den Bertelsmännern für den Moment die Einbildung, sie hätten zwei jeweils für sich repräsentative Teilstichproben gezogen, einmal für Wähler, einmal für Nichtwähler. Die zweite Welle des Panels fand im Juli 2016 statt. Die Idee bei einem Panel besteht nun darin, nach einiger Zeit, dieselben Personen zu befragen. Das ist die Theorie. In der Praxis gibt es Panelmortalität, d.h. von den 2.101 Befragten, die 2015 die Fragen beantwortet haben, beteiligt sich nur noch ein Teil an der zweiten Befragung. Den Bertelsmännern sind zwischen Juli 2015 und Juli 2016 417 Befragte oder 20% ihrer Grundgesamtheit abhanden gekommen. Sollte die erste Welle tatsächlich repräsentativ gewesen sein, so ist es die zweite nach einer Mortalität von 20% sicher nicht mehr. Für die dritte Welle, die seltsamerweise nicht im Juli 2017, sondern bereits im März 2017 durchgeführt wurde, weil man ansonsten die Ergebnisse nicht mehr vor der Bundestagswahl hätte präsentieren können, sind den Bertelsmännern dann nur noch 1.464 Befragte, also 70% ihrer Grundgesamtheit geblieben. Viel zu wenig, als dass man noch von einer repräsentativen Stichprobe ausgehen könnte. Also haben die Bertelsmänner die Stichprobe aufgefüllt, um weitere 907 Befragte, so dass die Grundgesamtheit nun 2.371 Befragte umfasst, die keinerlei Verbindung mehr zu der ursprünglichen Grundgesamtheit von 2.101 Befragten mehr aufweisen, da die 907 Neubefragten einfach aus dem Pool von Infratest-Dimap gezogen wurden. All die hehren Motive der ersten Welle, die die angebliche Repräsentativität gewährleisten sollen, haben sich also in Luft aufgelöst, angesichts der Notdurft, noch schnell vor der Wahl etwas über Populismus in die Medienlandschaft zu emittieren. Übrigens sind Wähler der AfD und der LINKE in der Befragung überrepräsentiert. Wir haben also eine vermeintlich repräsentative Grundgesamtheit mit einer Überrepräsentation von AfD-Wählern, LINKE-Wählern und Nichtwählern. Wie lange muss man deutschen Journalisten mit dem Begriff „Repräsentativität“ eigentlich vor der Nase wedeln, bevor sie bemerken, dass sie gerade in vollem Zaumzeug einen Manipulations-Karren durch die Landschaft ziehen?

Die Ergebnisse, die die Bertelsmänner nun „Als Stunde der Populisten“ verkaufen wollen, basieren auf den Angaben von nicht mehr als 3000 Befragten. Dennoch findet sich unter den Abbildungen, die im Bericht verteilt wurden, keinerlei Angaben zur Anzahl der Befragten, die in die jeweilige Abbildung eingeflossen sind. Statt dessen wird versucht, die Leser mit der Formulierung: „Grundgesamtheit: Wahlberechtigte deutsche Staatsbürger zum Zeitpunkt der Bundestagswahl 2013“ zu täuschen. Diese Aussage ist eine Lüge, denn (1) ist die Grundgesamtheit nicht die Grundgesamtheit aller wahlberechtigten deutschen Staatsbürger, eine solche Vollerhebung würde selbst die üppigen Finanzen der Bertelsmann-Stiftung überdehnen und wäre zudem technisch nicht durchführbar; (2) sind in der Grundgesamtheit 907 Befragte enthalten, die – weil 30% der ursprünglichen Befragten, die 2015 dass Panel konstituiert haben, sich nicht mehr am Panel beteiligt haben, kurzerhand aus dem Fundus von Infratest Dimap aufgefüllt wurden.

Die entsprechende Behauptung unter den Abbildungen ist eine Lüge, die Wissenschaftler früher aufgeregt hätte. Heute sind derartige Lügen wohl als Normalität anzusehen.

Methodisch betrachtet, ist der ganze Zinnober mit den drei Wellen des Panels vollkommen unnötig, denn die Ergebnisse werden als Querschnittsergebnisse, nicht als Längsschnittsergebnisse präsentiert (es gibt keinen Zeitverlauf), was den Verdacht nahelegt, dass durch die methodische Kanone, die hier aufgefahren wird, um auf journalistische Spatzen zu schießen, einzig dazu gedacht ist, Ehrfurcht vor den Ergebnissen zu verbreiten. Denn in Deutschland haben Journalisten Ehrfurcht vor dem, was prätentiös daherkommt, und was sie nicht verstehen. Sie halten derartigen methodischen Unfug dann für komplex. Außerdem steht empirische Sozialforschung im Verdacht, mit Zahlen zu operieren, was den Ehrfurchtsfaktor um den Faktor 10 erhöht und dazu führt, dass mit Sicherheit kein Journalist an dem Zinnober zweifelt und merkt, dass er hier von Bertelsmännern vorgeführt wird.

Wenn man Journalisten noch zugute halten könnte, dass sie methodische Illiteraten sind, wenn es um empirische Sozialforschung geht, so kann man ihnen nicht mehr zugute halten, dass sie sich einen totalitaristischen Entwurf als „Idelatypus“ unterschieben lassen und sich daran beteiligen, Teile der Bevölkerung als populistisch zu beschimpfen.

Damit sind wir bei der Frage: Wie wird Populismus eigentlich gemessen? Auch hier zeichnet sich die Studie der Bertelsmänner durch eine Mischung von unnötiger Verquasung und fast schon boshafter Interpretation aus, die bemerkenswert ist. Zunächst zur Verquasung: Acht Aussagen konstituieren Populismus. Vier dieser Aussagen sollen „den Gegensatz zwischen politischer Elite und Bürgern“ messen, vier Aussagen „Anti-Pluralismus … die Idee der Bürger als homogene Einheit“. Zudem sollen drei der acht Aussagen noch den „Wunsch nach direkter Volksherrschaft messen“. Eigentlich kann man den Junk nun ad acta legen, denn Sozialforscher, die offen zugeben, dass sie nicht wissen, was ihre Items (Aussagen) genau messen, flehen quasi darum, nicht ernstgenommen zu werden.

Ein ehernes Gesetz der empirischen Sozialforschung, dessen Nichtbefolgung den Mülleimer für die Ergebnisse zur Folge hat, hat die Eindeutigkeit der Frageformulierung zum Gegenstand. (1) Fragen oder Aussagen, die Befragten vorgelegt werden, dürfen nicht mehr als einen Stimulus enthalten, da man bei zwei Stimuli nicht weiß, worauf ein Befragter reagiert hat. (2) Fragen oder Aussagen, die Befragten vorgelegt werden, dürfen auf nur ein latentes Konzept verweisen, weil sonst nicht klar ist, was die entsprechenden Aussagen genau messen sollen. Vehrkamp und Wratil sagen ganz offen, dass drei ihrer acht Aussagen nicht eindeutig einer latenten Variablen zuordenbar sind. Mit anderen Worten, sie haben keine Ahnung, was sie da messen. Sie haben Junk produziert.

Soweit zu den methodischen Fehlern, nun zum Inhalt. Wie haben die Bertelsmänner „Populismus“ gemessen? Sie haben ihren Populismus über zwei latente Konzepte gemessen. Wir zitieren: „Im Zentrum dieser Populismus-Definition steht das ‚Volk‘ … und die Forderung nach seiner direkten und umittelbaren Herrschaft, der sogenannten Volkssouveränität“. Die Forderung nach Volkssouveränität ist also für die Bertelsmänner populistisch.

„Alle Staatsgewalt geht vom Volke aus“, so heißt es im populistischen Artikel 20, Absatz 2 des populistischen Grundgesetzes. Man muss somit folgern, dass Menschen, die auf die im Grundgesetz verankerte Volkssouveränität verweisen, von den Bertelsmännern als populistisch bezeichnet werden. Da dasselbe populistische Grundgesetz in seinem Artikel 20 Absatz 1 feststellt, dass Deutschland .. „ein demokratischer Bundesstaat“ sei, muss (transitiv) man weiter schließen, dass populistisch und demokratisch hier synonym benutzt werden, was für all diejenigen, die nicht populistisch sind, nur anti-demokratisch als Bezeichnung übrig lässt.

Ein weiterer Aspekt von Populismus, neben der demokratischen Haltung, so schreiben die Bertelsmänner, besteht in der Gegenüberstellung von Volk und wie sie schreiben „Elite“: „Populismus begreift gesellschaftliche Auseinandersetzungen als Konflikte zwischen ‚einem‘ guten Volk und dem ‚einen‘ korrupten Establishment“. Lassen wir die wenig zweckdienliche Bewertung, die die Bertelsmänner den Lesern hier unterschieben wollen, einmal außen vor, dann gehen Populisten davon aus, dass Politiker eigene Interessen haben, die nicht immer, wenn überhaupt, mit den Interessen derer, die sie vertreten, übereinstimmen. Insofern jede andere Ansicht, die man in der Terminologie von Vehrkamp und Wratil als Gegenüberstellung der „reinen politischen Elite“ und dem Volk beschreiben könnte, kaum anders als naiv zu nennen ist, denn die Vorstellung, die politische Kaste, die die Autoren in wilhelminischer Tradition als Elite bezeichnen, sei nur von dem selbstlosen Wunsch getrieben, die Interessen der Bevölkerung zu vertreten, der „einen Bevölkerung“, wie Vehrkamp und Wratil schreiben, ist an Naivität nicht mehr zu übertreffen. Entsprechend muss man feststellen, dass alle, die sich in der Befragung der Bertelsmänner nicht als populistisch erwiesen haben, anti-demokratische Naivlinge sein müssen. Die gute Nachricht für Deutsche: Die Menge der anti-demokratischen Naivlinge ist kleiner als von den Bertelsmännern behauptet. Letztlich beruht die Einstufung von Befragten als Populist nämlich auf einer Skala von 0 bis 32, die sich als Ergebnis der Bildung eines summarischen Index‘ über die acht Aussagen ergibt. Normalerweise teilt man eine solche Skala in der Mitte, addiert eine Einheit und sagt, alle Befragten, die 17 und mehr Punkte erreichen, werden von uns als populistisch klassifiziert. Die Bertelsmänner klassifizieren Befragte erst ab 21 Punkten als populistisch. Warum? Fragen Sie die Bertelsmänner.

Damit wollen wir es jedoch nicht bewenden lassen, denn die Frage, was denn Populismus sein soll, ist nach wie vor nicht beantwortet. Wie Populismus technisch zusammengerechnet wurde, haben wir dargestellt, aber nicht, aus welchen Aussagen er zusammengerechnet wurde. Hier die Acht Items, denen Befragte voll oder eher zu- bzw nicht zustimmen konnten.

  • „Die Bürger sind sich oft einig, aber die Politiker verfolgen ganz andere Ziele.“

Wenn man diese Aussage als Indikator für Populismus benutzen will, dann muss man ab jetzt jeden Politiker, der sich auf eine Mehrheit von Befragten in einer beliebigen Umfrage bezieht, um seine Position zu stützen als populistisch bezeichnen.

  • „Mir wäre es lieber, von einem einfachen Bürger politisch vertreten zu werden als von einem Politiker.“

Diese Aussage diskreditiert sich von selbst, soll den Befragten doch untergeschoben werden, dass Politiker mehr als einfach Bürger seien, etwas Besseres. Das ist unlauter und ein Fall für eine Ethikkommission, die die Bertelsmänner aber nicht haben.

  • „Die Parteien wollen nur die Stimmen der Wähler, ihre Ansichten interessieren sie nicht.“

Das wiederum ist Gegenstand einer wohl begründeten und gut geprüften Theorie. Anthony Downs hat sie als Ökonomische Theorie der Demokratie entwickelt. Gordon Tullock und James M. Buchanan haben die Theorie weiterentwickelt und im Rahmen ihres Public Choice Ansatzes mehrfach bestätigt.

  • „Die politischen Differenzen zwischen den Bürgern und Politikern sind größer als die Differenzen der Bürger untereinander.“

Das ist eine empirische Frage, die bislang noch niemand untersucht hat. Was an der Zustimmung zu einer Frage, deren Antwort niemand kennt, populistisch sein soll, ist unklar. Wer diese Frage jedoch als Beleg für Populismus wertet, der zeigt damit, dass er eine naive Vorstellung von Demokratie verinnerlicht hat, wie sie einst Charles Taylor in seiner normativen Theorie der Demokratie verewigt hat. Normativ bezieht sich auf das Sollen, nicht auf das Sein.

  • „Wichtige Fragen sollten nicht von Parlamenten, sondern in Volksabstimmungen entschieden werden.“

Das ist eine Frage des demokratischen Verständnisses. Es gibt eine Vielzahl von Arbeiten zu den Vorteilen direkter Demokratie. In keiner davon, wird versucht direkte Demokratie als Populismus zu verunglimpfen. Aber es ist interessant zu wissen, dass die Bertelsmänner die Schweiz als populistisches Land ansehen.

  • „Die Politiker im Bundestag sollten immer dem Willen der Bürger folgen.“

Artikel 20 Absatz 2 ist unmissverständlich: „Alle Staatsgewalt geht vom Volke aus.“ Wenn die Bertelsmänner hier allen Ernstes einer Staatsform das Wort reden sollen, bei der Wähler als Legitimationsvieh ihre Stimme in Urnen werfen und Politiker anschließend nach Gusto schalten und walten, dann erweisen sie sich als Anhänger von mindestens Autoritarismus wenn nicht Totalitarismus.

  • „Die Bürger in Deutschland sind sich im Prinzip einig darüber, was politisch passieren muss.“

Was diese unsinnige Aussage messen soll uns nicht klar. Uns ist jedoch klar, dass auch dann, wenn man Befragten eine unsinnige Aussage vorlegt ein Teil der Befragten eine Angabe machen wird. Und da uns die Bertelsmänner verschweigen, wie viele Befragte keine Angabe zu ihren Aussagen gemacht haben, ist es möglich, dass es gelungen ist, die Mehrzahl der Befragten auch dazu zu bewegen, zu einer unsinnigen Aussage eine Angabe zu machen.

  • „Was man in der Politik „Kompromiss“ nennt, ist in der Wirklichkeit nichts Anderes als ein Verrat der eigenen Prinzipien.“

Nun, wie soll man es den Bertelsmännern beibringen? Brachial! Das stimmt. Wenn ein Fleischesser und ein Veganer in ein Restaurant gehen, dann wird es keinen Kompromiss dahingehend geben, dass der Veganer ein wenig Fleisch isst. Tut er es, dann ist er kein Veganer. Wer Prinzipien hat, kann keine Kompromisse im Hinblick auf diese Prinzipien schließen. Wer aus z.B. einem religiösen Prinzip gegen die Einführung einer Ehe für alle ist, kann dahingehend keinen Kompromiss schließen. Dass unsere Aussagen zutreffen, zeigt sich schon daran, dass im Bundestag nach wie vor abgestimmt wird. Das wäre sicher nicht notwendig, wenn man es nur mit prinzipienlosen Kompromisshanseln zu tun hätte.

Die Fragen zeigen letztlich die Armut empirischer Sozialforschungsversuche, die betrieben werden, um Befragte zu diskreditieren bzw. Befragten die eigenen Wertungen unterzuschieben. Empirische Sozialforschung ist jedoch weder ein Legitimationsbeschaffungsinstrument für Politiker noch ein Vehikel, das man einsetzen kann, um Befragte zu diskreditieren. Es ist eine Technik, um Forschungsfragen zu beantworten.

Ah, Forschungsfrage.
Was war noch einmal die Forschungsfrage der Bertelsmänner, die so schnell beantwortet werden musste, dass die dritte Welle ihres Online-Panels um vier Monate nach vorne verlegt und die Tatsache, dass es sich um Paneldaten handelt, bei der nachfolgenden Auswertung schlichtweg ignoriert wurde?

Politische Arschkriecherei?
Speichellecken?
Politisches Andienen?

Es entbehrt nicht einer gewissen Ironie, dass Robert Vehrkamp, einer der beiden Autoren, ausgerechnet Direktor im Programm “Zukunft der Demokratie” der Bertelsmann-Stiftung ist. Welche Zukunft der Demokratie von hier droht, kann man sich nach der Analyse oben ausmalen. Aber vielleicht steht es um die Zukunft der Demokratie ja immer noch besser als um die Zukunft der empirischen Sozialforschung.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Haters gonna hate und Spinners gonna spin

Beim Gunda-Werner-Institut, dem Feminismus- und Geschlechter-Ableger der Heinrich-Böll-Stiftung hat die Technik Einzug gehalten. Scheinbar gibt es einen Praktikanten, der von HTML und Java-Script ein wenig versteht und deshalb gibt es bei der Stiftung eine Online-Umfrage, eine Online-Umfrage zum Thema „Hasskommentare“.

Welch‘ anderes Thema als „Hasskommentare“ könnte man bei der Gunda-Werner-Stiftung schon bearbeiten wollen?

Schnell hill esserWo früher Studenten in Methodenvorlesungen geschwitzt und versucht haben, die Kunst der empirischen Sozialforschung zu erlernen, da denkt heute jeder dahergelaufene Hempel, er könne selbst eine Umfrage machen, eben einmal drauflos fragen, so wie beim Gunda-Werner-Institut, bei dem man die Umfrage zu Hasskommentaren offensichtlich benötigt, um das zu bestätigen, was die Gundas sowieso schon wissen:

“Hasskommentare sind in Deutschland ein Tatbestand des Strafrechts, auch im Internet. Trotzdem werden sie kaum geahndet. Allzu oft antworten Polizei oder Staatsanwaltschaft auf Anzeigen mit „Täter*innen nicht ermittelbar“. Betroffen sind diejenigen, die ohnehin Diskriminierungserfahrungen machen: Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“

Das ist der erste Absatz auf der Umfrage-Seite der Gundas. Der Absatz erweckt den Eindruck, dass längst bekannt sei, wer Opfer und Täter von Hasskommentaren sind, wie viele davon es gibt, was Hasskommentare überhaupt sein sollen usw. Drei Absätze weiter sind die Gundas dann plötzlich auf dem Boden der Realität, sie, die eben noch genau wussten, dass es „Frauen* und/oder rassifizierte Menschen, Menschen mit Behinderung, jüdische Menschen, LGBTIQ…“ sind, die Opfer von Hasskommentaren werden, sie schreiben nun in einem beispiellosen Akt des Selbst-Widerspruchs innerhalb von zwei Absätzen:

“Bislang mangelt es an verlässlichen Daten zu Täter*innenprofil, den betroffenen Diskussionsteilnehmer*innen und den Auswirkungen auf das Verhalten im Netz.“

Es gibt eben Dumme und die Gundas. Die Gundas, die wissen alles über etwas, von dem sie selbst sagen, dass sie nichts davon wissen. Besser kann man die eigene Beschränktheit eigentlich nicht auf den Punkt bringen. Aber weil das noch nicht reicht, demonstrieren die Dilettanten in empirischer Sozialforschung gleich noch mit einer einzigen Abbildung, dass sie zu den absoluten Ahnungslosen auf dem Gebiet der empirischen Sozialforschung gehören.

Gunda spins

Die Abbildung ist vollkommen wertlos, denn es fehlt jede Angabe zur Grundgesamtheit. Ohne diese Angabe machen Prozentangaben aber keinen Sinn. Besonders lustig ist die Überschrift „repräsentative Ergebnisse“. Wir halten zwar nicht viel von Repräsentativität, aber diejenigen, die sich seit Jahren bemühen, mit Auswahlverfahren, Gewichtungsverfahren und allerlei mathematischen Verrenkungen sicherzustellen, dass die Befragten, die sie zusammen bekommen haben, repräsentativ für die Gesamtbevölkerung sein sollen, nicht einmal sie haben verdient, dass die Gundas auf ihrem Zug Trittbrett fahren, die Gundas, die denken, man macht eine Umfrage, sammelt die Antworten, prozentuiert und schreibt „repräsentatives Ergebnis“ darüber.

Und natürlich, daran haben wir keinen Zweifel, wird es eine ganze Reihe von Journalisten, die so ungefähr dasselbe intellektuelle Niveau erreicht haben, wie die Gundas, geben, die die Ergebnisse für bare Münze, für repräsentative bare Münze nehmen.

Schuster, bleib‘ bei Deinen Leisten, können wir nur sagen und die Gundas zurückschicken, zu dem, was sie können. Was war das noch einmal? Kochen? Nein, kochen war es wahrscheinlich auch nicht?

Test: Wie leicht lassen Sie sich vom BMFSFJ manipulieren?

Soziale Netzwerke liegen Politikern und Ministerien ja bekanntlich besonders am Herzen (oder im Magen). In sozialen Netzwerken, so hört man, gibt es Hate Speech, es werden Lügen verbreitet, Gerüchte hochgekocht, es wird manipuliert und getäuscht, dass sich die Balgen bieten. So jedenfalls die Folklore, die Politiker verbreiten. Und weil sie die ersten zu sein scheinen, die an ihre eigene Folklore glauben, deshalb treten manche von ihnen, allen voran das Propaganda-Ministerium, das angeblich auch etwas für Familie, Senioren und Jugendliche tut, in sozialen Netzwerken an, um deren Nutzer zu täuschen und zu indoktrinieren.

Testen Sie sich: Wie schnell gehen Sie dem BMFSFJ auf den Leim? Wie leicht sind Sie zu indoktrinieren und zu manipulieren?

Derzeit verbreitet man aus den Hallen des Ministeriums die folgende Meldung:

 

Nun, was haben Sie gedacht, was die Meldung aussagt? Dass 89% der Deutschen der Ansicht sind, dass Frauen schlechter bezahlt werden als Männer? Wenn ja, dann hat die Indoktrination bei Ihnen geklappt, und die Manipulation gleich mit, denn die Abbildung basiert auf der folgenden Frage, die Infratest Dimap im Rahmen einer Befragung gestellt hat, die bislang noch nicht veröffentlicht wurde, vermutlich damit niemand derjenigen, die den Suggestiv- bzw. Falschmeldungen des Ministeriums auf den Leim gegangen sind, merken, dass sie dem Ministerium auf den Leim gegangen sind.

Die Frage, auf der die Meldung oben basiert, lautet:

“Bekommen in Deutschland Frauen und Männer alles in allem den gleichen Lohn für die gleiche Arbeit?”

framingScheinbar teilt man bei Infratest dimap nicht den Hang des Ministeriums, Bürger zu manipulieren und hat eine Frage gestellt, die aus methodischen Gesichtspunkten unsinnig ist und die entsprechend nur nutzbar ist, wenn man eine Ideologie an die Frage heranträgt. Denn: Als Forscher, der diese Frage vor sich hat, weiß man nicht, was die Antworten auf diese Frage aussagen: Bedeutet eine Zustimmung zu dieser Aussage, dass der Zustimmende der Ansicht ist, Männer werden nicht entsprechend ihren Leistungen bezahlt, was angesichts der Bevorzugung von Frauen im Rahmen des Staatsfeminismus eine Möglichkeit ist? Oder bedeutet die Zustimmung zu dieser Aussage, dass Befragte der vergangenen Indoktrination des BMFSFJ so auf den Leim gegangen sind, dass sie denken, Frauen würden für die gleiche Arbeit mit einem geringeren Lohn entlohnt?

Wir werden es nicht erfahren, denn die Befragten können nicht nachträglich befragt werden, was sie eigentlich gemeint haben, als sie die Frage beantwortet haben. Entsprechend können 88% der 89% der Meinung sein, Männer erhalten für die gleiche Arbeit nicht den gleichen Lohn wie Frauen. Es kann auch sein, dass 45,67% denken, Frauen würden bei gleicher Arbeit mit weniger Lohn nach Hause geschickt.

Die Frage ist absoluter Junk. Sie ist nicht verwendbar. Es sei denn, man ist gar nicht an der Frage und dem Ergebnis der Befragung interessiert, sondern lediglich daran, Material zu haben, um die eigene Ideologie zu verbreiten und andere zu manipulieren. Da das BMFSFJ munter verbreitet, kann man davon ausgehen, dass dort Letzteres der Fall ist und die Bezeichnung „Propagandaministerium“ eine sehr passende Bezeichnung ist.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Nationalismus: infantiler Kampfbegriff

Plastikwörter nennt Uwe Pörksen jene Bestandteile der deutschen Sprache, die allgegenwärtig zu sein scheinen, ständig benutzt werden und von denen dennoch kaum bekannt ist, was sie eigentlich bezeichnen. Solidarität ist ein solches Wort. Nationalismus ein anderes.

Poerksen PlastikwoerterNationalismus und Solidarität, sie wirken nicht über ihren Inhalt, sondern über die Vorstellung, die man damit verbindet. Solidarität, der Begriff, den Linke so gerne im Mund führen, er zeigt an, dass man gut ist, solidarisch eben. Solidarisch sein ist kein Problem. Es bedarf einer verbalen Bekundung, zuweilen auch eines kleinen Spaziergangs durch ein paar Straßenzüge. Mehr nicht. Solidarisch kann man anstrengungslos sein.

Nationalismus wirkt auf der affektiven Ebene ähnlich, jedoch ist sein affektiver Gehalt umstritten, d.h. eigentlich ist er nicht umstritten, denn Nationalismus ist böse. Das scheint die Losung zu sein, die für den öffentlichen Diskurs an Medien aller Art ausgegeben wurde. Die entsprechende Umsetzung reicht von dem Motto „Deutschland, Du mieses Stück Scheiße“, über die absurde Verbindung von Deutschlandfahnen und Nationalismus bis zur Bezeichnung der AfD als nationalistische Partei.

Jenseits des Versuches, Worte nicht mehr über ihren semantischen Gehalt, sondern über ihre affektive Ladung zu definieren, stellen wir hier einmal die Frage: Wir wird Nationalismus definiert?

Die erste Antwort, die noch wenig über den Inhalt von Nationalismus aussagt, sie lautet: Nationalismus ist eine latente Variable. Denn: offensichtlich gibt es Nationalismus nicht bei Lidl zu kaufen, man kann ihn nicht trinken, nicht verdauen, man kann ihn nicht abwiegen oder als Ablagerung im Herzen eines Menschen feststellen. Nationalismus ist schlicht nicht existent in der materiellen Welt. Nationalismus ist ein ideelles Konzept, das, wie Gott oder die Wirkung von heilenden Steinen davon lebt, dass man daran glaubt.

Nun gibt es Sozialwissenschaftler, die angetreten sind, Nationalismus dingfest zu machen, also den Glauben an Nationalismus, wie ihn ein Teil der Bevölkerung haben mag. Zu diesem Zweck wird Nationalismus zunächst einmal als Verbundenheitsgefühl mit der eigenen Nation bestimmt. Das macht ihn nicht greifbarer, aber es macht ihn operationalisierbar, denn von einem Verbundenheitsgefühl kann man sich überlegen, wie es sich äußert und auf welche Objekte es sich richtet. Matthias Mader hat sich dies in einem Beitrag für die Kölner Zeitschrift für Soziologie und Sozialpsychologie überlegt und ist zu dem Ergebnis gekommen, dass es eine Reihe von Objekten und Verbundenheit auslösenden bzw. ausdrückenden Indikatoren gibt.

Diese hier:

  1. Stolz auf die Art und Weise, wie die Demokratie funktioniert.
  2. Stolz auf die sozialstaatlichen Leistungen in Deutschland.
  3. Stolz auf die gerechte und gleiche Behandlung gesellschaftlicher Gruppen.
  4. Wichtig für Deutschsein: In Deutschland geboren.
  5. Wichtig für Deutschsein: Kenntnis der Sitten und Gebräuche.
  6. Wichtig für Deutschsein: Vorzug für deutsche Filme im Fernsehen.
  7. Wären Menschen in anderen Ländern wie Deutsche, die Welt wäre besser.
  8. Deutschland ist ein besseres Land als andere Länder.

Finden Sie sich wieder, als Nationalist?

Tatsächlich finden sich oben drei Dimensionen von Nationalismus: 1-3 stellen die Operationalisierung von patriotischem Nationalstolz dar. Da sich dieser Nationalstolt auf die Demokratie richtet oder den Sozialstaat, wird er von Mader positiv bewertet. Anders die folgenden beiden Dimensionen. 4-6 sind Ausdruck einer völkisch-kulturalistischen Haltung und entsprechend … Na? Negativ. Richtig. Das Adjektiv „völkisch“ bringt das Negative deutlich zum Ausdruck. Schließlich findet sich in 7 und 8 reiner Chauvisnismus, wie Mader befindet, denn wer denkt, ein deutsches Wesen ist anderen überlegen, ist ein Chauvinist, ein deutscher Chauvinist.

Die drei Dimensionen von Nationalismus machen mehrerlei deutlich: Zum einen ist Stolz nur im Hinblick auf das erlaubt, was unter Leuten, die einer bestimmten ideologischen Ausrichtung angehören, positiv besetzt ist: Demokratie, Sozialsysteme und Gleichheit, zum anderen ist es aus dieser ideologischen Ecke heraus undenkbar, dass man aus anderen als niederen Motiven der Ansicht sein könnte, in Deutschland geboren zu sein, deutsche Sitten und Gebräuche zu kennen oder wertzuschätzen, sei für die Bestimmung „deutsch“ wichtig oder dass es tatsächlich jemanden geben könnte, der deutschen Filmen im Fernsehen den Vorzug geben will (so unwahrscheinlich es auch ist). Entsprechend steht die Bewertung dessen, was man messen will, am Anfang der Messung, was deutlich zeigt: Hier wird nicht das Konzept des Nationalismus operationalisiert, hier werden die eigenen Stereotype und Bewertungen davon, was Nationalismus sein soll, operationalisiert – damit Nationalismus aus der eigenen ideologischen Ecke heraus negativ bewertet werden kann.

Hätte ein Angehöriger eines anderen ideologischen Lagers versucht, Nationalismus zu operationalisieren und messbar zu machen, er wäre zu gänzlich anderen Indikatoren gelangt und zu einer gänzlich anderen Bewertung der entsprechenden Indikatoren.

Ergo ist Nationalismus ein Konzept, das man nicht (mehr) deskriptiv fassen kann. Sofern es jemals ein deskriptives und damit ein nützliches Konzept war, hat es in der öffentlichen Diskussion der letzten Jahre solchen Schaden genommen, dass man es nicht mehr verwenden kann, es sei denn, man verfolgt als Wissenschaftler keine deskriptive, sondern eine normative Zielsetzung, will also nicht Forschen was ist, sondern entweder beklagen, was ist oder vorgeben, was sein soll. Weder das Beklagen von Zuständen noch die Normierung dessen, was sein soll, ist Wissenschaft. Ersteres gehört in den Bereich von Ideologie und Politik und, Letzteres ist reine Ideologie.

Entsprechend kann man zu keinem anderen Urteil als dem kommen, dass Nationalismus, wie viele andere Begriffe, z.B. der Begriff der Solidarität oder der Begriff der sozialen Gerechtigkeit, nurmehr politischer Kampfbegriff ist, der keinerlei sinnvolle inhaltliche Bestimmung mehr erfahren kann. Er gehöret in den Bereich der Wortmagie, denn diejenigen, die sie verwenden, hoffen, bei den Adressaten entweder panisches Erschrecken oder verbale Liebkosung auszulösen. Da die Kommunikation unter Erwachsenen eine Argumentation bzw. den Austausch von Begriffen mit einem kognitivem Gehalt voraussetzt, ist die weite mediale und vermeintlich wissenschaftliche Verwendung der entsprechenden Plastikwörter oder Kampfbegriffe – wie Nationalismus oder Solidarität – nichts anderes als ein neuerlicher Beleg für die Infantilisierung der deutschen Gesellschaft.

Mader, Matthias (2016). Stabilität und Wandel der nationalen Identität in der deutschen Bevölkerung. Kölner Zeitschrift für Soziologie und Sozialpsychologie. Online Publication.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

N24-EMNID-Junk-Umfrage: 56% wollen mit Linksautonomen verhandeln -> Papierkorb

Derzeit wird von N24 das Ergebnis einer Umfrage, einer N24-Emnid-Umfrage verbreitet, die sich mit „den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße in Berlin“ beschäftigt.

Die N24-Emnid-Umfrage ist ein Lehrstück in versuchter Manipulation.

1000 Personen will Emnid am 12. Juli befragt haben, per Telefon wie zu vermuten steht und natürlich ist die Umfrage repräsentativ. Was sonst sollte sie sein? Sie muss repräsentativ sein, denn wer interessiert sich für die Meinung von 1000 Insassen des Irrenhauses in Fallingbostel? Aber natürlich wurden keine 1000 Insassen eines Irrenhauses befragt. Zumindest hoffen wir, dass sie nicht befragt wurden. Wir müssen hoffen, denn wer die 1000 Befragten sind, die Emnid da am 12. Juli angerufen haben will – wir wissen es nicht.

Statt dessen wird eine Pressemeldung verbreitet, für die Leichtgläubigen in den Redaktionen, die voller Auslassungen und Manipulationsversuche steckt.

framingEs beginnt bereits mit der Überschrift Umfrage „zu den gewalttätigen Ausschreitungen rund um das linksautonome Wohnprojekt Rigaer Straße“, eine Meisterleistung in Sachen Euphemismus, mit dem die Tatsache verwischt wird, dass es sich um Gewalttaten, um Steine, Flaschen und Feuerwerkskörper handelt, die von den Bewohnern der Rigaer Straße und ihren Fans auf Polizisten geworfen wurden. Bei N24 und Emnid werden daraus Ausschreitungen „rund um [ein] Wohnprojekt“, die nicht weiter zuordenbar sind.

Was soll man, angesichts eines solche Rahmens von den Antworten auf die folgenden Fragen erwarten, die Befragte innerhalb eines suggestiven Rahmen geben, der gaukelt, die Ausschreitungen hingen irgendwie mit einem Wohnprojekt zusammen, wo doch die Bewohner des nämlichen Projekts und ihre Fans diejenigen sind, die die Ausschreitungen begonnen und zu verantworten haben. [Ob es ein Zufall ist, dass mit dem Begriff der Ausschreitungen ein Begriff gewählt wurde, der im Zusammenhang mit Fußballspielen Verwendung findet, sei einmal daher gestellt.]

Wenn man Befragten suggeriert, dass die Schuldfrage nicht eindeutig geklärt werden kann, weil die Ausschreitungen eben nicht auf bestimmte Verursacher zurückführbar seien, sondern nur einem „Umfeld“ “rund um ein Wohnprohjekt” zuordenbar seien, dann folgt daraus ein positiver Bias, eine positive Programmierung der meisten Befragten. Dieser bias wirkt sich so aus, dass mehr Befragte einem Dialog zustimmen, als ihn ablehnen. Wie man Befragte mit positiven oder negativen Suggestionen und Rahmen perfekt leiten kann, das haben Amos Tversky und Daniel Kahneman in einer Vielzahl von Studien meisterhaft gezeigt.

N24Emnid-ManipulationIm vorliegenden Fall führt die Manipulation dazu, dass 56% mit „gewaltbereiten Linksautonomen Gespräche führen wollen“ und 34% dafür votieren, dass mit „polizeilicher Härte gegen Linksradikale“ vorgegangen wird. Man fragt sich, angesichts solcher Ergebnisse, was die bei Emnid da eigentlich gefragt haben, ob sie tatsächlich einmal von Linksautonomen und einmal von Linksradikalen gesprochen haben. Was auch immer Emnid gefragt hat, es war Unsinn, denn 6% sind dafür, mit den Linksradikalen Gespräche zu führen und gleichzeitig mit polizeilicher Härte gegen sie vorzugehen. Warum auch nicht.

Die vielfältigen Manipulationsversuche, die sich derzeit in Medien finden, wenn es um die Rigaer Straße 94 in Berlin geht, lassen nur den Schluss zu, dass

Kriminalität, dann, wenn sie von Linksradikalen, Linksautonomen oder Links- was auch immer ausgeht, geadelte und zu rechtfertigende Kriminalität ist.

So wie man im Dritten Reich Verständnis für die kleinen Eskapaden der SA (1933-1934) hatte, so hat man sie heute, für die kleinen Eskapaden der Linksautonomen, Linksradikalen … – man kann richtig nachvollziehen, wie sich bei Journalisten die Finger sträuben, von Linksextremen zu schreiben und damit die Kriminellen aus Berlin als das zu bezeichnen, was sie sind.

Was die Umfrage von N24-Emnid angeht, so ist sie nicht nur wegen der suggestiven Art und Weise, in der die Umfrage geführt wurde, ein Fall für den Mülleimer, sie ist es auch wegen einer Reihe von Auslassungen, die man anhand der folgenden Fragen darstellen kann:

  • Auf welche Basis beziehen sich die Prozentangaben?
  • Welche Fragen wurden den Befragten genau vorgelegt?
  • Welche Antwortalternativen wurden den Befragten gegeben?
  • Von wann bis wann fand die Befragung statt?
  • Welche sozio-demographischen Merkmale haben die Befragten, die an der Befragung teilgenommen haben?

Die Auslassungen sind erheblich und man muss sich fragen, warum die Ergebnisse von N24-Emnid verbreitet werden, ohne diese grundlegenden Fragen zu beantworten. Als Antwort bieten sich zwei Möglichkeiten an: (1) Unkenntnis der Methoden empirischer Sozialforschung, (2) Versuch, die Öffentlichkeit mit Ergebnissen einer suggestiven Befragung zu manipulieren. In beiden Fällen handelt es sich um eine Junk-Umfrage, die in den Papierkorb geworfen werden muss.

Das wird sie natürlich nicht. Vielmehr kann man vorhersagen, dass sich Mainstream-Medien auf die Ergebnisse der Umfrage stürzen werden. Sie werden sich deshalb drauf stürzen, weil (1) die Unkenntnis über die Methoden empirischer Sozialforschung in den Redaktionen weit verbreitet ist, (2) die Unkenntnis darüber, was ein Prozentwert ausdrückt, in den Redaktionen fast noch weiter verbreitet ist und (3) die ideologische Passung des Ergebnisses mit dem ideologischen Klima der meisten Redaktionen einfach zu groß ist, als dass man auf Kleinigkeiten wie Manipulation und Auslassung bei der Umfrage oder Zweifel an deren Reliabilität und Validität Rücksicht nehmen müsste.


Haben Sie Fragen oder Anregungen?
Kontaktieren Sie uns

ScienceFiles ist ein Non-Profit-Blog. Damit wir unser Angebot aufrechterhalten und vielleicht sogar ausbauen können, benötigen wir Ihre Unterstützung
durch eine Spende (via Paypal) durch eine Spende (via Banküberweisung) als ScienceFiles-Clubmitglied
  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise
Translate »
error: Content is protected !!
Skip to toolbar