Der Repräsentativitäts-Hoax: „Hohe Wertschätzung der ARD-Familie“

Wir haben schon an anderer Stelle darauf hingewiesen, dass die Behauptung, man könne repräsentative Querschnitte im Rahmen einer Meinungsbefragung ziehen und auf Grundlage von 1000 bis 2000 Befragten auf die Gesamtbevölkerung hochrechnen, Unsinn ist.

Repräsentativität ist ein Hoax.

Wozu der Hoax inszeniert wird, kann man leicht sehen, wenn man sich fragt, wem er nutzt.

  • Den Meinungsforschungsinstituten:

Wenn Sie ihre vermeintlichen Ergebnisse nicht als „für die Bevölkerung ab 14 Jahre repräsentativ“ verkaufen könnten, wäre die Nachfrage ziemlich mau.

  • Den Kunden von Meinungsforschungsinstituten:

Angeblich repräsentative Umfragen werden regelmäßig zur Legitimation benutzt.

  • Von Politikern, die damit Rückhalt für ihre Politik in der Bevölkerung vortäuschen wollen (oder die den Meinungsforschern auf den Leim gehen).
  • Von Funktionären, die für ihre „repräsentative Arbeit“ öffentliche Förderung aus den Mitteln von Steuerzahlern erheischen wollen;
  • Von Lobbyisten, die mit angeblich repräsentativen Umfragen die Legitimität ihres Anliegens belegen wollen, das dem Zweck dient ihnen und ihrer Klientel einen Vorteil auf Kosten der Allgemeinheit zu verschaffen;
  • Von öffentlich-rechtlichen Anstalten, die damit ihre Reichweite, ihre Akzeptanz und ihre angebliche Wertschätzung durch ihre Konsumenten belegen wollen, um die Preise für Webeplätze in die Höhe zu treiben oder hoch zu halten;

Die Liste derer, die angeblich repräsentative Umfragen benutzen, um ihre eigenen Zwecke zu fördern ist lang, sehr lang. Meinungsumfragen sind ein Geschäft, das Umsätze von mehreren Milliarden Euro umfasst. Schon aus diesem Grund, wird jede Kritik an Repräsentativität unterdrückt oder ignoriert.

Warum ist es nicht möglich eine repräsentative Meinungsbefragung durchzuführen?

Nehmen wir ein aktuelles Beispiel. Der Bayerische Rundfunkt als Teil der ARD hat bei GfK (Gesellschaft für Konsumforschung) in Nürnberg eine „repräsentative Befragung“ bestellt, die die Reichweite der ARD und die Akzeptanz der eigenen Programme abbilden soll.

Erhalten hat der Bayerische Rundfunk die Ergebnisse einer Befragung von „1.502 Personen im Alter ab 14 Jahren“, die vom “11. Januar bis 14. Februar 2018” befragt wurden: Die Befragung erfolgt telefonisch. Die Auswahl der Befragten erfolgte durch eine „repräsentative Zufallsauswahl“.

Es hat sich eingebürgert, ein paar magere technische Details in pompöser Sprache am Ende der angeblich repräsentativen Befragungen zu veröffentlichen. Das, so die Idee dahinter, mache die Ergebnisse glaubwürdiger.

Die Ergebnisse sind glaubwürdig, so lange man sich nicht fragt, was da eigentlich gemacht wurde.

Was zum Beispiel ist eine repräsentative Zufallsauswahl?

In einem beliebigen Lehrbuch zu den Methoden der empirischen Sozialforschung kann man Folgendes zu einer einfachen Zufallsauswahl lesen, denn die repräsentative Zufallsauswahl gibt es nicht, es gibt nur unter ganz spezifischen und eng umrissenen Bedingungen die Chance, dass eine Zufallsauswahl repräsentativ ist. Tatsächlich ist die repräsentative Zufallsauswahl in den meisten Fällen eine „einfache Zufallsauswahl“.

“Wird aus einer Grundgesamtheit mit N Elementen eine Stichprobe mit n Elementen so gezogen, dass jede mögliche Stichprobe mit n Elementen dieselbe Chance zur Realisierung besitzt, dann wird das Auswahlverfahren als “einfache Zufallsstichprobe” (simple randam sample, bzw. SRS) bezeichnet. Bei einer exakt definierten Grundgesamtheit existieren nur begrenzt viele mögliche unterschiedliche Stichproben. Angenommen eine ‘Grundgesamtheit’ besteht aus vier Elementen A, B, C und D. Soll aus dieser Grundgesamtheit eine Zufallsstichprobe mit nur zwei Elementen gezogen werden, so gibt es nur sechs verschiedene mögliche Stichproben {AB}, {AC}, {AD}, {BC}, {BD}, {CD}. Bei einer einfachen Zufallsauswahl besitzt jede dieser möglichen Stichproben die gleiche Wahrscheinlichkeit tatsächlich gezogen zu werden. Ebenso besitzt jedes Element der Grundgesamtheit dieselbe Chance in eine bestimmte dieser Stichproben zu gelangen. Durch die Ziehung wird eine der möglichen Stichproben realisiert. Eine einfache Zufallsstichprobe weist unter anderem die Eigenschaft auf, dass alle Elemente einer Grundgesamtheit dieselbe Chance besitzen, in die Stichprobe zu gelangen. Eine andere Eigenschaft einer einfachen Zufallsstichprobe ist weiterhin, dass jede einfache Zufallsstichprobe aus einer einfachen Zufallsstichprobe ebenfalls eine einfache Zufallsstichprobe darstellt. Einfache Zufallsstichproben werden zudem durch einen einzigen Auswahlvorgang aus einer Grundgesamtheit gezogen” (Schnell, Hill, Esser 1992: 289-290).

Die Bedingungen, die wir fett gesetzt haben, sind mit herkömmlichen Meinungsumfragen – schon gar nicht mit telefonischen Umfragen – nicht zu erreichen.

Warum nicht?

Wir alle kennen aus der Schule die ermüdenden Beispiele der roten und weißen Kugeln, die in einem Behälter sind, aus dem sie mit oder ohne Zurücklegen gezogen werden. Die Aufgabe der Schüler besteht darin, Wahrscheinlickeiten für verschiedene Varianten der Ziehung zu berechnen.

Die Krux an allen Berechnungen ist die, dass die Grundgesamtheit statisch ist.

Die Anzahl der Kugeln im Behälter ist bekannt. Es kommen keine dazu. Nur die, die gezogen werden, gehen verlustig (oder werden zurückgelegt).

Bei telefonischen Umfragen ist dies gerade nicht so.

Damit eine telefonische Umfrage repräsentativ sein kann, müssen alle Mitglieder der Grundgesamtheit die selbe Chance haben, genau zu dem Zeitpunkt, zu dem angerufen wird, erreichbar zu sein.

Aber das sind sie nicht.

Menschen sind nicht statisch. Wenn ich mich entschließe, einen Monat lang zu unterschiedlichen Zeiten Menschen anzurufen, die ich zuvor aus einem Telefonverzeichnis gezogen habe, dann haben nicht alle dieselbe Chance, angetroffen zu werden, ganz zu schweigen von all denen, die nicht in einem Telefonverzeichnis stehen.

Um acht Uhr morgens werde ich andere Befragte erreichen als gegen 2 Uhr Nachmittags.

Denn:

  • Menschen arbeiten Nachschicht.
  • Manche sind um 8 Uhr schon auf dem Weg zur Arbeit.
  • Andere liegen um 8 Uhr noch im Bett.
  • Wieder andere sind in Urlaub.

Jeder, der schon einmal im Telefonpool eines Umfrageinstituts gearbeitet hat, weiß, dass es fast schon die Regel ist, dass man Befragte nicht antrifft. Wenn man eine zufällig gezogene Nummer anruft, um dort mit der zweitältesten Person im Haushalt ein Interview zu führen, bleibt es häufig beim Vorsatz, denn:

  1. Niemand hebt ab;
  2. Der, der abhebt, hat keine Lust, ein Interview zu führen oder andere ans Telefon zu holen;
  3. Der, der abhebt, würde zwar den Zeitältesten ans Telefon holen, aber der Zweitälteste ist nicht da;
  4. Der, der abhebt, ist ärgerlich, weil man ihn gestört hat;
  5. Der, der abhebt, hat es eilig und keine Zeit;

Damit fällt ein zufällig gezogenes Element der Grundgesamtheit aus und muss ersetzt werden. Die fünf Gründe, die wir für Personen aufgeführt haben, die kein Interview führen wollen, sind systematische Gründe. Zu bestimmten Zeiten sind bestimmte Menschen schwerer erreichbar als andere. Mit-20er sind nach Feierabend im Fitness-Studio oder in der Kneipe, nicht am Telefon. Mit-60er vielleicht nach sechs Uhr in der Kirche oder im Seniorenheim beim Abendessen. Diese Ausfälle sind systematische Verstöße gegen die Annahmen, auf denen eine Zufallsstichprobe basiert. Sie können nicht „geheilt“ werden und haben zum Ergebnis, dass Meinungsumfragen nicht repräsentativ sein können, schon gar nicht, wenn sie telefonisch geführt werden.

Aber die genannten systematischen Ausfälle sind nicht die einzigen Probleme, die die Repräsentativität in Meinungsumfragen unmöglich machen.

Wenn es gelingt, einen Befragten am Telefon zur Teilnahme an einem Interview zu bewegen, fangen die Probleme erst richtig an.

  • Manche sind es nach kurzer Zeit schon leid, als Ergebnis werden Interviews abgebrochen;
  • Andere sind abgelenkt und antworten willkürlich;
  • Wieder anderen ist die Stimme des Interviewers unsympatisch, und sie werden renitent;
  • Manche haben Probleme mit bestimmten Fragen und beantworten nur einen Teil der Fragen;

Von all diesen Problemen erfährt derjenige, der vom Verweis auf die repräsentative Umfrage so beeindruckt werden soll, dass er die Ergebnisse glaubt und denkt: So denken die Deutschen, nichts.

Kehren wir zurück zur Meinungsumfrage, die der Bayerische Rundfunk für die ARD bei GfK in Nürnberg bestellt hat, um die Reichweite der ARD hoch- oder gutrechnen zu lassen. Die Ergebnisse der Meinungsumfrage werden den Konsumenten der ARD einmal als Jubeltext und einmal als Sammlung von Abbildungen präsentiert. Mit nichts davon kann man etwas anfangen.

  • Unter keiner der dargestellten Abbildungen steht die Fallzahl, auf der die dargestellten Ergebnisse tatsächlich basieren. Keine der Abbildungen basiert auf allen 1.502 Befragten, das ist sicher. Auf wie vielen Befragten die Abbildungen tatsächlich basieren, wird verheimlicht.
  • Nur bei manchen der Abbildungen ist der Fragetext vorhanden, so dass man nicht weiß, worauf die Befragten geantwortet haben. Der Fragetext fehlt bei so grundlegenden Dingen wie dem „ARD-Verbund“. Was wurde alles zusammengeworfen, um die Reichweite der ARD zu bestimmen?
  • Manche Abbildungen sind offensichtlich das Ergebnis eines Filterprozesses. So steht unter den Abbildungen,d ie die „Wertschätzung des ARD-Medienverbunds“ darstellen sollen, „Abfrage nach Kenntnis aller programmlichen und nicht-programmlichen Leistungen“. Was es damit auf sich hat, ist unklar. Der Verdacht liegt nahe, dass die Frage nach der Wertschätzung nicht allen 1.502 Befragten vorgelegt wurde, sondern nur einem Teil, nämlich den Befragten, die keine oder nur geringe Kenntnis von ARD-Programmen haben, nicht gestellt wurde. Und wenn die dargestellten Ergebnisse nicht gefiltert wurden, dann kann man sie gleich wegwerfen, denn sie enthalten Angaben von Personen, die etwas bewerten, das sie nicht kennen oder eine Antwort verweigert haben. Die Basis der 84%, denen angeblich der ARD-Verbund sehr gut bzw. gut gefällt, ist vollkommen unklar. Ebenso unklar ist, was der ARD-Verbund eigentlich sein soll, was die Befragten tatsächlich gefragt wurden….

Wir könnten die Liste der Probleme, Ungereimtheiten und Fragwürdigkeiten, die sich mit der GfK-Umfrage zur ARD verbinden, weiter fortsetzen, wollen aber an dieser Stelle abbrechen und ein paar Kriterien zusammentragen, anhand derer man Umfragen, die als Versuch gedacht sind, Meinung zu manipulieren, erkennen kann:

  • Umfragen, die behaupten, repräsentativ zu sein und das Adjektiv repräsentativ in allen passenden und unpassenden Zusammenhängen den Lesern auf die Nase binden.
  • Umfragen, die nicht angeben, wie hoch der Anteil der Befragten ist, die auf eine Frage NICHT geantwortet haben, sondern – wie die ARD-Umfrage von GfK – Leser im Glauben lassen, alle Ergebnisse basierten immer auf ALLEN Befragten.
  • Umfragen, die den Fragetext, auf dem die dargestellten Ergebnisse basieren, verheimlichen.
  • Umfragen, in denen Konzepte verwendet werden, wie “ARD-Verbund” oder „programmliche und nicht-programmliche Leistungen“, von denen niemand weiß, was damit gemeint ist.

Diese vier Punkte reichen in der Regel um zu wissen, ob man es mit einem Manipulationsversuch zu tun hat oder nicht. Und gemessen an diesen vier Punkten ist die GfK-Umfrage zum „ARD-Medienverbund“ ein kruder, ein sehr kruder Manipulationsversuch.

Letztlich ist die Zufallsauswahl eine regulatorische Idee. Wenn man eine Stichprobe gezogen hat, kann man aufgrund der Idealbedingungen, die eine Zufallsauswahl determinieren, angeben, wie stark die Abweichungen der aktuellen Stichprobe vom Ideal sind. Das systematische Fehlen einer entsprechenden Kennzahl in angeblich repräsentativen Meinungsumfragen ist letztlich der einzige Beleg, den man braucht, um sicher zu sein, dass die Ergebnisse weder eine Zufallsauswahl noch repräsentativ sind noch sein können.

Hat Ihnen der Beitrag gefallen?

Dann unterstützen Sie ScienceFiles!

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles
©ScienceFiles

Sklaven der Kontrollvariablen: Genderismus und Wissenschaft sind unvereinbar

Wer wie wir die wissenschaftliche Landschaft beobachtet, der hat in den letzten Jahren, wenn nicht im letzten Jahrzehnt eine  Veränderung festgestellt: Qualitative Forschung wird immer häufiger, quantitative Forschung immer seltener.

Das hat natürlich eine Ursache. Quantitative Forschung kann man nicht einfach so betreiben. Man benötigt eine methodologische Ausbildung, muss den Unterschied zwischen Operationalisierung und Faktum kennen. Man muss in Mathematik zumindest firm sein. Es ist nicht notwendig, Matrizenrechnung zu beherrschen, aber man sollte doch wissen, was passiert, wenn man z.B. eine Faktorenanalyse rechnet und es wäre auch hilfreich in der Lage zu sein, auf Grundlage einer vorhandenen Verteilung eine lineare Annäherung an die Verteilung von Hand berechnen zu können.

Qualitative Forschung ist mathematikfrei. Eine Erleichterung für all diejenigen, die Schwierigkeiten haben, eine Gerade einzuzeichnen, wenn man ihnen zwei Punkte in einem Koordinatenkreuz gibt. Um fair zu sein: Auch qualitative Sozialforscher haben sich bemüht, eine Methode zu entwickeln, die es ermöglich, die Willkür, die qualitativer Forscher anhaftet, loszuwerden. Die zum Teil recht guten methodologischen Lösungen haben jedoch wenig Widerhall in den Sozialwissenschaften gefunden. Qualitative Forschung ist vielmehr verkommen. An die Stelle methodischer Erwägungen ist das Draufloswurschteln getreten, das, damit es nicht als das solches kenntlich wird, als reflexive Forschung oder als Experteninterview bezeichnet wird. Experteninterviews sind in der Regel die Übertragung des Kaffeekränzchens aus dem Cafe um die Ecke in die Wissenschaft. Sie verlaufen bar jeder methodologischen Erwägungen oder gar Einsichten und resultieren zumeist in reflexiven Erkenntnissen, die keinerlei Bezug zur Wirklichkeit haben.

Diese Entwicklung hat eine Reihe von Ursachen. Eine davon ist die Etablierung von Gender Studies an Hochschulen. Gender Studies sind das Gegenteil von Wissenschaft. Die sie betreiben, haben kein Interesse an nachvollziehbarer Forschung und sind schon gar nicht im Stande, mit mathematischen Modellen oder gar mit Statistik umzugehen. Sie haben sich deshalb auf qualitative Methoden gestürzt und wie alles, was die Genderista in die Finger bekommt, so haben auch die qualitativen Methoden einen Qualitätseinbruch erlitten.

Die Art und Weise, in der die Genderista die qualitativen Methoden erledigt haben, zeigt deutlich, dass hier ein bunch of nuts unterwegs ist, um seine Phantasien auszuleben.

Ein mentaler Führer dieses bunch of nuts scheint eine gewisse Maria Mies zu sein, die vor ihrer Emeritierung an der Fachhochschule in Köln tätig war. Wikipedia beschreibt Mies wie folgt:

“Maria Mies (* 1931 in Steffeln) ist eine deutsche Soziologin. Sie hat feministische, ökologische und entwicklungspolitische Bücher publiziert, die international beachtet wurden. Sie ist Professorin emerita der Fachhochschule Köln. Bekannt und tätig ist sie weiterhin als strikte Gegnerin der Globalisierung und gehört zu feministAttac, einem Frauennetz von Attac.”

Damit ist eigentlich alles gesagt. Wer zu Attac gehört, hat in der Regel mit Wissenschaft nichts am Hut, seine Anwesenheit an einer Hochschule kann daher nur als Betriebsunfall bezeichnet werden. Dass Mies als mentaler Anführer der Knalltüten angesehen werden kann, die sich heute an Hochschulen breit gemacht haben, zeigt sich auch deutlich, wenn man das, was sie zu Feminismus und Sozialforschung zusammen geschrieben hat, liest.

Nein, wir haben es nicht gelesen. Wir haben die Lektüre Alan Bryman überlassen. Bryman muss diesen Unsinn lesen, denn er hat ein Buch über Social Research Methods geschrieben, das nicht auf sinnvolle Social Research Methods beschränkt ist, sondern die gesamte Bandbereite von Unsinn mit erfasst, die sich heutzutage an Hochschulen finden lässt. Und so findet sich auch Mies.

Alan Bryman (2015). Social Research Methods. Oxford: OUP.

Man muss das, was Genderista von sich geben, häufig erst einmal einsickern lassen und sich selbst bestätigen, dass die den Blödsinn, den sie schreiben, Ernst meinen. Dann muss man das Gelesene noch einmal lesen und sich fragen, wie jemand auf die Idee kommen kann, seine Phantasien an Dinge heranzutragen, von denen er keine Ahnung hat, überhaupt keine Ahnung.

So ist Mies der Ansicht, dass quantitative Forschung die Stimme von Frauen unterdrücken würde, weil quantitative Forschung auf der Suche nach Wahrheit „valid knowledge“ Frauen zu Objekten der Forschung mache, sie in Kategorien stecke und die quantitative Unterdrückung von Frauen noch durch die Einführung von Kontrollvariablen amplifiziere.

So einen Blödsinn muss man wirklich erst einmal verdauen.

Wie soll man jemandem antworten, der denkt, man könne Forschung betreiben, ohne ein Forschungsobjekt? Kein Wunder, dass Genderista keine Forschungsergebnisse vorzuweisen haben. Ohne Forschungsobjekt kann man halt nichts erforschen. Aber damit nicht genug, wenn man die Antworten, die Frauen in einem Fragebogen gegeben haben, im Rahmen quantitativer Sozialforschung berücksichtigt, dann macht man diese Frauen nach Ansicht von Frau Mies nicht nur zum Objekt der Forschung, nein, man beutet sie auch aus, nutzt ihre Antworten und gibt nichts zurück. Selbst Frauen machen sich dieser Form modernen Befragungssklaventums nach Kenntnis von Mies schuldig. Man muss schon hart an der Grenze zur Debilität entlanglaufen, um auf derartigen Unsinn zu kommen. Wenn Fragen Ausbeutung darstellen, dann wird es Zeit, die Fragestunde im Bundestag abzuschaffen und Lehrer daran zu hindern, systematisch ihre Schüler auszubeuten und die Ausbeutung noch mit Bewertung zu krönen. 

Der absolute Knaller kommt jedoch erst noch:

Dass man Frauen in quantitativen Modellen als Kontrollvariable benutze, verstärke noch deren Ausbeutung.

Wir haben keine Worte mehr, um einen derartigen, ja, was eigentlich, Unsinn, Blödsinn … angemessen zu bezeichnen. Die Frau hat wirklich Phantasie. Aber leider eben keine Ahnung. Ein Datensatz besteht in der Regel aus Zeilen und Reihen mit Zahlen darin. In einem Datensatz finden sich keinerlei Frauen, auch keine Männer. Es finden sich Operationalisierungen, z.B. die Operationalisierung von Geschlecht: 1 „männlich“, 2 „weiblich“. Damit kann man dann rechnen, Geschlecht als binäre Variable mit nominalem Skalenniveau behandeln und, ja, wir geben es zu, als Kontrollvariable in ein statistisches Modell einführen. Das hat jedoch nichts mit den Sado-Masochistischen Phantasien, die Frau Mies zu haben scheint, zu tun, nichts mit Kontrolle und Unterdrückung. Es heißt nämlich nur Kontrollvariable, weil damit ein Einfluss konstant gehalten werden soll, so dass man Ergebnisse bekommt, die man unabhängig vom Geschlecht interpretieren kann. Nicht nur haben Kontrollvariablen nichts damit zu tun, dass Frauen oder Männer gefesselt oder überwacht werden, Frauen und Männer sind nicht einmal in einem Datensatz, lediglich eine Zahl, eine Operationalisierung ist in einem Datensatz enthalten. Und weil dem so ist, deshalb suchen quantitative Sozialforscher auch nicht nach „Wahrheit“ oder „valid knowledge“, sondern nach Zusammenhängen und sie versuchen, Theorien mit Daten zu bestätigen oder zu falsifizieren, aber eben nicht zu beweisen.

Das alles weiß Frau Mies nicht, kann sie nicht wissen, sonst würde sie nicht den Blödsinn schreiben, den sie schreibt, und das alles wissen Gendersita nicht. Wie häufig uns in den letzten Jahren das Missverständnis begegnet ist, dass es Wissenschaftler gäbe, die denken würden, man könne objektive Wahrheit finden, … wir haben aufgehört zu zählen. Wann immer uns dieser Unsinn begegnet ist, kam er jedoch von Genderista, die die einzigen zu sein scheinen, die an diesen Unsinn glauben, was einmal mehr zeigt, dass sie nicht nur nichts mit Wissenschaft zu tun haben, sondern nicht einmal eine Vorstellung davon haben, was Wissenschaft eigentlich ist.

Das ist auch nicht verwunderlich, denn – wie abermals Bryman herausgearbeitet hat – sind Genderista der Ansicht, quantitative Sozialforschung sei abzulehnen, weil sie wertneutral vorgehe. Und hier haben sie ausnahmsweise einmal zumindest im Ansatz recht. Quantitative Sozialforschung soll wertneutral sein, aber nicht nur quantitative Sozialforschung, auch qualitative Sozialforschung, ja Sozialforschung überhaupt, Wissenschaft als Ganzes. Tatsächlich ist es eine der unverrückbaren Grundlagen von Wissenschaft, wertneutral vorzugehen. Da Genderista, wie Bryman gezeigt hat, das explizit nicht wollen, stellen sie sich – wie all die anderen politischen Aktivisten – selbstgewählt und bewusst außerhalb der Wissenschaft auf und machen deutlich, dass Genderismus keine Wissenschaft ist.

Warum sind Genderista dann an Hochschulen präsent? Man muss nach den Ausführungen, die Brynman zitiert, davon ausgehen, dass die Unterwanderung von Hochschulen durch Genderista die Zerstörung von Wissenschaft zum Ziel hat.

Es ist nicht mehr lustig: Einerseits sind Irre dabei, Bücher wie die Kleine Hexe zu zensieren, weil darin Worte vorkommen, die sie nicht mögen, andererseits sind Bücher wie die von Mies und anderen Genderista im freien Handel zugänglich und werden nicht mit einem Zusatz wie: “Das Lesen dieses Buches kann ihren Intellekt beschädigen” versehen. 

Wie weit die Genderista mit ihrem Vorhaben schon gelangt ist, wie sehr sie deutsche Universitäten bereits infiltriert hat, das weiß niemand. Wir wollen es untersuchen, in einem Forschungsprojekt, das nur von Privatleuten, die ein Interesse an unserer Forschung haben, finanziert wird. Wir haben bereits 75% der Mittel zusammen, die notwendig sind, um die erste Phase des Projekts zu beginnen. Wenn Sie auch dazu beitragen wollen, das Ausmaß der Gender-Unterwanderung an deutschen Universitäten zu untersuchen, dann können finden Sie hier Näheres zu Projekt und den Möglichkeiten, uns zu unterstützen.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Mainstream-Journalisten nicht AfD-Anhänger lassen sich am einfachsten irreführen

In den letzten Monaten ist es unter Journalisten immer beliebter geworden, über angebliche Studien zu berichten, bevor diese veröffentlicht werden. Die entsprechenden Studien, die man, weil nicht veröffentlicht, als dubios bezeichnen muss, liegen in der Regel angeblich entweder der Süddeutschen Zeitung oder dem Spiegel vor und finden von dort eine rasante Verbreitung durch die Mainstream-Medien, deren Originalität letztlich nur in den Fehlern besteht, die sie beim voneinander übernehmen oder kopieren oder abschreiben machen.

Die neueste Studie, die dieses Mal dem Spiegel vorliegt und auf deren Rezeption in der WELT wir uns hier beziehen, wurde von der „Berliner Denkfabrik ‚Stiftung neue Verantwortung‘“ durchgeführt, eine Stiftung, die nicht unbedingt bekannt dafür ist, dass ihre Angestellten in empirischer Sozialforschung besonders bewandert wären. Eigentlich ist die Stiftung bislang überhaupt nicht bekannt, uns jedenfalls nicht. Es ist also eine Stiftung, die bekannt werden will. Und was macht sich in Mainstream-Medien besser, um bekannt zu werden, als AfD-Bashing.

Die AfD-Anhänger, wer auch immer das sein mag, denn wir wissen nicht, ob es sich hier um AfD-Wähler, solche, die eine Wahlabsicht für die AfD oder eine Sympathie für die AfD angegeben haben, wir wissen nicht einmal wie viele AfD-Anhänger die Denkfabrikanten aus Berlin überhaupt befragt haben, wir wissen von ihnen nur, dass sie besonders anfällig für Fake-News sein sollen. AfD-Wähler, so der unbekannte Redakteur der WELT, der in der Überschrift zu seinem Beitrag noch von AfD-Anhängern geschrieben hat [er weiß es also auch nicht, auf wen sich die Ergebnisse eigentlich beziehen] seien für Falschnachrichten besonders anfällig. Die implizite Meldung die hier verbreitet werden soll, lautet natürlich: AfD-Wähler haben nur deshalb AfD gewählt, weil sie auf Falschnachrichten der AfD hereingefallen sind.

Alexander Sängerlaub, Leiter des Fake-News-Projekts, ordnet die Ergebnisse seines Fake-News-Projekts so ein: „Geglaubt wird, was ins Weltbild passt“.

Gibt es in der Sozialforschung einen älteren Hut als diesen?
Leon Festinger hat bereits 1957 seine Theorie der kognitiven Dissonanz veröffentlicht. Informationen, die nicht ins Weltbild passen, so Festinger, würden eben passend gemacht. Informationen, die ins Weltbild passen, schnell und problemlos inkorporiert.

Amos Tversky und Daniel Kahneman haben 1986 mit dem Konzept des Framing die Manipulationsvariante ergänzt und gezeigt, dass man mit der Formulierung von Fragen oder Aussagen Antworten beeinflussen kann.

Und damit sind wir wieder zurück bei der „Studie“ aus der „Denkfabrik in Berlin“, die angeblich zeigt, dass AfD-Wähler/Anhänger/Sympathisanten besonders anfällig sind für Falschnachrichten. Wir müssen die Studie, die angeblich dem Spiegel vorliegt, auf Basis der öffentlichen Informationen beurteilen, aber das reicht bereits, um feststellen zu können, dass auch die Denkfabrizierer aus Berlin nur gefunden haben, was ihnen ins Weltbild gepasst hat.

Folgende Aussagen wurden Befragten vorgelegt:

  • Der CDU-Wahlspruch ‚Für ein Land, in dem wir gut und gerne leben‘, stammt von einem SED-Plakat.
  • Im baden-württembergischen Schorndorf randalierten 1000 Migranten auf einem Volksfest.
  • Flüchtlinge bekommen in Deutschland kostenlos einen Führerschein vom Staat finanziert.
  • 59 Prozent der Flüchtlinge haben keinen Schulabschluss.
  • Flüchtlinge aus Baden-Württemberg machten mehrmals Urlaub in ihren Heimatländern.
  • Martin Schulz (SPD) fordert die Einführung eines sogenannten ‚Arbeitslosengeld Q‘.
  • Die frühere EKD-Ratsvorsitzende Margot Käßmann hat alle Deutschen als Nazis bezeichnet.

Fällt ihnen bei diesen Aussagen etwas auf?
Ein Bias vielleicht?
Eine Richtung?
Eine Zielgruppe?

Bis auf drei Aussagen haben alle Aussagen Flüchtlinge zum Gegenstand und somit ein Thema, von dem man angenommen wird, dass es bei AfD-Wählern die Wahrscheinlichkeit, bei Nichtwissen zum negativen Extrem zu tendieren, erhöht, bei Wählern von Grünen, SPD, CDU usw. den gegenteiligen Effekt haben kann. Man kann also erwarten, dass die Wahrscheinlichkeit, dass AfD-Wähler/Sympathisanten/Anhänger die Aussage, dass Flüchtlinge aus Baden-Württemberg gleich mehrmals in ihrer Heimat Urlaub machen, in Schorndorf randaliert haben, zu 59% keinen Schulabschluss haben und den Führerschein umsonst machen dürfen, für wahr halten, höher ist als die entsprechende Wahrscheinlichkeit für CDU, Grüne, SPD und LINKE-Wähler.

Den Denkfabrikanten aus Berlin ist es ganz offensichtlich darum gegangen, AfD-Anhänger und –Wähler als anfälliger für Fake-News darzustellen. Wäre es ihnen nicht darum gegangen, sie hätten nicht alle Aussagen, die sich auf Flüchtlinge beziehen, in die selbe Richtung kodiert und z.B. als Aussage angeboten: Die meisten Flüchtlinge haben zwar einen Schulabschluss, aber keine Berufsausbildung. Oder: Die Flüchtlinge, die in Deutschland einen Führerschein machen, müssen diesen Führerschein aus ihren Hartz-IV-Bezügen finanzieren.

Noch deutlicher wird die Absicht der Denk- und wohl auch Ergebnisfabrikanten, die AfD-Wähler als besonders anfällig für Falschnachrichten hinzustellen, am Fehlen all der Themen, die für nicht-AfD-Wähler oder Sympathisanten oder Anhänger sensibel sind und deren Zustimmungswahrscheinlichkeit erhöhen. Welches Ergebnis bekäme man wohl, wenn man die folgenden Aussagen auf Richtigkeit beurteilen ließe von Anhänger/Wählern/Sympathisanten der CDU, FDP, SPD, von Grünen oder LINKE?

  • Glypohosat führt zu Bienensterben.
  • Kernenergie ist die gefährlichste Form der Energiegewinnung.
  • Kurdische Perschmerga haben irakische Regierungstruppen mit deutschen Raketen beschossen?
  • Arbeitgeber haben ein Kartell gebildet, um die Löhne in Deutschland niedrig zu halten.
  • Unternehmen versuchen über die Finanzierung von Unterrichtsmaterialien, Schüler in ihrem Sinne zu beeinflussen.
  • Der Sozialismus hat mehr Menschen umgebracht als der Kapitalismus.
  • Kommunisten haben mehr Menschen ermordet als Nationalsozialisten.
  • Am Sklavenhandel haben auch viele Schwarze verdient.
  • Die Ausschreitungen in Hamburg anlässlich des G20 wurden von Polizeibeamten in Zivil provoziert.
  • Donald Trump ist Mitglied des Ku-Klux-Klan.
  • Männerbünde sorgen dafür, dass Frauen weniger verdienen und seltener in Führungspositionen gelangen.
  • Frauen verdienen 22% weniger als Männer.

Welche Ergebnisse könnte man wohl vorweisen, wenn man Anhängern von CDU, FDP; SPD, Grünen und LINKE diese Aussagen vorgelegt hätte? Und wären AfD-Anhänger oder Wähler oder Sympathisanten dann immer noch diejenigen, die für FakeNews am anfälligsten sind. Wir halten die Wette, dass dies nicht der Fall wäre.

Die kurze Darstellung zeigt, dass die Berliner Denkfabrik entweder eine Fabrik ist, die manipulierte Umfrageergebnisse produziert oder eine, in der der Methoden der empirischen Sozialforschung kenntnislos gegenüberstehende Ideologen genau das in ihren Umfragen finden, was sie zu finden hoffen. Was auch immer zutrifft, Manipulation aus Unkenntnis oder Manipulation aus ideologischer Boshaftigkeit, es bleibt Manipulation. Jeder Journalist, der noch zum selbständigen Denken in der Lage ist, hätte das eigentlich mit einem einfachen Blick auf das, was gefragt wurde, sehen können. Aber für Journalisten gilt eben auch, dass sie genau das sehen, was ihnen ideologisch in den Kram passt.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Vom mündigen Bürger zum Reiz-Reaktions-Deppen: Spiegel/BENTO macht‘s möglich

Seit Verlage wie der Spiegel die Manipulations-Möglichkeiten die „online“-Echtzeitbefragung bieten, entdeckt haben und seit Civey angetreten ist, auch noch den Rest Glaubwüridgkeit zu beseitigen, den die Meinungsforschung auf welchen Wegen auch immer und gegen alle Wahrscheinlichkeit hat retten können, ist es vorbei mit der Glaubwürdigkeit und der Meinungsforschung. Beide sind im Maelstrohm der politischen Instrumentalisierung verschwunden und haben den Leumund der empirischen Sozialforschung mitgerissen.

Das neueste Beispiel eines so brachialen Versuchs der Meinungsmanipulation durch eine Meinungsabfrage stammt von BENTO, dem Spiegel-Ableger, der die 18- bis 30jährigen zur Zielgruppe hat, und wenn es diese Zielgruppe ist, die BENTO liest und nicht etwa die 6- bis 11jährigen, dann sagt dies einiges über den Infantilisierungsgrad von Teilen der deutschen Bevölkerung.

Im Zusammenhang mit den unsäglichen Ereignissen um den Antaios-Verlag auf der Deutschen Buchmesse, in deren Zusammenhang sich u.a. der deutsche Börsenverein als das rückwärtsgewandte, ewig-gestrige, sozialen Wandel bekämpfende Gremium von Pop-Oligarchen entpuppt hat, das er nun einmal ist, hat auch BENTO einen Beitrag, vermutlich auch mehrere Beiträge veröffentlicht. Zum Ende eines dieser Beiträge findet sich die folgende Meinungsabfrage, die Don Alphonso aufs Twitter –Korn genommen hat und in der er den Ausgang der Abfrage beklagt.

Und so schlimm das Ergebnis dieser „Meinungsabfrage“ auch sein mag, wir beklagen nicht das Ergebnis, wir beklagen die Tatsache, dass man das Klientel von BENTO offensichtlich mit den einfachsten Manipulations-Mitteln im Arsenal der Meinungsabfrage manipulieren kann.

Wir sprechen deshalb von Meinungsabfrage, weil dies mehr den Impetus der Schule mit sich bringt. Meinungsabfragen interessieren sich im Gegensatz zu Meinungsumfragen nicht dafür, welche Meinung die Befragten haben, sondern dafür, ob die Indoktrination dazu geführt hat, dass die abgefragte auch die politisch korrekte Meinung ist. Es ist wie in der Schule, der Lehrer (BENTO) prüft, ob seine Lehrinhalte (Indoktrination) von den Schülern (Lesern von BENTO) auch auswendig gelernt und aufgesagt werden können.

Die brachiale Manipulation, die in dieser Abfrage offenkundig ist, sie ist von Civey zu verantworten, einem Berliner Start-Up, das wohl angetreten ist, Meinungsumfragen zu erledigen und endgültig in Meinungsmanipulationen, die z.B. belegen, dass die meisten BENTO-Leser sich nicht einmal auf dem Entwicklungsstand von Pawlows Hund befinden, denn der hat ohne materielle Belohnung nichts getan, umzuformen.

Civey ist entsprechend unser Klassifikation somit als Junk-Institut anzusehen, und zwar aus folgenden Gründen:


Wollte man fragen, ob Leser der Ansicht sind, dass die Buchmesse nur bestimmten Verlagen zugänglich gemacht werden soll, dann würde man fragen:

Soll die Frankfurter Buchmesse für alle Verlage offen sein?

Wenn man, aus welchen Gründen auch immer, wissen will, ob Leser radikale Verlage nicht auf der Buchmesse haben wollen, dann ist es ein methodischer Fehler, der zum Himmel schreit, wenn man diese Leser mit einem Stimulus ködert ohne ein Gegengewicht zu setzen, etwa so:

Sollen radikale (z.B. links- oder rechtsradikale) Buchverlage auf der Frankfurter Buchmesse zugelassen werden?

Wer seine Frage auf genau eine Seite des politischen Spektrums beschränkt ohne das Gegenstück des Linksradikalismus zu erwähnen, suggeriert damit, dass sich diese Frage überhaupt nur für rechtsradikale Verlage stellt, d.h. der wichtigste Stimulus in der Frage ist das Adjektiv „rechts“.

Das Adjektiv „rechtsradikal“, das hier anstelle von rechtspopulistisch oder rechtsextrem steht, kommt indes in der Frage gar nicht vor. In der Frage ist schlicht von „rechte[n] Verlage“ die Rede. Erst die Antwortmöglichkeiten:

“Ja, radikales Gedankengut hat in unserer Gesellschaft keinen Platz bzw.
Nein, auch rechtsradikale Meinungen müssen ausgehalten werden,”

stellen die Verbindung von „rechts“ und „radikal“ her. Sie tun das auf eine besonders perfide Weise, die in der positiven Antwort nahelegt, es gäbe nur einen Radikalismus der Rechten, was uns Liberale herzlich amüsiert und einmal mehr zeigt, wie borniert linke Manipulateure doch sind. Zudem wird „radikales Gedankengut“ mit „rechtsradikaler Meinung“ gleichgesetzt und da wir bereits wissen, dass „radikales Gedankengut“ nur von Rechts kommt, ist auch klar, dass BENTO hier abfragt, ob es gelungen ist, die eigenen Leser zu stupiden Aufsagern der indoktrinierten Meinung zu machen. Es gelingt trotz des verzweifelten Einsatzes all der brachialen Methoden für nur 67% der BENTO-Leser:

67% (von 20?) sind der Ansicht, dass radikales Gedankengut in unserer Gesellschaft keinen Platz habe, eine nette Absurdität, denn diese 67% vertreten hier natürlich überaus radikales Gedankengut, das auf eine 1000jährige Geschichte zurückblicken kann. Daraus, dass 67% nichts dabei finden, eine solche Absurdität als ihre Meinung auszugeben, kann man wiederum schließen, dass sie nicht darüber nachgedacht haben, was sie hier als ihre Meinung abgeben, sondern auf den Reiz „radikales Gedankengut“ im Zusammenhang mit „rechts“ reagiert haben. Rechts sowieso, aber besonders in Verbindung mit „radikal“ löst bei den 67% der Leser von BENTO, die entsprechend abgestimmt haben, eine, dem Speichelfluss von Pawlows Hund vergleichbare Reaktion aus, die dazu führt, dass sie ohne zu zögern und zu denken, alle Errungenschaften der modernen Demokratie über Bord werfen und sich in eine Reihe mit den Vätern des Ermächtigungsgesetzes stellen.

Wenn es die Absicht von BENTO ist, einen Teil seiner Leser zu affektiven Marionetten zu erziehen, die sich, wie es wohl die Leser von Streichers Stürmer getan haben, daran ergötzen, wenn der auserkorene Feind in welcher Form auch immer diskreditiert wird, wenn ihm demokratische Grundrechte verweigert werden, wenn er zum Aussätzigen erklärt und am besten interniert, in jedem Fall aber aus dem öffentlichen Leben entfernt wird, dann hat BENTO bei 67% (von 20?) Erfolg – ob man darauf stolz sein kann, formal betrachtet (und vermutlich auch inhaltlich) in einer Reihe mit Streichers Stürmer zu stehen, das ist eine andere Frage.

Bleibt abschließend noch festzustellen, dass diejenigen, die diese Frage zu verantworten haben, eine Schande für alle sind, die sich wirklich mit der Erforschung von Meinungen beschäftigen. Wenn Civey, wie wir begründet vermuten, für diese Frage verantwortlich ist, dann ist auch klar, welcher Agenda die Gründung und der schnelle Aufstieg dieses Berliner Instituts folgt.

Die Schleimscheißerei (Warum soll man etwas nicht beim Namen nennen?) „Du hast eine sehr differenzierte Meinung, wie sehen das Deine Freunde?“, mit der denjenigen unter den BENTO-Lesern, die besonders minderbemittelt sind, Honig ums Maul geschmiert werden soll, um auf diese Weise Zugriff auf ihre Facebook- und Twitter-Freunde zu erhalten, dient natürlich nur dazu, die von Cambridge Analytica erfundene Methode, so genannte BIG DATA zu sammeln, umzusetzen. Vermutlich sind die Informationen, die Civey auf diese Weise von den einfältigsten unter den BENTO-Lesern sammelt, bares Geld wert, wenn es darum geht, für andere Kunden Marketing-Kampagnen zu zimmern. Dies erklärt dann auch, warum Marketing-Konzeptze so häufig versanden und Geld kosten, aber nichts bringen, denn deren Zuschnitt basiert auf den Angaben von Einfältigen, die zum Glück immer noch eine Minderheit in der Gesellschaft sind.

Nachtrag:
Ein Leser hat uns darauf hingewiesen, dass die Junk-Abfrage nach seiner Ansicht nicht von Civey, sondern von Opinary ist. Das macht es nicht wirklich anders. Letzteres ist ein Klon von Ersterem und verantwortlich wären entsprechend nicht “Gerrit, Janina, Oliver, Lian oder Adam, sondern Cornelius Frey, Pia, Max und Stephen.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Phatische Diskussion: Modernisierungsskeptiker, von denen niemand etwas weiß

Die Bertelsmann-Stiftung hat die Diskussion um die AfD um eine neue Konfliktlinie erweitert: AfD-Wähler seien mehrheitlich „Modernisierungsskeptiker“, so die Bertelsmänner, die jeden Variablensoziologen erblassen lassen. Es gebe eine neue Konfliktlinie in der deutschen Gesellschaft, zwischen Modernisierungsskeptikern und Modernisiserungsbefürwortern.

Klingt gut, so lange man nicht fragt: Was bitte, ist ein Modernisierungsskeptiker?
Was ist Modernisierung? Wie kommt man zu der Einordnung von Wählern in die Gruppe der Modernisierungsskeptiker bzw. der Modernisierungsbefürworter?

Glücklicherweise fragen sich deutsche Journalisten diese Fragen nicht. Sie berichten stattdessen brav und treu, was es neues aus dem Hause Bertelsmann zu berichten gibt:

Klassische Modernisierungsverlierer

DIE ZEIT

„Die AfD sei also ganz überwiegend von Menschen gewählt worden, “die der sozialen und kulturellen Modernisierung zumindest skeptisch gegenüberstehen”, teilte der Studienautor Robert Vehrkamp mit.

Deutschlandfunk:

In einer Studie der Bertelsmann-Stiftung heißt es, statt einer regionalen Spaltung zeige sich eine neue Konfliktlinie zwischen Modernisierungsbefürwortern und Modernisierungsskeptikern.

Frankfurter Rundschau:

Die Bertelsmann Stiftung hat diese nun um eine Zuschreibung erweitert: zukunftsängstliche Modernisierungsskeptiker. Basierend auf Befragungen nach der Bundestagswahl 2017 sieht die Stiftung in einer Studie, die seit Freitagfrüh online verfügbar ist, eine „neue Konfliktlinie der Demokratie“.

BERTELSMANN:

„Auf der einen Seite der Konfliktlinie sind diejenigen Menschen, die aus ganz unterschiedlichen Gründen den ökonomischen, sozialen, technischen und kulturellen Modernisierungstendenzen eher skeptisch oder sogar ablehnend gegenüberstehen. Sie empfinden sich zumindest subjektiv als soziale, ökonomische und/oder kulturelle Verlierer der Modernisierung. Das prägt auch ihr Wahlverhalten.

Fassen wir zusammen.

  • ZEIT: Modernisierungsskeptiker stehen sozialen und kulturellen Veränderungen skeptisch gegenüber.
  • Deutschlandfunk: Modernisierungsskeptiker wählen vornehmlich AfD.
  • Frankfurter Rundschau: Modernisierungsskeptiker sind zukunftsängstlich.
  • Und die Bertelsmänner: Modernisierungsskeptiker sind skeptisch bis ablehnend gegenüber ökonomischen, sozialen, technischen und kulturellen Modernisierungstendenzen.

Es gibt nichts Schöneres als deutsche Journalisten dabei zu beobachten, wie sie wortreich über Dinge berichten, von denen sie keine Ahnung haben. Wir wetten: Keiner der Journalisten, die über die Modernisierungsskeptiker in der AfD berichtet haben, hat eine konkrete Vorstellung davon, was ein Modernisierungsskeptiker ist oder sein soll und wenn man sie dennoch dazu zwingen würde, sich eine konkrete Definition von Modernisierungsskeptiker abzuquälen, es gäbe zwischen den Journalisten keine Übereinstimmung.

Nicht einmal bei der Bertelsmann-Stiftung hat man auch nur eine ansatzweise konkrete Formulierung parat, um klar zu benennen, was ein Modernisierungsskeptiker denn nun einmal sein soll. Was die Bertelsmänner in ihrer Studie an Definition anbieten, verlagert das Problem eher, denn: „Menschen, die aus ganz unterschiedlichen Gründen den ökonomischen, sozialen, technischen und kulturellen Modernisierungstendenzen eher skeptisch oder sogar ablehnend gegenüberstehen“, sagt grundsätzlich gar nichts aus. Was sind ökonomische Modernisierungstendenzen? Hedge Fonds? Der Euro? Die EZB-Geldpolitik? Was sind soziale Modernisierungstendenzen? Die zunehmende Verbreitung von Syphilis? Die Ehe für alle? Die Benachteiligung von Jungen bei der Schulbildung? Was sind technische Modernisierungstendenzen? Spam in der Mailbox? Das Netzwerkduchsetzungsgesetz? Die Flatrate bei der Telekom? Und was sind kulturelle Modernisierungstendenzen? Dazu fällt uns jetzt wirklich nichts ein.

Die deutsche Presse berichtet also treudoof über einen Begriff, den die Bertelsmann-Stiftung in die Welt gesetzt hat und für den nicht einmal die Bertelsmann-Stiftung selbst eine konkrete Beschreibung geben kann. Das Wischiwaschi ist bezeichnend für Diskurse innerhalb der Mittelschicht, bei denen sich alle ganz wichtig fühlen und keiner auch nur ansatzweise eine Ahnung hat, worüber eigentlich gesprochen wird.

Leisten wir ein wenig Aufklärungsarbeit.
Datenhuberei wie die der Bertelsmann-Stiftung basiert letztlich auf Faktorenanalysen. Die Faktorenanalyse ist ein sehr nützliches Instrument zur Reduktion von Komplexität in Daten. Dazu muss man sie jedoch richtig benutzen können. Als Willem Saris und Harm Hartmann 1990 darauf hingewiesen haben, dass man mit einer Faktorenanalyse immer zu Faktoren und Ergebnissen kommen wird, die Frage, ob diese Faktoren sinnvoll, reliabel und valide seien, davon aber unabhängig beantwortet werden müsse, da gab es bereits viele „Datenfuzzis“, die die Faktorenanalyse zur Data-Speak-to-Me-Technik degradiert hatten und hofften, ihre fehlenden Ideen und theoretischen Kenntnisse dadurch beheben zu können, dass sie Faktorenanalysen „machen ließen“. Es ist in diesem Zusammenhang, dass die Sinus-Milieus zum ersten Mal auftauchen.

Sinus selbst beschreibt seine Milieus wie folgt:

„Die Sinus‐Milieus sind das Ergebnis von 40 Jahren sozialwissenschaftlicher Forschung. Die Zielgruppenbestimmung von SINUS orientiert sich an der Lebensweltanalyse unserer Gesellschaft. Die Sinus‐Milieus gruppieren Menschen, die sich in ihrer Lebensauffassung und Lebensweise ähneln. Grundlegende Wertorientierungen gehen dabei ebenso in die Analyse ein wie Alltagseinstellungen zur Arbeit, zur Familie, zur Freizeit, zu Geld und Konsum.“

Die Sinus-Milieus basieren also auf einer Vielzahl von Aussagen, die Befragten vorgelegt werden und die deren Wertorientierungen und Alltagseinstellungen zu Arbeit, Familie, Freizeit etc erfragen. Welche konkreten Aussagen dazu genutzt werden, ist das Geheimnis von Sinus. Angesichts vorhandener Forschung, die bis in die 1980er Jahre zurückreicht, kann man jedoch sicher sein, dass es Aussagen wie die folgenden sein werden:

  • Die EDV hat eine Reihe unerwünschter Nebeneffekte für die Arbeiter mit sich gebracht.
  • Im Vergleich dazu, wie andere hier in Deutschland leben: Glauben Sie, dass Sie ihren gerechten Anteil erhalten?
  • Welche Ziele auf dieser Liste erscheinen Ihnen persönlich am wichtigsten?
    • Sicherung von Ruhe und Ordnung
    • Mehr Mitbestimmung
    • Mehr Einfluss der Bürger auf die Entscheidungen der Regierung

Usw.

Auf Grundlage derartiger Aussagen errechnet Sinus dann seine Milieus und stellt sie z.B. der Bertelsmann-Stiftung zur Verfügung. Und auf Grundlage von entsprechenden Aussagen wurde auch die Bezeichnung „Modernisierungsskeptiker“ geboren, jene Bezeichnung, von der die Bertelsmänner nicht sagen können, was genau sie denn nun bezeichnet. Dass sie das nicht können, ist eine Eigenart der Faktorenanalyse. Mit der Faktorenanalyse können Antworten, die Befragte auf eine Vielzahl von Aussagen wie die oben dargestellten, gemacht haben, zu wenigen Faktoren zusammengefasst werden. Das Problem, das Forscher nun haben, besteht darin, dass auf einem Faktor z.B. die Forderung nach mehr Mitbestimmung mit dem Glauben, die EDV habe keine unerwünschten Nebeneffekte und der Ansicht, man erhalte nicht seinen gerechten Anteil lädt. Wie benennt man eine solche Ansammlung von unterschiedlichen, oft kaum zu vereinbarenden Aussagen, die nur mit viel Mühe, wenn überhaupt, auf einen gemeinsamen Nenner zu bringen sind?

  • Modernisierungsskeptiker
  • Postmaterialisten
  • Traditionalisten
  • Progressive

Je nichtssagender der Begriff, desto besser geeignet scheint er, um die Vielfalt der Variablen, die ihn per Faktorenanalyse geschaffen haben, zu repräsentieren. Und je nichtssagender und pompöser er klingt, desto höher ist die Wahrscheinlichkeit, dass ihn Journalisten aufnehmen und weiter transportieren. Wir nennen diesen Effekt den Habermas-Effekt. Obwohl kaum jemand versteht, was Habermas schreibt, hat er viele Anhänger. Die verstehen zwar auch nicht, was Habermas schreibt, aber sie wollen sich mit dem pompösen Wortschwall schmücken, sich als Eingeweihte, als Teilhaber tieferen Wissens inszenieren, in der Hoffnung, dadurch sozialen Status zu gewinnen und die eigene intellektuelle Seichtheit überdecken zu können.

Mit den Modernisierungsskeptikern ist das genau so. Prüfen Sie es. Fragen Sie einen Journalisten Ihrer Wahl, wie der Modernisierungsskeptiker zu Stande gekommen ist, durch welche Aussagen er sich auszeichnet, wie er in empirischen Studien konstruiert wurde, welche konkrete Aussage sich mit dem Begriff verbindet?

Wetten, Sie ernten umfassendes Schweigen? Dieses Schweigen ist die perfekte Äquivalenz zum Informationsgehalt des Begriffs “Modernisierungsskeptiker”.

Saris, Willem & Hartmann, Harm (1990). Common Factors can always be found, but can they also be rejected? Quality and Quantity 24(4): 471-490.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Translate »
error: Content is protected !!