Sich selbst erhaltende Korruptionsnetzwerke – wie man 95% Zustimmung generiert

Der heutige Arbeitstag beginnt mit der folgenden Pressemeldung von Reuters:


Berlin (Reuters) – Die große Mehrheit der Deutschen unterstützt einer Umfrage zufolge den Ausbau der erneuerbaren Energien.

95 Prozent halten demnach die stärkere Nutzung von Ökostrom-Kraftwerken für wichtig oder sogar sehr wichtig, wie die Zeitungen der Funke Mediengruppe am Dienstag vorab aus einer repräsentativen Erhebung des Instituts Kantar Emnid im Auftrag der Agentur für Erneuerbare Energien (AEE) berichteten. Im Vergleich zum Vorjahr sei die Zustimmung um zwei Prozentpunkte gewachsen – dies liege aber noch innerhalb des Fehlerbereichs der Umfrage. Vier Prozent fänden den Ausbau weniger oder überhaupt nicht wichtig. Ein Prozent machte keine Angabe.

“95 Prozent sind ein deutliches Votum an die kommende Bundesregierung, den Ausbau der erneuerbaren Energien voranzutreiben”, sagte der stellvertretende AEE-Geschäftsführer Nils Boenigk den Zeitungen.”

Die Zeitungen, an die sich „Nils Boenigk“ richtet, werden diese Vorwahl-Umfrage natürlich pflichtschuldigst übernehmen und genau mit den Inhalten, die seine Lobbygruppe vorgibt, verbreiten. Den Anfang haben der Spiegel und das Hamburger Abendblatt bereits gemacht.

Wer also gegen einen weiteren Ausbau erneuerbare Energien ist, der ist hoffnungslos in der Minderheit, so jedenfalls will es die Studie des Instituts „Kantar Emnid“, die natürlich, wie könnte es anders sein, repräsentativ ist. Bevor wir zur Nutzung von Umfragen zum Zwecke der Meinungsmanipulation kommen, hier noch ein kleiner Blick auf das Korruptions-Netzwerk, das sich in diesem Fall Emnid bedient hat.

Die Agentur für Erneuerbare Energien, eine üppig ausgestattete Lobbygruppe, die allein 5 Pressesprecher unter ihren 18 Angestellten unterhält, sie hat die Studie in Auftrag gegeben und die Pressemeldung über das Ergebnis der Studie erstellt und über die Funke-Mediengruppe verbreitet.

Das Ziel der Studie besteht darin, eine breite Mehrheit der Deutschen als pro erneuerbare Energien auszuweisen, um auf dieser Grundlage die öffentliche Meinung mindestens beeinflussen, vielleicht auch manipulieren zu können [Fehlschluss ad populum: Siehst Du, alle sind der Meinung…”] und über die Pressemeldung Druck auf die Bundesregierung auszuüben, auf dass die Fördermittel aus dem Steuertopf für die Industrie erneuerbarer Energien auch in Zukunft fließen mögen.

Der Druck, der mit den so passenden Ergebnissen im Interesse der eigenen Klientel auf die Bundesregierung ausgeübt wird, kommt wiederum von einer Lobbyorganisation, zu deren Förderern und Finanziers u.a. die folgenden Organisationen und Institutionen gehören:

  • Bundesministerium für Wirtschaft und Energie
  • Bundesministerium für Ernährung und Landwirtschaft
  • Berliner Energieagentur (eine Ausgründung des Berliner Senats)
    Usw.

Gleich zwei Bundesministerien finanzieren somit eine Lobbyorganisation, die ihr Geld dazu benutzt, vermeintlich repräsentative Studien in Auftrag zu geben, deren passende Ergebnisse genutzt werden, um die Bundesregierung öffentlich und mit angeblich 95% der Bevölkerung im Rücken, dazu zu drängen, die erneuerbaren Energien auszubauen.

Dieser Kreis der Korruption ist eines der staatlich finanzierten und betriebenen Systeme, mit denen versucht wird, die öffentliche Meinung im Sinne der Politik zu beeinflussen, die man sowieso durchzuführen gedenkt. Auch die Europäische Union bedient sich dieser Technik mit großem Erfolg, wie Christopher Snowdon gezeigt hat. Mit Demokratie hat das ganze nichts zu tun, eher mit einem großangelegten Meinungsbetrug durchgeführt von entsprechenden Korruptionsnetzwerken.

Nun zur Auftragsstudie mit den passenden Ergebnissen.

Das, worum es bei der Umfrage ging, steht bereits im ersten Absatz der Pressemeldung der Agentur für Erneuerbare Energie:

„Das Ergebis der Umfrage beweist, wie breit der gesellschaftliche Konsens ist, der die Energiewende in Deutschland trägt”, sagt Nils Boenigk, stellvertretender Geschäftsführer der AEE. „95 Prozent sind ein deutliches Votum an die kommende Bundesregierung, den Ausbau der Erneuerbaren Energien entschlossen voranzutreiben“, so Boenigk mit Blick auf die Bundestagswahl im September.

In der Tat, eine Zustimmung von 95% sind ein stolzer Wert. Tatsächlich ist eine solche überwältigende Zustimmung ein Wert, der jeden Sozialforscher die Stirn in tiefe Falten legen und im Geist die Frage bewegen lässt, ob er hier Junk gemessen hat. Hat ein Sozialforscher diese Bedenken nicht, dann hat er es offensichtlich darauf angelegt, eine überwältigende Zustimmung mit seiner Befragung zu erreichen.

Sie glauben, das sei nicht möglich?
Ah, nichts ist leichter, als Befragte zu einem bestimmten Antwortverhalten zu manipulieren.

Nehmen wir die folgende Aussage, bei der es sich um die Form der Aussage handelt, die von Emnid im Auftrag der Agentur für Erneuerbare Energien genutzt wurde:

Stärkere Nutzung und Ausbau Erneuerbarer Energien sind

  • Überragend wichtig
  • Sehr wichtig
  • Wichtig
  • Weniger Wichtig
  • Überhaupt nicht wichtig

Schon die Frage ist ein Musterbeispiel der Manipulation, denn es gibt keinerlei negative Formulierung. Wer diese Frage entwickelt hat, wusste, was er als Ergebnis haben will, wird den Befragten doch bereits durch die Antwortalternativen suggeriert, dass Ausbau oder Nutzung erneuerbarer Energien in vier Fällen wichtig ist und nur in einem Fall überhaupt nicht wichtig. Eine korrekte Formulierung umfasste die Antwortalternativen „sehr wichtig“, „eher wichtig“ „eher unwichtig“, „sehr unwichtig“.

Nun wollen wir als Antwort-Manipulateur natürlich nicht nur mit den Antwortalternativen dafür sorgen, dass die Befragten die richtige Antwort geben. Entsprechend formulieren wir eine Frageeinleitung, die sich in etwa wie folgt liest:

In den letzten Jahren ist die Energiewende in Deutschland von der Bundesregierung vorangetrieben worden. Der Schutz des Klimas und der Ausstieg aus der gefährlichen Kernenergie machen einen Ausbau der alternativen Energien notwendig, um nicht nur die Stromversorgung Deutschlands, sondern auch die Gesundheit der Bürger und das weltweite Klima zu sichern. Im Folgenden bitten wir Sie für jede der genannten Aussagen anzugeben, für wie wichtig sie den entsprechende politische Aufgabe halten:

Stärkere Nutzung und Ausbau Erneuerbarer Energien sind

  • Überragend wichtig
  • Sehr wichtig
  • Wichtig
  • Weniger Wichtig
  • Überhaupt nicht wichtig

Was wäre wohl das Ergebnis, wenn man die Aussage wie folgt einleiten würde:

Die Kosten für Erneuerbare Energien steigen von Jahr zu Jahr. Schon jetzt ist der Strompreis in Deutschland so hoch wie sonst nur noch in Dänemark. Gleichzeitig hat die teure Energiewende nicht dazu geführt, dass Deutschland auf Strom aus Kohle und anderen fossilen Brennstoffen verzichten könnte. Wie ist vor diesem Hintergrund ihre Einschätzung der Wichtigkeit der folgenden politischen Aufgaben:

Stärkere Nutzung und Ausbau Erneuerbarer Energien sind

  • Sehr wichtig
  • Eher unwichtig
  • Unwichtig
  • Sehr unwichtig
  • Vollkommen unwichtig

Junk von Emnid

Seltsamerweise macht die Agentur für Erneuerbare Energie keinerlei Angaben darüber, in welchem Kontext das Ergebnis, dass 95% der Befragten die Nutzung und den Ausbau erneuerbarer Energien für wichtig halten, zustande gekommen ist. Dass es nicht der zuletzt genannte Fragekontext war, kann als sicher angenommen werden. Dass der Fragekontext genutzt wurde, um Befragte zu bestimmten Antworten zu manipulieren, das legen schon die Antwortvorgaben nahe. Auch die folgende Aussagebatterie legt nahe, dass es in der Junk-Studie der Agentur für Erneuerbare Energien ausschließlich darum gegangen ist, hohe Zustimmungswerte zu erreichen.

Studenten, die wissen wollen, wie man einen Confirmation Bias produziert, um ihn ideologisch zu nutzen, können die Aussagen in der Abbildung rechts als Beispiel benutzen. Mit dem Begriff des Confirmation Bias wird die Tendenz von Befragten umschrieben, Aussagen zuzustimmen. Deshalb wird in Aussagebatterien wie der folgenden normalerweise mindestens eine Aussage negativ formuliert, dass dies im vorliegenden Fall unterlassen wurde, zeigt, dass es gerade darum gegangen ist, einen confirmation bias zu produzieren, um ihn für die eigenen ideologischen Zwecke nutzen zu können.

Es ist schändlich, dass Institute wie Kanter Emnid sich für derartige Junk-Umfragen hergeben.

Es ist auch schändlich, dass Medienvertreter mangels Urteilsfähigkeit oder -willigkeit ihren Leser einen derartigen Junk kritiklos zumuten.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Bertelsmann-Studie: Zwei-Drittel der Deutschen sind totalitär und naiv

Man muss nicht nach dem Motiv oder der Intention der Verfasser fragen, wenn die Ergebnisse einer „Online-Panel-Befragung“, die seit 2015 in drei Wellen durchgeführt wurde, zeitlich so getaktet wurde, dass ein Ergebnisbericht kurz vor der Bundestagswahl bereit steht. Man muss schon deshalb nicht nach ihren Motiven fragen, weil der Ergebnisbericht mit „Die Stunde der Populisten?“ überschrieben ist. Man kann bereits hier feststellen, dass es nicht darum geht, wissenschaftliche Forschungsergebnisse zu präsentieren, sondern Nahrung für politische Kämpfer bereitzustellen, für all diejenigen, die (1) „Populismus“ täglich gebrauchen, (2) keine Ahnung haben, was der kognitive Gehalt von Populismus sein soll, was Populismus bedeutet und (3) den Begriff einzig wegen seiner affektiven, seiner affektiv-negativen Konnotation benutzen.

Dass Populismus von denen, die sich für die politischen oder irgendwelche Eliten in Deutschland halten als negativer Kampfbegriff benutzt wird, das wussten wir allerdings schon vor dem teuren Online-Panel der Bertelsmann-Stiftung. Dass Populismus vor allem benutzt wird, um die AfD und ihre Wähler zu bekämpfen, war auch bekannt. Was also ist der Zweck dieser neuen Studie? Der Zweck kommt bei der ARD eher unter der Hand mit: Populisten, das sind Ungebildete mit geringem Einkommen. Wer gebildet ist, kein geringes Einkommen hat und etwas vorstellen will, der ist kein Populist. Da Populisten vorzugsweise die AfD oder die LINKE wählen, sind beide Parteien als Parteien der Loser ausgezeichnet. Das sollte reichen, um die Mittelschicht von der Wahl der AfD abzuhalten. So wohl das Kalkül.

Ob dieses Kalkül aufgeht, ist letztlich eine Frage, deren Antwort davon abhängt, wie naiv Deutsche wirklich sind, wie viele Deutsche sich durch einen methodisch völlig unnötig aufgebauschten Ansatz täuschen lassen und wieder einmal der Behauptung, die Ergebnisse seien „repräsentativ“ auf den Leim gehen. Denn: Methodisch betrachtet ist die vorliegende Studie ebenso Junk, wie sie es inhaltlich ist.

So hat sich z.B. der Redakteur der Tagesschau, der die Studie beschreiben musste, ernsthaft bemüht zu verstehen, was die Bertelsmänner Robert Vehrkamp und Christopher Wratil da methodisch getrieben haben. Herausgekommen ist folgender Unfug:

„Um die Populismus-Neigung zu erfassen, haben die Forscher drei repräsentative Onlinebefragungen durchgeführt“ und:
„Infratest dimap befragte zwischen Juli 2015 und März 2017 dreimal jeweils mehr als 1600 Wahlberechtigte.“

Beides wird dem, was die Bertelsmänner getrieben haben, nicht gerecht. Die Bertelsmänner behaupten bekanntlich, sie hätten eine Online-Panel-Befragung durchgeführt. Panel ist die wissenschaftliche Bezeichnung für eine zu mehreren Zeitpunkten mit den selben Befragten durchgeführte Befragung. Die Bertelsmänner haben drei Wellen durchgeführt. In der ersten Welle (Juli 2015) wurden 1.049 Wähler und 1.052 Nichtwähler gezogen und befragt. Die Grundgesamtheit des Panels umfasst somit 2.101 Befragte. Natürlich ist diese erste Welle repräsentativ, obwohl es in der Bevölkerung nicht mehr als 50% Nichtwähler bei Bundestagswahlen gibt. Aber lassen wir den Bertelsmännern für den Moment die Einbildung, sie hätten zwei jeweils für sich repräsentative Teilstichproben gezogen, einmal für Wähler, einmal für Nichtwähler. Die zweite Welle des Panels fand im Juli 2016 statt. Die Idee bei einem Panel besteht nun darin, nach einiger Zeit, dieselben Personen zu befragen. Das ist die Theorie. In der Praxis gibt es Panelmortalität, d.h. von den 2.101 Befragten, die 2015 die Fragen beantwortet haben, beteiligt sich nur noch ein Teil an der zweiten Befragung. Den Bertelsmännern sind zwischen Juli 2015 und Juli 2016 417 Befragte oder 20% ihrer Grundgesamtheit abhanden gekommen. Sollte die erste Welle tatsächlich repräsentativ gewesen sein, so ist es die zweite nach einer Mortalität von 20% sicher nicht mehr. Für die dritte Welle, die seltsamerweise nicht im Juli 2017, sondern bereits im März 2017 durchgeführt wurde, weil man ansonsten die Ergebnisse nicht mehr vor der Bundestagswahl hätte präsentieren können, sind den Bertelsmännern dann nur noch 1.464 Befragte, also 70% ihrer Grundgesamtheit geblieben. Viel zu wenig, als dass man noch von einer repräsentativen Stichprobe ausgehen könnte. Also haben die Bertelsmänner die Stichprobe aufgefüllt, um weitere 907 Befragte, so dass die Grundgesamtheit nun 2.371 Befragte umfasst, die keinerlei Verbindung mehr zu der ursprünglichen Grundgesamtheit von 2.101 Befragten mehr aufweisen, da die 907 Neubefragten einfach aus dem Pool von Infratest-Dimap gezogen wurden. All die hehren Motive der ersten Welle, die die angebliche Repräsentativität gewährleisten sollen, haben sich also in Luft aufgelöst, angesichts der Notdurft, noch schnell vor der Wahl etwas über Populismus in die Medienlandschaft zu emittieren. Übrigens sind Wähler der AfD und der LINKE in der Befragung überrepräsentiert. Wir haben also eine vermeintlich repräsentative Grundgesamtheit mit einer Überrepräsentation von AfD-Wählern, LINKE-Wählern und Nichtwählern. Wie lange muss man deutschen Journalisten mit dem Begriff „Repräsentativität“ eigentlich vor der Nase wedeln, bevor sie bemerken, dass sie gerade in vollem Zaumzeug einen Manipulations-Karren durch die Landschaft ziehen?

Die Ergebnisse, die die Bertelsmänner nun „Als Stunde der Populisten“ verkaufen wollen, basieren auf den Angaben von nicht mehr als 3000 Befragten. Dennoch findet sich unter den Abbildungen, die im Bericht verteilt wurden, keinerlei Angaben zur Anzahl der Befragten, die in die jeweilige Abbildung eingeflossen sind. Statt dessen wird versucht, die Leser mit der Formulierung: „Grundgesamtheit: Wahlberechtigte deutsche Staatsbürger zum Zeitpunkt der Bundestagswahl 2013“ zu täuschen. Diese Aussage ist eine Lüge, denn (1) ist die Grundgesamtheit nicht die Grundgesamtheit aller wahlberechtigten deutschen Staatsbürger, eine solche Vollerhebung würde selbst die üppigen Finanzen der Bertelsmann-Stiftung überdehnen und wäre zudem technisch nicht durchführbar; (2) sind in der Grundgesamtheit 907 Befragte enthalten, die – weil 30% der ursprünglichen Befragten, die 2015 dass Panel konstituiert haben, sich nicht mehr am Panel beteiligt haben, kurzerhand aus dem Fundus von Infratest Dimap aufgefüllt wurden.

Die entsprechende Behauptung unter den Abbildungen ist eine Lüge, die Wissenschaftler früher aufgeregt hätte. Heute sind derartige Lügen wohl als Normalität anzusehen.

Methodisch betrachtet, ist der ganze Zinnober mit den drei Wellen des Panels vollkommen unnötig, denn die Ergebnisse werden als Querschnittsergebnisse, nicht als Längsschnittsergebnisse präsentiert (es gibt keinen Zeitverlauf), was den Verdacht nahelegt, dass durch die methodische Kanone, die hier aufgefahren wird, um auf journalistische Spatzen zu schießen, einzig dazu gedacht ist, Ehrfurcht vor den Ergebnissen zu verbreiten. Denn in Deutschland haben Journalisten Ehrfurcht vor dem, was prätentiös daherkommt, und was sie nicht verstehen. Sie halten derartigen methodischen Unfug dann für komplex. Außerdem steht empirische Sozialforschung im Verdacht, mit Zahlen zu operieren, was den Ehrfurchtsfaktor um den Faktor 10 erhöht und dazu führt, dass mit Sicherheit kein Journalist an dem Zinnober zweifelt und merkt, dass er hier von Bertelsmännern vorgeführt wird.

Wenn man Journalisten noch zugute halten könnte, dass sie methodische Illiteraten sind, wenn es um empirische Sozialforschung geht, so kann man ihnen nicht mehr zugute halten, dass sie sich einen totalitaristischen Entwurf als „Idelatypus“ unterschieben lassen und sich daran beteiligen, Teile der Bevölkerung als populistisch zu beschimpfen.

Damit sind wir bei der Frage: Wie wird Populismus eigentlich gemessen? Auch hier zeichnet sich die Studie der Bertelsmänner durch eine Mischung von unnötiger Verquasung und fast schon boshafter Interpretation aus, die bemerkenswert ist. Zunächst zur Verquasung: Acht Aussagen konstituieren Populismus. Vier dieser Aussagen sollen „den Gegensatz zwischen politischer Elite und Bürgern“ messen, vier Aussagen „Anti-Pluralismus … die Idee der Bürger als homogene Einheit“. Zudem sollen drei der acht Aussagen noch den „Wunsch nach direkter Volksherrschaft messen“. Eigentlich kann man den Junk nun ad acta legen, denn Sozialforscher, die offen zugeben, dass sie nicht wissen, was ihre Items (Aussagen) genau messen, flehen quasi darum, nicht ernstgenommen zu werden.

Ein ehernes Gesetz der empirischen Sozialforschung, dessen Nichtbefolgung den Mülleimer für die Ergebnisse zur Folge hat, hat die Eindeutigkeit der Frageformulierung zum Gegenstand. (1) Fragen oder Aussagen, die Befragten vorgelegt werden, dürfen nicht mehr als einen Stimulus enthalten, da man bei zwei Stimuli nicht weiß, worauf ein Befragter reagiert hat. (2) Fragen oder Aussagen, die Befragten vorgelegt werden, dürfen auf nur ein latentes Konzept verweisen, weil sonst nicht klar ist, was die entsprechenden Aussagen genau messen sollen. Vehrkamp und Wratil sagen ganz offen, dass drei ihrer acht Aussagen nicht eindeutig einer latenten Variablen zuordenbar sind. Mit anderen Worten, sie haben keine Ahnung, was sie da messen. Sie haben Junk produziert.

Soweit zu den methodischen Fehlern, nun zum Inhalt. Wie haben die Bertelsmänner „Populismus“ gemessen? Sie haben ihren Populismus über zwei latente Konzepte gemessen. Wir zitieren: „Im Zentrum dieser Populismus-Definition steht das ‚Volk‘ … und die Forderung nach seiner direkten und umittelbaren Herrschaft, der sogenannten Volkssouveränität“. Die Forderung nach Volkssouveränität ist also für die Bertelsmänner populistisch.

„Alle Staatsgewalt geht vom Volke aus“, so heißt es im populistischen Artikel 20, Absatz 2 des populistischen Grundgesetzes. Man muss somit folgern, dass Menschen, die auf die im Grundgesetz verankerte Volkssouveränität verweisen, von den Bertelsmännern als populistisch bezeichnet werden. Da dasselbe populistische Grundgesetz in seinem Artikel 20 Absatz 1 feststellt, dass Deutschland .. „ein demokratischer Bundesstaat“ sei, muss (transitiv) man weiter schließen, dass populistisch und demokratisch hier synonym benutzt werden, was für all diejenigen, die nicht populistisch sind, nur anti-demokratisch als Bezeichnung übrig lässt.

Ein weiterer Aspekt von Populismus, neben der demokratischen Haltung, so schreiben die Bertelsmänner, besteht in der Gegenüberstellung von Volk und wie sie schreiben „Elite“: „Populismus begreift gesellschaftliche Auseinandersetzungen als Konflikte zwischen ‚einem‘ guten Volk und dem ‚einen‘ korrupten Establishment“. Lassen wir die wenig zweckdienliche Bewertung, die die Bertelsmänner den Lesern hier unterschieben wollen, einmal außen vor, dann gehen Populisten davon aus, dass Politiker eigene Interessen haben, die nicht immer, wenn überhaupt, mit den Interessen derer, die sie vertreten, übereinstimmen. Insofern jede andere Ansicht, die man in der Terminologie von Vehrkamp und Wratil als Gegenüberstellung der „reinen politischen Elite“ und dem Volk beschreiben könnte, kaum anders als naiv zu nennen ist, denn die Vorstellung, die politische Kaste, die die Autoren in wilhelminischer Tradition als Elite bezeichnen, sei nur von dem selbstlosen Wunsch getrieben, die Interessen der Bevölkerung zu vertreten, der „einen Bevölkerung“, wie Vehrkamp und Wratil schreiben, ist an Naivität nicht mehr zu übertreffen. Entsprechend muss man feststellen, dass alle, die sich in der Befragung der Bertelsmänner nicht als populistisch erwiesen haben, anti-demokratische Naivlinge sein müssen. Die gute Nachricht für Deutsche: Die Menge der anti-demokratischen Naivlinge ist kleiner als von den Bertelsmännern behauptet. Letztlich beruht die Einstufung von Befragten als Populist nämlich auf einer Skala von 0 bis 32, die sich als Ergebnis der Bildung eines summarischen Index‘ über die acht Aussagen ergibt. Normalerweise teilt man eine solche Skala in der Mitte, addiert eine Einheit und sagt, alle Befragten, die 17 und mehr Punkte erreichen, werden von uns als populistisch klassifiziert. Die Bertelsmänner klassifizieren Befragte erst ab 21 Punkten als populistisch. Warum? Fragen Sie die Bertelsmänner.

Damit wollen wir es jedoch nicht bewenden lassen, denn die Frage, was denn Populismus sein soll, ist nach wie vor nicht beantwortet. Wie Populismus technisch zusammengerechnet wurde, haben wir dargestellt, aber nicht, aus welchen Aussagen er zusammengerechnet wurde. Hier die Acht Items, denen Befragte voll oder eher zu- bzw nicht zustimmen konnten.

  • „Die Bürger sind sich oft einig, aber die Politiker verfolgen ganz andere Ziele.“

Wenn man diese Aussage als Indikator für Populismus benutzen will, dann muss man ab jetzt jeden Politiker, der sich auf eine Mehrheit von Befragten in einer beliebigen Umfrage bezieht, um seine Position zu stützen als populistisch bezeichnen.

  • „Mir wäre es lieber, von einem einfachen Bürger politisch vertreten zu werden als von einem Politiker.“

Diese Aussage diskreditiert sich von selbst, soll den Befragten doch untergeschoben werden, dass Politiker mehr als einfach Bürger seien, etwas Besseres. Das ist unlauter und ein Fall für eine Ethikkommission, die die Bertelsmänner aber nicht haben.

  • „Die Parteien wollen nur die Stimmen der Wähler, ihre Ansichten interessieren sie nicht.“

Das wiederum ist Gegenstand einer wohl begründeten und gut geprüften Theorie. Anthony Downs hat sie als Ökonomische Theorie der Demokratie entwickelt. Gordon Tullock und James M. Buchanan haben die Theorie weiterentwickelt und im Rahmen ihres Public Choice Ansatzes mehrfach bestätigt.

  • „Die politischen Differenzen zwischen den Bürgern und Politikern sind größer als die Differenzen der Bürger untereinander.“

Das ist eine empirische Frage, die bislang noch niemand untersucht hat. Was an der Zustimmung zu einer Frage, deren Antwort niemand kennt, populistisch sein soll, ist unklar. Wer diese Frage jedoch als Beleg für Populismus wertet, der zeigt damit, dass er eine naive Vorstellung von Demokratie verinnerlicht hat, wie sie einst Charles Taylor in seiner normativen Theorie der Demokratie verewigt hat. Normativ bezieht sich auf das Sollen, nicht auf das Sein.

  • „Wichtige Fragen sollten nicht von Parlamenten, sondern in Volksabstimmungen entschieden werden.“

Das ist eine Frage des demokratischen Verständnisses. Es gibt eine Vielzahl von Arbeiten zu den Vorteilen direkter Demokratie. In keiner davon, wird versucht direkte Demokratie als Populismus zu verunglimpfen. Aber es ist interessant zu wissen, dass die Bertelsmänner die Schweiz als populistisches Land ansehen.

  • „Die Politiker im Bundestag sollten immer dem Willen der Bürger folgen.“

Artikel 20 Absatz 2 ist unmissverständlich: „Alle Staatsgewalt geht vom Volke aus.“ Wenn die Bertelsmänner hier allen Ernstes einer Staatsform das Wort reden sollen, bei der Wähler als Legitimationsvieh ihre Stimme in Urnen werfen und Politiker anschließend nach Gusto schalten und walten, dann erweisen sie sich als Anhänger von mindestens Autoritarismus wenn nicht Totalitarismus.

  • „Die Bürger in Deutschland sind sich im Prinzip einig darüber, was politisch passieren muss.“

Was diese unsinnige Aussage messen soll uns nicht klar. Uns ist jedoch klar, dass auch dann, wenn man Befragten eine unsinnige Aussage vorlegt ein Teil der Befragten eine Angabe machen wird. Und da uns die Bertelsmänner verschweigen, wie viele Befragte keine Angabe zu ihren Aussagen gemacht haben, ist es möglich, dass es gelungen ist, die Mehrzahl der Befragten auch dazu zu bewegen, zu einer unsinnigen Aussage eine Angabe zu machen.

  • „Was man in der Politik „Kompromiss“ nennt, ist in der Wirklichkeit nichts Anderes als ein Verrat der eigenen Prinzipien.“

Nun, wie soll man es den Bertelsmännern beibringen? Brachial! Das stimmt. Wenn ein Fleischesser und ein Veganer in ein Restaurant gehen, dann wird es keinen Kompromiss dahingehend geben, dass der Veganer ein wenig Fleisch isst. Tut er es, dann ist er kein Veganer. Wer Prinzipien hat, kann keine Kompromisse im Hinblick auf diese Prinzipien schließen. Wer aus z.B. einem religiösen Prinzip gegen die Einführung einer Ehe für alle ist, kann dahingehend keinen Kompromiss schließen. Dass unsere Aussagen zutreffen, zeigt sich schon daran, dass im Bundestag nach wie vor abgestimmt wird. Das wäre sicher nicht notwendig, wenn man es nur mit prinzipienlosen Kompromisshanseln zu tun hätte.

Die Fragen zeigen letztlich die Armut empirischer Sozialforschungsversuche, die betrieben werden, um Befragte zu diskreditieren bzw. Befragten die eigenen Wertungen unterzuschieben. Empirische Sozialforschung ist jedoch weder ein Legitimationsbeschaffungsinstrument für Politiker noch ein Vehikel, das man einsetzen kann, um Befragte zu diskreditieren. Es ist eine Technik, um Forschungsfragen zu beantworten.

Ah, Forschungsfrage.
Was war noch einmal die Forschungsfrage der Bertelsmänner, die so schnell beantwortet werden musste, dass die dritte Welle ihres Online-Panels um vier Monate nach vorne verlegt und die Tatsache, dass es sich um Paneldaten handelt, bei der nachfolgenden Auswertung schlichtweg ignoriert wurde?

Politische Arschkriecherei?
Speichellecken?
Politisches Andienen?

Es entbehrt nicht einer gewissen Ironie, dass Robert Vehrkamp, einer der beiden Autoren, ausgerechnet Direktor im Programm “Zukunft der Demokratie” der Bertelsmann-Stiftung ist. Welche Zukunft der Demokratie von hier droht, kann man sich nach der Analyse oben ausmalen. Aber vielleicht steht es um die Zukunft der Demokratie ja immer noch besser als um die Zukunft der empirischen Sozialforschung.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Junk-Umfrage: PronovaBKK, Flüchtlingskinder integrieren, repräsentativ natürlich

Komm‘ wir machen eine Umfrage.

Zutaten:

  • Geld,
  • ein paar Fragen
  • ein paar Befragte, am besten so um die 1000.

Besondere Kenntnisse:

  • Keine.

Einfach auszählen. Fertig ist die repräsentative Umfrage.

Dieses Mal stammt der Umfrage-Junk aus Ludwigshafen von der PronovaBKK, die von sich sagt, sie stelle „das Mehr“ an Leistung bereit, das sie zu einer besonderen Krankenkasse mache. Möglicherweise gibt es bei der PronovaBKK Personen, die Kompetenzen im Hinblick auf die Krankenversicherung aufweisen. Personen, die Kompetenzen im Hinblick auf empirische Sozialforschung haben, gibt es dort anscheinend nicht.

Das belegt die UmfrageJunge Familien 2017“. 1000 Bundesbürger mit jeweils einem Kind wurden für diese Umfrage „repräsentativ online befragt“. Wenn man „repräsentativ befragt“, dann kommen natürlich repräsentative Stichproben dabei heraus, die zu repräsentativen Ergebnissen führen. Prüfung unnötig, die Absicht macht die Repräsentativität.

Indes, wenn die Menschen bei der PronovaBKK das Nomen „Repräsentativität“ bzw. das Adjektiv „repräsentativ“ nicht benutzen würden, wie eine Essensbeilage, einen Chateau Rülps 2017, den man halt zum Essen trinkt, wenn sie auch nur entfernt eine Vorstellung davon hätten, was Repräsentativität bedeutet, dann wäre ihnen vielleicht aufgefallen (man soll die Hoffnung ja nicht aufgeben), dass ihre Stichprobe, in der 30% männliche und 70% weibliche Befragte erfasst wurden, schon deshalb nicht repräsentativ sein kann, weil selbst an Familien mit Kind immer noch in der Mehrzahl Männer und Frauen in gleicher Zahl beteiligt sind. Man würde also eine ungefähre Gleichverteilung der Befragten nach Geschlecht erwarten.

Repräsentativität, das nur nebenbei bemerkt, ist Ergebnis einer Zufallsauswahl, die dadurch definiert ist, dass jedes Element der Grundgesamtheit die gleiche Chance hat, in die Stichprobe zu gelangen, das wiederum ist eine Forderung, der mit herkömmlichen Mitteln der Sozialforschung kaum zu genügen ist. Repräsentativität ist zumeist ein Mythos, der von interessierter Seite gepflegt wird.

Die nicht-repräsentativen Ergebnisse der „repräsentativen Befragung“ leiden zudem darunter, dass die Fragen, die gestellt wurden, mit allerlei methodischen Fehlern versehen sind.

Zwei Beispiele:

“Die Flüchtlingskinder sollten, bevor sie in KITA und Schule integriert werden, die Möglichkeit bekommen, einen Sprachkurs zu machen.

Die Flüchtlingskinder sollten so schnell wie möglich in den Alltag von KITA und Schule integriert werden, damit sie sich besser einleben.”

Beide Aussagen sind typische Zustimmungsitems. Was erwartet man auf Fragen nach einem „Sollten“?

Kriminelle sollten so schnell wie möglich abgeurteilt werden.

  • Zustimmung garantiert.

Wer unschuldig in Not gerät, dem sollte geholfen werden.

  • Fast 100% Zustimmung sicher.

Begabte Jungs sollten so früh wie möglich mit dem Fussballtraining beginnen, damit sie sich besser entwickeln können.

  • Kaum einer, der nicht zustimmt – außer ein paar versprengten, gehässig-verhärmten Feministen.

Nach einem Schienbeinbruch sollten die Verletzten so schnell wie möglich mit der Belastung des Beines beginnen, um den Heilungsprozess zu befördern.

  • Wer stimmt nicht zu?

Was in allen Fällen gemessen wird, ist die Bereitschaft von Befragten, anderen keine Steine in den Weg zu legen. Deshalb wird man mit solchen Fragen immer positive Ergebnisse produzieren. Das Ziel von Befragungen besteht aber in der Regel nicht darin, sich zu beweisen, dass man Befragte zur Zustimmung bewegen kann, es sei denn man beabsichtigt, Ergebnisse zu manipulieren. Das Ziel von Befragungen besteht darin, Informationen z.B. über Einstellungen von Befragten zu gewinnen. Wenn man die Einstellung zu Flüchtlingskindern mit Blick auf deren Integration in Schulen messen will, dann darf man deshalb keine Fragen stellen, die die Zustimmung geradezu herausfordern – sofern man die Ergebnisse nicht manipulieren will.

Vielmehr muss man der Tatsache Rechnung tragen, dass sich eine Einstellung aus drei Dimensionen zusammensetzt, einer kognitiven, einer affektiven und einer konnativenm etwa so:

  • Gibt es in der Schule ihres Kindes Flüchtlingskinder?
  • Gibt es in der Schule ihres Kindes Probleme mit der Integration von Flüchtlingskindern?
  • Sehen Sie in der Integration von Flüchtlingskindern in Schulen eine wichtige Aufgabe?
  • Sind Sie der Ansicht, dass die Integration von Flüchtlingskindern Vorrang vor anderen schulischen Aufgaben hat?
  • Sind Sie der Ansicht, dass die Integration von Flüchtlingskindern auch zu Lasten der Kinder gehen darf, die sich bereits in den Klassen befinden?
  • Wie stehen Sie der Integration von Flüchtlingskindern in die Klasse ihres Kindes gegenüber?
  • Und so weiter.

Auf diese Weise kann man tatsächlich Informationen darüber gewinnen, welche Einstellung Eltern zu Flüchtlingskindern haben – wenn man an Informationen interessiert ist. Bei der pronovaBKK scheint man nicht an Informationen, sondern an Zustimmung interessiert zu sein, was die Frage aufwirft, warum unbedingt eine Zustimmung zur Integration von Flüchtlingskindern produziert werden soll.

In der Pressemeldung ist aus dem Konjunktiv der Frage „sollten so schnell wie möglich“ der Indikativ geworden: „Eltern plädieren für eine schnelle Integration“ und „74 Prozent der Befragten wünschen, dass“. Das beantwortet unsere Frage von oben zunächst einmal.

Das war übrigens ein repräsentativer ScienceFiles-Beitrag.
Nein – wirklich!

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

LfM-Fake-News Studie: Fachkräfteportal für Kinder- und Jugendhilfe verbreitet Falschnachrichten

Es ist immer wieder erstaunlich, dass Menschen, die bar jeder Ahnung darüber sind, was empirische Sozialforschung ist und wie man die Ergebnisse, die im Rahmen von z.B. Meinungsumfragen gewonnen werden, interpretiert, sich dennoch auf diese Ergebnisse stürzen und eine phantasievolle Narration weben, die mit den Daten überhaupt nichts zu tun hat.

morons2Wir haben eine solche Narration beim Fachkräfteportal für Kinder- und Jugendhilfe gefunden, für das wir bislang nur feststellen können, dass sich dort keine Fachkräfte finden, wenn es um die Interpretation von Umfrageergebnisse geht. Statt dessen findet sich dort der Ausdruck dessen, was man im Englischen raving madness nennt.

Zunächst die Narration. Die Zahlen in Klammer beziehen sich auf unsere kostenfreie Überprüfung dieser Fake-News:

“Falschmeldungen im Internet sind in der Mitte der Gesellschaft angekommen. Dies hat eine Studie der Landesanstalt für Medien Nordrhein-Westfahlen (LfM) ergeben [1].

Fast 80% der Jugendlichen sind bereits mit Fake News in Berührung gekommen, erkennen diese aber häufiger als Erwachsene. [2]

Neben der Hassrede im Netz, deren steigende Brisanz erst vor zwei Wochen durch eine Studie der LfM belegt wurde, ist auch das Thema der verfälschten Information, der sogenannten Fake News oder auch “alternativen Wahrheit” inzwischen in der Mitte der Gesellschaft angekommen. Das belegt eine weitere Studie der Landesanstalt für Medien NRW (LfM). [3]

Danach ist mehr als die Hälfte der deutschen Onlinenutzer (59%) schon einmal mit Fake News in Berührung gekommen. [4]

Jüngere Nutzer erkennen dabei eher als Ältere Falschmeldungen. In der Gruppe der 14- bis 24-jährigen haben bereits 77 Prozent Fake News im Internet gesehen. [5]

Kennzeichnungsmöglichkeiten und neue Löschgesetze werden von vielen Befragten befürwortet. [6]”

Und nun zur Berichtigung der Fake-News, die von keinerlei Fachkräften aus dem Fachkräfteportal für Kinder- und Jugendhilfe verbreitet werden.

[1]
Falschnachrichten im Internet sind nicht in der Mitte der Gesellschaft angekommen. Die Aussage ist zum einen Unsinn, zum anderen wurde in der Umfrage, auf die sich diese Behauptung bezieht, keinerlei Versuch unternommen, die gesellschaftliche Mitte zu bestimmen. Fake-News.

Frosa LfM Fake News 1[2] Fast 80% der Jugendlichen sind nicht mit Fake News in Berührung gekommen, weil in der Umfrage überhaupt nicht danach gefragt wurde, ob Jugendliche mit Fake-News in Berührung gekommen sind. Die Umfrage wurde von Forsa, dem Institut zur Forcierung gewünschter Ergebnisse durchgeführt, und deshalb muss man genau hinsehen. Wenn man genau hinsieht, dann liest man das Wörtchen „(vermutliche)“ vor Fake News. D.h. Forsa hat seine Befragten gefragt, ob sie „persönlich schon (vermutliche) Fake News bzw. Falschnachrichten im Internet bemerkt haben“. Was also erfragt wurde ist, ob die Befragten GLAUBEN, dass sie schon einmal eine Fake News gesehen haben. 13% der Jugendlichen, das sind 14 bis 24jährige für Forsa, weil das Institut zu wenige Befragte hat, um bei 18 Jahren einen Schnitt zu machen, sagen, dass sie häufig etwas, das sie für Falschnachrichten gehalten haben, gesehen haben (ob es sich dabei um Fake News gehandelt hat, ist eine ganz andere Frage), 35% sagen, sie haben ab und zu etwas gesehen, das sie für Falschnachrichten gehalten haben und 29% sagen, dass sie selten etwas gesehen haben, was sie für Falschnachrichten gehalten haben. Das macht in der Addition 77% der 15 bis 24jährigen. Daraus werden beim Fachkräfteportal für Kinder- und Jugendhilfe fast „80% der Jugendlichen“, die bereits mit Fake News in Berührung gekommen sein sollen. Ob derartige Phantasien unter dem Einfluss von Designerdrogen, Opiaten, Selbstüberschätzung oder Dummheit zu Stande kommen?

[3]
Fake News haben nichts mit alternativen Fakten zu tun. Alternative Fakten und Fake News sind auch immer noch nicht in der Mitte der Gesellschaft angekommen. Hier geht die Phantasie eines offensichtlich linken Schreibers mit ihm durch. Jedenfalls ist in keiner der Studien, auf die sich der Phantast bezieht, auch nur entfernt versucht worden, die Mitte der Gesellschaft zu operationalisieren.

[4]
Noch einmal zur Erinnerung: Forsa fragt danach ob man „persönlich schon (vermutliche) Fake News bzw. Falschnachrichten im Internet bemerkt“ hat.

Für die 59% der deutschen Onlinenutzer gilt deshalb, dass sie nicht mit Fake News in Berührung gekommen sind, sondern in 9% der Fälle angeben, häufig etwas, das sie für Fake News gehalten haben (unabhängig davon, ob es sich tatsächlich um Fake News gehandelt hat), bemerkt zu haben, 28% wollen ab und zu etwas, das hätte Fake News sein können, bemerkt haben und 22% selten. Deshalb ist die Aussage, dass 59% der deutschen Onlinenutzer mit Fake News in Berührung gekommen sind, schlicht falsch. Das sollte auch bei den Fachkräften für was auch immer ankommen.

[5]
Die 80 % aus der Unterüberschrift, die dort Jugendlichen zugeschrieben wurden, sind nun zu 77% in der Gruppe der 14 bis 24jährigen mutiert. Die Aussage ist dennoch falsch, denn die 77% der 14 bis 24jährigen, bei denen es sich nach aller Erfahrung um nicht mehr als 195 Befragte handeln dürfte, wurden nicht nach tatsächlichen Fake News befragt, sondern nach etwas, das ihnen wie Fake News vorgekommen ist. Wenn die Befragten ungefähr dasselbe Urteilsvermögen haben, wie die Fachkräfte des Fachportals, dann dürfte alles, was ihnen wie Fake News vorgekommen ist, keine Fake News gewesen sein.

[6]
Frosa LfM Fake News 2Die Behauptung haben wir anhand der Daten (Tabelle links) näher betrachtet. Auf den ersten Blick stimmen 86% der Befragten der Aussage zu „Es braucht neue Gesetze, damit Facebook und Co, Fake News schneller löschen müssen“. Auf den zweiten Blick sagen 35% der Befragten, dass sie die ganze Aufregung nicht verstehen, weil es Fake News schon immer gegeben habe, ebenso viele geben an, nicht an Fake News interessiert zu sein. Wenn sie nicht an Fake News interessiert sind, werden sie wohl kaum der Aussage zustimmen, dass es neue Gesetze braucht, um Facebook und Co zum schnelleren Löschen von Fake News zu zwingen, denn: Sie interessieren sich ja nicht für Fake News. Das lässt zwei Möglichkeiten: Die Daten von Forsa sind falsch oder die Befragten haben tatsächlich beidem zugestimmt, mehr Gesetzen gegen und keinem Interesse an Fake News. In beiden Fällen ist die Itembatterie Junk, im ersten Fall qua Datenfälschung im zweiten Fall qua Zustimmungs-Bias, denn offensichtlich haben eine Reihe von Befragten generell ihre Zustimmung erklärt und nicht darauf gehört, was ihnen am Telefon als Aussage präsentiert wurde.

Eine der wenigen Freiheiten, die in Deutschland noch zu bleiben scheinen, ist die Freiheit, in der Öffentlichkeit die eigene Unkenntnis zur Schau zu stellen. Die Verantwortlichen des Fachkräfteportals für Kinder und Jugendhilfe haben davon gerade ausgiebig Gebrauch gemacht.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Mitläufereffekt: Plötzlich ist eine Mehrheit für Zensur

Schon 1975 hat Kurt Holm in seinem Standardwerk über die Befragung den Mitläufereffekt als Mittel der Meinungsmanipulation in Umfragen beschrieben. Den Befragten wird suggeriert, dass zu einer bestimmten Frage bereits eine Mehrheit oder eine Obrigkeit oder eine Autorität zu einem bestimmten Urteil gekommen ist und dann werden die Befragten gefragt, zu welchem Urteil sie denn kommen: „Dieser Appell an den Mitläufereffekt“, so schreibt Holm, hat „natürlich nur einen Sinn, wenn der Befragte auch tatsächlich unter dem Eindruck steht, dass so wie er denkt und handelt, auch viele andere denken und handeln, ohne offen darüber zu sprechen“ (Holm, 1983: 63).

Holm_Entsprechend kann der Mitläufereffekt auch als Variante sozialer Erwünschtheit angesehen werden, soziale Erwünschtheit, die darin besteht, mit seiner Meinung die Mehrheitsmeinung zu repräsentieren, sich als Mitglied der Mehrheit, der In-Group darzustellen, nicht als Außenseiter mit abweichender Meinung.

In jedem Fall führen Mitläufereffekt und soziale Erwünschtheit dazu, dass Befragte den Befragern nach dem Mund reden, was Letztere leidlich ausnutzen, wenn es darum geht, eine bestimmte Verteilung von Antworten in angeblich repräsentativen Befragungen herbei zu manipulieren.

YouGov leistet dies seit neuestem sogar in besonders innovativer Weise und in eigenen Worten dadurch, dass „1036 Personen ab 18 Jahren im Zeitraum vom 7. bis 11. April repräsentativ befragt“ wurden. Wie man repräsentativ befragt, ist eine Frage, die mit Sicherheit niemand bei YouGov beantworten kann, einfach deshalb nicht, weil die Formulierung vollkommener Unsinn ist.

Aber darum geht es auch nicht. Es geht darum, mit dem Wörtchen „repräsentativ“ jenen Köder zu legen, den Journalisten gerne fressen, so dass die Ergebnisse von YouGov ihren Weg in die Medien Deutschlands finden, sich dort in Schlagzeilen wie: „Mehrheit der Deutschen finden Gesetzentwurf gegen Hasskommentare sinnvoll“ niederschlagen.

Die Mehrheit der Deutschen hat mit Sicherheit keine Ahnung, was in dem Gesetzentwurf, den sie nach den Ergebnissen, die YouGov verkaufen will, „sinnvoll finden“, steht. Entsprechend muss diese Mehrheit, nicht der Deutschen, sondern der 1036 Befragten, die YouGOV zusammenbekommen hat, auf das Vertrauen, was YouGOV an Informationen über den Gesetzentwurf bereitstellt.

YouGov Stellt diese Informationen bereit:

You Gov Hasskomentare Grafik 1„Die Bundesregierung will stärker gegen Hasskommentare und Falschnachrichten im Internet vorgehen. Sie stimmte dem Gesetzentwurf von Justizminister Heiko Maas zu. Dieser sieht vor, dass Betreiber sozialer Netzwerke innerhalb von 24 Stunden strafbare Inhalte löschen müssen. Sonst drohen im Extremfall bis zu 50 Millionen Euro Bußgeld. Sind Sie der Meinung, dass dieses Vorgehen sinnvoll ist, um gegen Hasskommentare und Falschnachrichten im Internet vorzugehen?“

Die Mehrheit der Befragten, die nicht wissen, was im Gesetzentwurf steht, erfährt von YouGov, dass das, was sie nicht kennen, von der Bundesregierung bereits abgesegnet wurde, dass Betreiber sozialer Netzwerke strafbare Inhalte löschen müssen, die zwar wenig mit Hasskommentaren und gar nichts mit FakeNews zu tun haben, aber dennoch mit beidem in Verbindung gebracht werden. Sie werden dann gebeten, anzugeben, ob das Gesetz, mit dem gegen strafbare Inhalte in sozialen Netzwerken vorgegangen werden soll, ein Vorgehen, von dem sie zwar nicht wissen, wie es aussieht, so dass sie es auch nicht beurteilen können, von dem ihnen aber gesagt wurde, dass es gegen strafbare Inhalte gerichtet sei, also gegen Kriminalität und dass es die Bundesregierung bereits abgesegnet habe, auf jeden Fall sinnvoll ist, eher sinnvoll ist, eher nicht sinnvoll ist oder auf keinen Fall sinnvoll ist.

Und als wäre der Aberwitz nicht bereits auf die Spitze getrieben, geben nunmehr die Befragten, zu dem, von dem sie nicht wissen, wie es funktionieren soll, weil es noch niemand weiß, nicht einmal Heiko Maas weiß es, eine Beurteilung darüber ab, ob das, von dem sie nicht wissen, wie es funktionieren soll, sinnvoll ist.

Letztlich misst die Frage von YouGov, die man nicht anders als als vollkommenen Blödsinn bezeichnen kann, Blödsinn, der mit Manipulationsabsicht in die Welt gesetzt wird, nichts, gar nichts.

Das hindert YouGov natürlich nicht daran, reißerische Schlagzeilen zu formulieren und das Ergebnis den Pressevertretern anzudienen, die gerne auf solche Ergebnisse zurückgreifen, um ihre eigene Ideologie bestätigt zu finden.

Fragt man nun, wie es dazu kommt, dass Meinungsforscher ihre Aufgabe vor allem darin sehen, Zustimmung zu dem herbei zu manipulieren, was als politisch Korrekt angesehen wird, dann bieten sich eine Reihe von Erklärungen an:

Die Erklärung durch Opportunismus: Meinungsforscher finden, was der, der die Meinungsforscher bezahlt, gerne erfunden hätte.

Die Erklärung durch Inkompetenz: Mit dem Advent des Genderismus an Hochschulen sind Methoden der empirischen Sozialforschung und die dazu gehörigen Kenntnisse weitgehend verschwunden. Die meisten Absolventen haben keine Ahnung mehr von Reliabilität und Validität und kennen auch die Kunst des Frageformulierens nicht einmal mehr vom Hörensagen.

Die Erklärung durch Isomorphie: Meinungsforscher rekrutieren sich alle aus dem selben Meinungssumpf, zeichnen sich alle durch die selbe Unkenntnis im Hinblick auf die Methoden empirischer Sozialforschung aus und sind entsprechend darauf angewiesen, Fragen zu kopieren und zu verwenden, die andere Meinungsforscher, die genauso inkompetent sind, aber nicht so zögerlich, bereits formuliert haben.

Welche Erklärung zutrifft, ist anyones guess.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Translate »
error: Content is protected !!
Skip to toolbar