Die Wichtigkeit der Politiker: Niggemeier, wir und die Forschungsgruppe Wahlen

Auf unseren letzten Beitrag, in dem wir einige Irrtümer von Stefan Niggemeier aufgeklärt haben, hat sich Stefan Niggemeier bei uns gemeldet und den einzigen Punkt, den wir spekulativ behandeln mussten, auf Grundlage seines Wissens und wie folgt aufgeklärt:

Wir schrieben:

„Tatsächlich gibt es keinen Grund anzunehmen, dass die Frage nach der Wichtigkeit der Politiker überhaupt im Rahmen des Politbarometers gestellt wird. (…) Wenn Fragen mit viel Aufwand verbunden sind, kann man davon ausgehen, dass sie nicht vielen Befragten gestellt werden. Mit Sicherheit werden sie nicht „1.300 zufällig ausgewählten Wahlberechtigten“ gestellt, wie Niggemeier – ahnungslos wie er nun einmal ist – behauptet. Wir tippen eher auf ein Panel von Befragten, die die FGW regelmäßig kontaktiert, so um die 100 Personen vielleicht… (…) Es gibt keinerlei Hinweise darauf, dass die Liste der wichtigen Politiker von der FGW, wie Niggemeier annimmt, im Rahmen von Politbarometer-Umfragen erstellt wird. Allein die Tatsache, dass es sich um eine offene Frage handelt, spricht schon dagegen.“

Niggemeier schreibt:

„Sie “tippen” falsch. Nach Auskunft der Forschungsgruppe Wahlen findet auch die offene Frage nach den wichtigen Personen immer im Rahmen des vollen Politbarometer-Samples statt.“

Schon Lenin hat darauf hingewiesen, dass Vertrauen gut, Kontrolle aber besser ist. Entsprechend haben wir bei Matthias Jung, dem Chef der Forschungsgruppe Wahlen nachgefragt, hier der kurze eMail-Wechsel:

Lieber Matthias Jung,
vielen Dank für die Antwort.

Aber leider findet es sich nicht alles hier.

Den Absatz kenne ich, habe ich auch zitiert, aber aus dem Absatz gehen die Antworten auf die Fragen gerade nicht hervor.
Fragt Ihr wirklich alle Politbarometer-Befragten zum Zeitpunkt X: „Welche Politiker sind die derzeit wichtigsten“ und bastelt dann eine Liste, die ihr zum Zeitpunkt X+1 oder X+2 anderen Befragten des Politbarometers vorlegt?

Das klingt abenteuerlich, denn es bedeutet, dass alle Politbarometer Befragten zum Zeitpunkt X die Beliebtheit von zehn Politikern mit Eurem Thermometer von +5 bis -5 raten müssen und anschließend die wichtigsten Politiker benennen müssen.

Aber wenn dem so sein sollte, warum findet sich die entsprechende Frage nach der Wichtigkeit, die ja wegen regelmäßiger Befragung eine Standardfrage wäre, nicht unter den Standardfragen des Politbarometers?

Hier die Antwort von Matthias Junge:

wir fragen alle zwei Monate alle Befragten des Politbarometers in einer offenen Frage mit bis zu 5 Antwortmöglichkeiten (die die meisten Befragten garnicht brauchen), wer die wichtigsten sind. Diejenigen zehn, die dabei als wichtigste rauskommen, werden dann im nächsten Politbarometer (x+1) allen Befragten zur Bewertung auf der +/-5 Skala vorgelegt, so lange bis nach zwei Monaten wieder eine aktualisiert Liste fertig ist.

Die Ergebnisse auch zur Wichtigkeitsbefragung sind in den Gesamtdatensätzen bei GESIS enthalten.
Auf der Website ist immer nur eine Auswahl von Fragen ausgewiesen.
Uns dient die Wichtigekeitsabfrage ja nur als Verfahren, um die Auswahl der Top Ten zu objektivieren. Früher haben wir – wie andere Institute heute noch – die Politiker, die wir bewertet haben wollten, selbst bestimmt.

Beste Grüße
Matthias Jung

Damit ist geklärt, wie die Liste der zehn wichtigsten Politiker im ZDF-Politbarometer zustande kommt.

Davon bleibt unsere Kritik am Beitrag von Niggemeier natürlich vollkommen unberührt, weshalb wir sie an dieser Stelle gerne noch einmal wiederholen.

Der Politbarometer ist keine Längs-, sondern eine Querschnittstudie. Nicht dieselben Befragten werden wiederholt befragt, wie Niggemeier meint, sondern unterschiedlichen Befragten werden zu unterschiedlichen Zeitpunkten Fragen, zuweilen dieselben Fragen, vorgelegt.

Die Fragen nach Wichtigkeit und Beliebtheit von Politikern werden nicht den selben Befragten in einer Befragung vorgelegt, wie Niggemeier denkt, denn das ist technisch nicht machbar, wie Niggemeier wüsste, wenn er eine Ahnung von empirischer Sozialforschung hätte.

Schließlich ist das Ranking der Politiker kein Ranking, wie Niggemeier schreibt, sondern ein Rating. Die Befragten bringen die Politiker nicht in eine Reihenfolge, wie sie es bei einem Ranking tun müssten, sondern bewerten jeden einzelnen der zehn ihnen vorgegebenen Politiker von -5 bis +5.

Hat Ihnen der Beitrag gefallen?
Dann unterstüten Sie das private Blog ScienceFiles!



ScienceFiles-Spendenkonto

Weitere Möglichkeiten, ScienceFiles zu unterstützen

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles
©ScienceFiles

Suizid-Schreiber Niggemeier: Text-Anschlag gelungen, alle tot

“Next time, leave it to a professional” Henry Weems x-Files “Goldberg-Variation”

Wir haben Schule gemacht. Wir finden immer häufiger Texte, die auf Ideen beruhen, die uns intim bekannt sind, die uns – so könnte man meinen – mehr oder weniger imitieren. Nun ist mimetische Isomorphie ein bekanntes Phänomen in der Welt der Phantasielosen, also belassen wir es bei der Beobachtung und wechseln direkt zu Tichy’s Einblick.

Dort hat Tomas Spahn einen Beitrag über vermeintliche FakeNews beim ZDF Politbarometer geschrieben, in dem er den Mannen von der Forschungsgruppe Wahlen und denen, die ihre Ergebnisse beim ZDF interpretieren, vorwirft, sie würden „Wichtigkeit“ für „Beliebtheit“ ausgeben, also nach der Wichtigkeit von Politikern fragen und die Antworten als Beliebtheit interpretieren.

So schreibt Spahn:

„Die von den Mannheimern gestellte Frage für das ZDF-Politbarometer lautet nämlich gar nicht: „Wer ist für Sie der beliebteste Politiker“ – sie lautet: „Wer ist für Sie der wichtigste Politiker“. Darauf dann basiert das veröffentlichte Ranking.

Korrekt also müsste die ZDF-Schlagzeile lauten: „Seehofers Wichtigkeit im Keller“.

Wir wissen nicht, wo Spahn diesen Unsinn her hat, aber es ist ein kapitaler Bock, den er da geschossen hat. Es ist schlichtweg falsch. Dass es falsch ist, darauf hat ihn bereits ein Kommentator hingewiesen. Dass es falsch ist, darauf weist ihn in einer abstoßend großkotzigen Weise auch Stefan Niggemeier in seinem Blog „Übermedien“ hin (Kommt Übermedien eigentlich von Überjournalist und Übermensch?).

Auch Niggemeier, wie schon der Kommentator auf Tichy’s Einblick, zitiert die folgende Passage von der Seite der Forschungsgruppe Wahlen (FGW), die zeigt, dass Spahn mit seinem Versuch, die FGW und das ZDF bei FakeNews zu ertappen, gescheitert ist:

Unter der „häufig gestellten Fragen“ findet sich auch die Folgende: „Wie werden die zehn wichtigsten Politiker bestimmt?“:

„Die Ermittlung erfolgt in zwei Schritten. Zunächst stellt die Forschungsgruppe Wahlen ohne Namen vorzugeben ca. alle zwei Monate folgende Frage: “Wer sind Ihrer Meinung nach zurzeit die wichtigsten Politiker und Politikerinnen in Deutschland?” Die Ergebnisse auf diese Frage liefern eine Rangliste der wichtigsten Politiker und Politikerinnen in Deutschland. Davon werden die zehn am häufigsten genannten Politikernamen in einem zweiten Schritt beim darauf folgenden Politbarometer den Befragten zur Bewertung vorgelegt. Bei der Frage “Was halten Sie von …?” haben die Befragten die Möglichkeit, ihre Meinung mit Hilfe einer Skala von minus fünf bis plus fünf zum Ausdruck zu bringen. Die dabei entstehenden Durchschnittswerte liefern dann die Rangreihenfolge der Wertschätzung nach Sympathie und Leistung innerhalb der zehn wichtigsten Politiker und Politikerinnen in Deutschland.

Niggemeier nimmt dies zum Anlass, um seine Häme über Spahn auszuschütten und schreibt u.a.:

„Dass ein Politiker im Ranking vorkommt, bedeutet also, dass die Befragten ihn wichtig finden. Die Position im Ranking aber zeigt seine Beliebtheit an.

Hätte Spahn zwei Minuten investiert, das herauszufinden, hätte er sich nicht mit endlosen Behauptungen blamiert, die alle auf seiner falschen Annahme beruhen – und nicht auf einer falschen Darstellung des ZDF.“

Weiter unten schreibt Niggemeier im selben Text:

„Waaaaa! Es soll nicht ein Beliebheits-Ranking vermitteln, es ist ein Beliebtheits-Ranking. Tomas Spahn benutzt den Begriff „FakeNews“ genau wie Donald Trump: Was er so nennt, ist nicht falsch. Es gefällt ihm nur nicht. Er erträgt es nicht, was rund 1300 zufällig ausgewählte Wahlberechtigte angegeben haben, welche Politiker sie, erstens, „wichtig“ finden, und was sie, zweitens, von den zehn ausgewählten Wichtigsten halten.“

Niggemeier ist ein Suizid-Schreiber par excellence, der nicht nur Tomas Spahn, sondern auch sich selbst in die Luft sprengt. Um herauszufinden, dass auch Niggemeier falsch liegt und seine Ahnung von empirischer Sozialforschung in etwa der von Spahn entspricht, hätte es genüg, wenn Niggemeier zwei Minuten investiert hätte. Aber natürlich müsste er wissen, wonach er suchen muss in den zwei Minuten, was uns zu dem häufig unter Journalisten anzutreffenden Irrtum bringt, man könne sich innerhalb weniger Minuten Kenntnisse aneignen, die andere in Jahren akkumuliert haben und anschließend informiert über einen Gegenstand sprechen.

Man kann es nicht.

Bestes Beispiel: Niggemeier und Spahn.

Beide haben keine Ahnung von empirischer Sozialforschung und von Meinungsforschungs-Routinen.

Der Beleg in drei Schritten für Niggemeier, denn das Spahn nicht weiß, wovon er schreibt, ist schon gezeigt.

Niggemeier schreibt:

„Dass ein Politiker im Ranking vorkommt, bedeutet, dass die Befragten ihn wichtig finden. Die Position im Ranking aber zeigt seine Beliebtheit an.“

Um Niggemeier selbst zu zitieren: „Waaa!“. Nein: „Waaaaa!“

Der Hämische unter den Journalisten, er langt hier vollkommen daneben. Seine Rekonstruktion dessen, was die FGW da macht, ist nicht einmal entfernt richtig, wie er hätte herausfinden können, wenn er zwei Minuten in Recherche investiert hätte. Weniger als zwei Minuten haben uns gereicht, um die Fragetexte für die Standardfragen aufzufinden, die im Politbarometer von der FGW regelmäßig (also in der Regel monatlich) gestellt werden. Die Frage, mit der die Beliebtheit der Politiker operationanlisiert werden soll, lautet:

„Bitte sagen Sie mir wieder mit dem Thermometer von plus 5 bis minus 5, was Sie von einigen führenden Politikern und Politikerinnen halten. ‘Plus 5’ bedeutet, dass Sie sehr viel von dem Politiker halten, ‘Minus 5’ bedeutet, dass Sie überhaupt nichts von ihm halten. Wenn Ihnen einer der Politiker unbekannt ist, brauchen Sie ihn natürlich nicht einzustufen. Was halten Sie von …?”

Zu dieser Frage werden den Befragten zehn Namen vorgegeben. Man kann darüber streiten, ob Beliebtheit mit „was man von X hält“ gemessen werden kann, aber sei’s drum. Das ist ein anderes Thema.

Wichtig ist: Eine Frage nach der Beliebtheit findet sich im Politbarometer als Standardfrage, die jedes Mal gestellt wird. Spahn liegt falsch.

Niggemeier liegt auch daneben.

Er ist der Ansicht, die Position im „Ranking“ gebe die Beliebtheit eines Politikers an, dass ein Politiker im Ranking vorkomme, zeige, dass ihn die Befragten für wichtig hielten.

Niggemeier ist der Ansicht, dieselben Befragten würden nach Beliebheit und nach Wichtigkeit gefragt. Das zeigt sich deutlich in den von uns zitierten Passagen seines „Übertextes“. Mit anderen Worten, er muss denken, da die Wichtigkeit in dem von ihm zitierten Absatz der FGW als Maß genannt wird, das „alle zwei Monate“ erhoben wird, der Politbarometer sei eine Längsschnittbefragung, bei dem immer dieselben Befragten befragt werden.

Wie er auf diese schräge Vorstellung kommt, wir wissen es nicht.

Der Politbarometer ist eine Querschnittstudie. Es werden jeden Monat andere Personen zumeist telefonisch befragt.

Wenn also zwei Monate vor einem Politbarometer die Frage nach der Wichtigkeit von Politikern gestellt wird, dann können diejenigen, denen diese Frage offen gestellt wird, nicht diejenigen sein, denen zwei Monate später die Liste mit den zehn Namen der wichtigsten Politiker vorgelegt wird.

Hier irrt Niggemeier: Die Befragten werden nicht zunächst nach der Wichtigkeit und dann nach der Beliebheit von Politikern gefragt. Ein bisschen Recherche, vielleicht zwei Minuten, hätte ausgereicht, um zu dieser Erkenntnis zu gelangen, denn die Liste der Standardfragen, die die FGW veröffentlicht, enthält keine Frage nach der Wichtigkeit von Politikern. Und hätte Niggemeier Ahnung von empirischer Sozialforschung, dann wüsste er, dass man nicht in der selben Befragung eine Rangliste der wichtigsten Politiker erstellen und die zehn wichtigsten bewerten lassen kann. Aber die Ahnung hat er eben nicht.

Tatsächlich gibt es keinen Grund anzunehmen, dass die Frage nach der Wichtigkeit der Politiker überhaupt im Rahmen des Politbarometers gestellt wird. Die Formulierung, die die FGW wählt, lautet: „Zunächst stellt die Forschungsgruppe Wahlen ohne Namen vorzugeben ca. alle zwei Monate folgende Frage: Wer sind ihrer Meinung nach zurzeit die wichtigsten Politiker … in Deutschland?“.

Die FGW sagt hier nicht, wem sie diese Frage, diese offene Frage stellt. Wir betonen hier „offene Frage“, weil offene Fragen, also Fragen, bei denen keine Antwortvorgaben gemacht werden, viel mehr Arbeit machen, als standardisierte Fragen, auf die ein Befragter „ja“, „nein“ oder „weiss nicht“ antworten kann. Wenn Fragen mit viel Aufwand verbunden sind, kann man davon ausgehen, dass sie nicht vielen Befragten gestellt werden. Mit Sicherheit werden sie nicht „1.300 zufällig ausgewählten Wahlberechtigten“ gestellt, wie Niggemeier – ahnungslos wie er nun einmal ist – behauptet. Wir tippen eher auf ein Panel von Befragten, die die FGW regelmäßig kontaktiert, so um die 100 Personen vielleicht…

Der großspurig belehrende Satz, mit dem Niggemeier zum Ende seines Textes meint Spahn zurechtweisen zu müssen, völlig unnötigerweise, denn dass Spahn einem Irrtum aufgesessen ist, ist zu diesem Zeitpunkt mehr als klar, fällt somit auf Niggemeier zurück, denn die FGW sagt an keiner Stelle, dass die Liste der 10 wichtigsten Politiker im Rahmen des Politbarometers erstellt würde.

Niggemeier liegt somit in mehrerer Hinsicht falsch:

Der Politbarometer ist keine Längs-, sondern eine Querschnittstudie. Nicht dieselben Befragten werden wiederholt befragt, wie Niggemeier meint, sondern unterschiedlichen Befragten werden zu unterschiedlichen Zeitpunkten Fragen, zuweilen dieselben Fragen, vorgelegt.

Die Fragen nach Wichtigkeit und Beliebtheit von Politikern werden nicht den selben Befragten in einer Befragung vorgelegt, wie Niggemeier denkt, denn das ist technisch nicht machbar, wie Niggemeier wüsste, wenn er eine Ahnung von empirischer Sozialforschung hätte.

Es gibt keinerlei Hinweise darauf, dass die Liste der wichtigen Politiker von der FGW, wie Niggemeier annimmt, im Rahmen von Politbarometer-Umfragen erstellt wird. Allein die Tatsache, dass es sich um eine offene Frage handelt, spricht schon dagegen.

Schließlich ist das Ranking der Politiker kein Ranking, wie Niggemeier schreibt, sondern ein Rating. Die Befragten bringen die Politiker nicht in eine Reihenfolge, wie sie es bei einem Ranking tun müssten, sondern bewerten jeden einzelnen der zehn ihnen vorgegebenen Politiker von -5 bis +5 (siehe oben).

Der Versuch, Spahn mit einem Hämeartikel zu versenken, ist also gescheitert. Vielmehr haben wir es mit einem klassischen Fall von Suizid-Journalismus zu tun, bei dem der Schreiber und sein Häme-Ziel beide auf der Strecke bleiben.

Hat Ihnen der Beitrag gefallen?
Dann unterstüten Sie das private Blog ScienceFiles!



ScienceFiles-Spendenkonto

Weitere Möglichkeiten, ScienceFiles zu unterstützen

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles
©ScienceFiles

Bei Rundfunk(gebühren) hört die Demokratie auf!

Wir haben eine Rubrik, die wir intern „spitze Finger Forschung“ nennen. Das sind im Wesentlichen Themen, die im Kontext politischer Korrektheit nicht angefasst werden und wenn, dann mit spitzen, ganz spitzen Fingern.

Mit spitzen Fingern hat YouGov eine Befragung zum Thema „öffentlich-rechtlicher Rundfunk“ durchgeführt. Gegenstand: demokratische Teilhabe in Form einer Abstimmung über den öffentlichen Rundfunk – wie die Schweizer – und u.a. die gewünschte Höhe des Rundfunkbeitrags. YouGov führt derartige Befragungen immerhin durch, während andere Meinungsforschungsinstitute sich als Steigbügelhalter öffentlicher Rundfunkanstalten verdingen und Befragungen so konzipieren, dass Vertrauen und Zufriedenheit der Bevölkerung mit den Leistungen öffentlich-rechtlicher Anstalten dabei herauskommen (Wir haben über einige dieser „Umfragen“ auf ScienceFiles berichtet).

Die Jubel-Umfragen, die von den Chefs bei WDR, NDR oder SWR so gerne zitiert werden, sie stehen in einem krassen Gegensatz zu dem, was YouGov in seiner Befragung, an der 1.139 Personen ab 18 Jahren teilgenommen haben, herausgefunden hat.

Demnach wollen 76 Prozent der Befragten das gleiche Recht wie die Schweizer: Sie wollen über den öffentlich-rechtlichen Rundfunk abstimmen, also darüber, ob er abgeschafft werden soll. Ein Ergebnis bei dem 76 Prozent sich in einer Umfrage für etwas aussprechen, was auch immer, wird von Politikern, dann, wenn es ihnen in den Kram passt, bei allen passenden und unpassenden Gelegenheiten angeführt, um zu zeigen, wie sehr sie im Einklang mit der Bevölkerung sind, wie demokratisch doch alles in Deutschland ist, wie responsiv sie auf die Meinung der Bevölkerung reagieren, wie sehr sie sich an deren Meinung halten … Geht es um den öffentlich-rechtlichen Rundfunk, dann ist das anders. Dann werden die 76 Prozent ignoriert, dann gibt es kein Loblied auf die Bürgerbeteiligung, niemandem fällt Partizipation als Stichwort ein… Es steht viel auf dem Spiel, denn Politiker scheinen der Ansicht zu sein, sie könnten über öffentlich-rechtliche Anstalten eine Kontrolle über ihre Bevölkerung ausüben. Nur so macht der „Bildungsauftrag“, den ausgerechnet öffentlich-rechtliche Anstalten haben sollen, Sinn.

Wie auch immer, die Befragung von YouGov ist ein eindrückliches Zeugnis der Unzufriedenheit mit dem, was öffentlich-rechtliche Anstalten tun und anbieten. Seine Kulmination findet diese Unzufriedenheit darin, dass 49% der Befragten nur bereit wären 1 bis 5 Euro pro Monat an Rundfunkgebühren zu bezahlen, wenn sie es entscheiden könnten. Aber sie gehören nur zum Souverän in einer Demokratie. Sie haben entsprechend nichts zu entscheiden und keine Absolventen weitgehend nutzloser Studienfächer davon abzuhalten, sich ein schönes Auskommen zu verschaffen.

Immerhin 25% der Befragten wären bereit, 6 bis 10 Euro pro Monat zu bezahlen, weitere 9% könnten sich mit 11 bis 15 Euro anfreunden. Somit sind 83% der Befragten die derzeitigen Rundfunkgebühren von 17.50 Euro im Monat zu hoch. Ein eindeutiges demokratisches Votum. Aber kein Politiker der Parteien, die in den Rundfunkräten sitzen, nimmt es auf. Sie wollen eben nur das Beste von ihren Wähler, möglichst hohe Gebühren.

Warum die große Mehrheit der von YouGov-Befragten, die alle Indikatoren erfüllen, um unter anderen Vorzeichen von Politikern als repräsentativer Querschnitt der Bevölkerung bejubelt zu werden, die Rundfunkgebühren von 17.50 Euro pro Monat nicht in dieser Höhe bezahlen will, wenn überhaupt, machen weitere Ergebnisse von YouGov deutlich:

  • 44% finden 17.50 Euro Rundfunkgebühren zu hoch;
  • 43% wollen eigentlich gar keine Rundfunkgebühren mehr zahlen;
  • 30% finden sich mit ihren Interessen im Angebot der öffentlich-rechtlichen Anstalten nicht wieder;
  • 28% finden eine Rundfunkgebühr grundsätzlich in Ordnung, finden aber das derzeitige Angebot zu schlecht, als dass es Rundfunkgebühren rechtfertigen würde;
  • 23% nutzen das Angebot der öffentlich-rechtlichen Anstalten überhaupt nicht;
  • 20% finden sich mit ihrer Meinung im Angebot der öffentlich-rechtlichen Anstalten nicht wieder

Das sind verheerende Zahlen, vor deren Hintergrund man es eigentlich nicht rechtfertigen kann, Deutsche weiterhin und ohne Ausnahme für öffentlich-rechtliche Sender bezahlen zu lassen. In einer Demokratie würden derartige Ergebnisse öffentlicher Meinung dazu führen, dass Politiker das Thema aufnehmen und letztlich eine Lösung in Form einer Volksabstimmung herbeiführen. Aber in Deutschland gibt es keine Demokratie. Hier herrscht die Parteienoligarchie, eine Autokratie, die sich wie eine Krake in alle wirtschaftlichen und gesellschaftlichen Bereiche ausgebreitet hat und dort finanzielle Wohltaten für sich einsammelt. Parteivertreter sitzen in Aufsichtsräten von Unternehmen, in Vorständen von Vereinen und Stiftungen, sie sitzen in den Programmräten der öffentlich-rechtlichen Anstalten und erhalten für ihr aufopferungsvolles Handeln natürlich eine finanzielle Aufwandsentschädigung. Es ist geradezu naiv anzunehmen, ausgerechnet Politiker würden sich den finanziellen Ast, auf dem sie sitzen, abschneiden, indem sie demokratische Grundrechte wie eine Partizipation ernst nehmen und Zwang gegen eine Mehrheit der Bevölkerung vermeiden.

Von Arnim könnte sein Buch der Parteienkritik heute nicht mehr mit „Der Staat als Beute“ betiteln. Das ist eine Untertreibung. Die Parteien haben sich längst die Gesellschaft zur Geisel genommen und die saugen sie nun aus, finanziell, moralisch, körperlich …

Und am Beispiel von YouGov sieht man, was dabei herauskommt, wenn man die falschen Fragen stellt, Fragen, auf die man Antworten bekommen kann, die politisch Korrekte gar nicht hören wollen. Da hilft nur eins: YouGov sind Rechte.

Hat Ihnen der Beitrag gefallen?

Dann unterstützen Sie ScienceFiles!

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles
©ScienceFiles

Lügen sind im ZDF wie weit verbreitet? ZDF-Politbarometer: Schade um die Forschungsgruppe Wahlen

Manfred Berger ist tot.

Dieter Roth und Wolfgang Gibowski sind ausgeschieden.

Von der Mannheimer Forschungsgruppe Wahlen ist nicht viel geblieben. Einst war die Forschungsgruppe das Aushängeschild der Wahlforschung in Deutschland, die Hochrechnungen nach den Landtags- und Bundestagswahlen waren regelmäßig besser als die der Konkurrenz von Infas oder Infratest. Die Befragungen waren in Methodik und Umsetzung mit das Beste, was man an Wahlforschung in Deutschland bekommen konnte. So gut, dass selbst Redaktionsangehörige von ScienceFiles ihre Magisterarbeit mit den Daten der Forschungsgruppe Wahlen bestritten haben

Das ist lange her.

Heute ist die Forschungsgruppe Wahlen zum Lieferanten gewünschter Ergebnisse geworden. Das ZDF bestellt, die Forschungsgruppe liefert. Das ZDF bestellt die Einschätzung, dass die AfD rechtsextrem ist, die Forschungsgruppe liefert. Anders als über einen solchen Ablauf lässt sich die folgende abgrundtief dumme Frage, die gegen jeden Grundsatz der empirischen Sozialforschung verstößt, nicht mehr erklären:

“Was meinen Sie: Rechtsextremistische Ansichten sind in der AfD sehr weit, weit, nicht so weit, gar nicht verbreitet?”

Es genügt bereits zwei eherne Grundsätze der empirischen Sozialforschung anzuführen, um zu zeigen, dass diese Frage einzig und allein der Stimmungsmache (oder Hetze?) gegen die AfD dient.

Grundsatz 1:

Fragen müssen einen klar benennbaren und eindeutigen Gegenstand haben, vom dem sicher ist, dass ihn die meisten Befragten kennen.

Grundsatz 2:

Fragen müssen vollständig sein.

Fangen wir hinten an.

Vollständigkeit

Die Forderung nach Vollständigkeit soll u.a. ausschließen, dass Ergebnisse von Befragungen manipuliert werden können. Aber das ist nur sekundär. Primär soll Vollständigkeit gewährleisten, dass man auf Grundlage der eigenen Ergebnisse auch etwas aussagen kann.

Das ist im vorliegenden Fall nicht möglich.
Die Frage ist vergleichbar mit dem Versuch, die Position eines Schiffes mitten im Ozean dadurch zu bestimmen, dass man ein Lineal ins Wasser wirft. Auf Grundlage der Antworten kann man KEINE relevante Aussage machen. Damit man eine relevante Aussage machen kann, benötigt man eine Vergleichsgruppe. Die Vergleichsgruppe kann man z.B. dadurch schaffen, dass man fragt:

Was meinen Sie: Rechtsextremistische Ansichten sind in der CDU sehr weit, weit, nicht so weit, gar nicht verbreitet?

Oder:

Was meinen Sie: Rechtsextremistische Ansichten sind in der SPD sehr weit, weit, nicht so weit, gar nicht verbreitet?

Zu Vergleichszwecken muss man mit funktionaler Äquivalenz zu arbeiten:

Was meinen Sie: Linksextremistische Ansichten sind in der LINKE sehr weit, weit, nicht so weit, gar nicht verbreitet?

Oder

Was meinen Sie: Linksextremistische Ansichten sind bei Bündnis90/Grüne sehr weit, weit, nicht so weit, gar nicht verbreitet?

Wer eine Frage wie die stellt, die die Forschungsgruppe Wahlen gestellt hat, hat einzig und allein die Diskreditierung des Frageobjekts zum Ziel.

Oder ein anderes Beispiel: Was meinen Sie: Gewaltbereitschaft ist in der LINKE sehr weit, weit, nicht so weit, gar nicht verbreitet?

Als Ergebnis der Antworten auf diese Frage können wir dann die LINKE als gewaltbereite Nachfolgepartei der SED, die ja auch schon gewaltbereit war, darstellen. Dass wir das können, ist jetzt schon sicher. Es ist Ergebnis der Art und Weise der Frageformulierung und der Unvollständigkeit der Frage.

Punkt 2:

Eindeutigkeit

Was nutzen Fragen oder Items in Befragungen, bei denen man nicht weiß, was damit gemessen wird? Sie nutzen natürlich dem, der die Vagheit seiner Fragen ausnutzen will, um allen Befragten seine Interpretation dessen, was gefragt wurde, unterzuschieben. Sie nutzen dem, der manipulieren will.

Rechtsextremismus.
Was ist Rechtsextremismus?

  • Ist Rechtsextremismus die NSDAP?
  • Ist Rechtsextremismus die NPD?
  • Ist Rechtsextremismus, wenn man Ausländer nicht mag?
  • Ist Rechtsextremismus, dass man Linke nicht mag?
  • Ist Rechtsextremismus, dass man denkt, manche Menschen seien, weil sie mehr leisten, mehr wert als andere, die weniger leisten?
  • Ist Rechtsextremismus dasselbe wie “Neoliberalismus”?
  • Ist Rechtsextremismus die extreme Variante von Rechtsradikalismus, die Gewaltbereitschaft voraussetzt?
  • Ist Rechtsextremismus eine andere Bezeichnung für Patriotismus?
  • Ist Rechtsextremismus alles, was nicht Linksextremismus ist?

Wir könnten die Reihe der Frage fast endlos fortsetzen, aber der Punkt ist gemacht: Jeder von uns hat eine Vorstellung davon, was Rechtsextremismus ist. Die wenigsten von uns werden übereinstimmen. Tatsächlich ist es so, dass nicht einmal Politikwissenschaftler in der Frage, was unter Rechtsextremismus verstanden werden soll, übereinstimmen.

Rechtsextremismus ist als Begriff demnach vollkommen unbestimmt. Jeder hat seine eigene Vorstellung davon, was Rechtsextremismus ist. Die wenigsten wären in der Lage, diese Vorstellung in konkrete Begriffe zu fassen.

Und nun werden 1000 Befragte gefragt, ob etwas, von dem sie keine genaue Vorstellung haben in der AfD weit verbreitet, verbreitet usw. ist. Sie werden also, um den manipulativen Unsinn auf die Spitze zu treiben, aufgefordert, eine Einschätzung auf Basis einer Vollerhebung zu machen, einer Vollerhebung über die Mitglieder der AfD, Funktionsträger der AfD, die kleinen und großen Anfragen der AfD im Sächsischen Landtag, die Rede von von Meuthen in Regensburg usw. Wer Befragte vor eine solche Aufgabe stellt, hat offensichtlich kein Interesse daran, eine sinnvolle und brauchbare Frage zu stellen. Sein Interesse besteht darin, eine Frage zu formulieren, deren Ergebnisse sich gegen das Befragungsobjekt verwenden lassen.

Das hat nichts mit empirischer Sozialforschung, ja nicht einmal mit Umfrageforschung zu tun. Es ist Manipulation auf Grundlage einer Ideologie, Manipulation mit dem Ziel, eine politische Partei zu diskreditieren.

Und was misst die Frage letztlich? Ob es gelungen ist, Rechtsextremismus zu einer Art Catch-All-Begriff zu machen, mit dem man Objekte, Parteien, Personen, die ideologisch nicht passen, etikettieren und negativ bewerten kann.  Letztlich wird gemessen, ob wir fähig sind, an einem Sprachspiel teilzunehmen: Wir reden über etwas, von dem wir keine Ahnung haben, und behaupten, es sei in einer Partei, von der wir nur wissen, was uns die Medien präsentieren, vorhanden. Was man also misst ist, ob die Indoktrination durch öffentlich-rechtliche Medien in Deutschland erfolgreich war.

Es ist schade und eine Schande, was aus der Forschungsgruppe Wahlen geworden ist.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Wahlprognosen: Zahlentricks mit Gewichtung

Man kann sich kaum mehr retten, vor den wöchentlichen Prognosen darüber, wie die Bundestagswahl 2017 wohl ausgehen wird. Die Prognosen der letzten Wochen haben dabei alle gemeinsam, dass der Anteil der AfD-Wähler zu- und der der SPD-Wähler abnimmt. Ob diese Zu- bzw. Abnahme eine Anpassung an die Realität ist, die die Befragungsinstitute vornehmen, um am Wahlabend nicht zu dumm da zustehen oder einen Trend repräsentiert, den sie in ihren Daten finden, ist eine Frage, die wir nicht wirklich beantworten können (oder wollen).

Fest steht allerdings: Passen die Meinungsforschungsinstitute ihre Prognosen derzeit an, dann hätten sie die ganze Zeit versucht, die AfD herunter und die SPD hinauf zu rechnen, ist dem nicht so, dann gibt es derzeit einen Trend zur AfD, der wohl eher ein Trend, weg von den etablierten Parteien als irgend etwas anderes ist, wie wir schon vor langer Zeit dargelegt haben.

Zentral für alle Zahlen, die wir in den letzten Wochen als Wahlprognose um die Ohren gehauen bekommen haben, ist die Gewichtung der Daten. Alle Meinungsforschungsinstitute gewichten ihre Daten, d.h. die Ergebnisse, die der Öffentlichkeit präsentiert werden, sind nicht die tatsächlichen Ergebnisse, die eingegangen sind, sondern Ergebnisse, die auf Grundlage der tatsächlichen Ergebnisse errechnet wurden.

Diese Datenmanipulation wird damit gerechtfertigt, dass die Stichproben, die Meinungsforschungsinstitute ziehen, also die 1000 bis 2000 Wahlberechtigten, die sie befragen, häufig verzerrt sind und entsprechend begradigt werden müssen. Das macht man gewöhnlich im Hinblick auf bekannte Verteilungen in einer Grundgesamtheit.

Nehmen wir an, der tatsächliche Anteil der 18- bis 25jährigen Wähler an allen Wählern betrüge 8%, in der Stichprobe kämen aber nur 6% 18- 25jährige Wähler an, dann wird aus der Differenz ein Gewicht berechnet und die 18- bis 25jährigen, die in der Stichprobe vorhanden sind, werden mit dem Faktor 1,34 multipliziert. Auf diese Weise erhoffen sich Meinungsforschungsinstitute ihre krummen Ergebnisse zu begradigen.

Nun ist das Alter nur einer der sogenannten Gewichtungsfaktoren. YouGov, das Institut, das am transparentesten in seiner Vorgehensweise ist, gewichtet die Daten, die letztlich die Wahlprognose abgeben, nach dem Alter und der formalen Bildung der Befragten, nach deren Parteibindung, nach deren politischem Interesse und nach deren Wahlverhalten bei der Bundestagswahl 2013. Alle Meinungsforschungsinstitute machen das auf diese oder eine ähnliche Weise. Aber die anderen verschweigen, wie genau sie es machen.

Auf Grundlage der Angaben von YouGov kann man darstellen, wie die Annahmen darüber, welche Variablen letztlich die Wahl 2017 determinieren, die Prognose, die der Öffentlichkeit präsentiert wird, beeinflussen.

Wie sich eine kleine Veränderung bei den Annahmen auswirkt, zeigen wir am Beispiel des Wahlverhaltens von 2013. Gewichte sind immer relative Maße. Deshalb haben wir zunächst einmal berechnet, welche Gewichte genutzt werden, um aus den tatsächlichen Daten zur Wahlprognose zu gelangen. Hier das Ergebnis:

  • CDU/CSU: 0,958849
  • SPD: 0,801818
  • Die Linke: 0,795789
  • Bündnis90/Grüne: 0,600876
  • FDP: 1,628308
  • AfD: 1,796667

In dieses Gewicht geht unter anderem die Angabe von Befragten ein, welche Partei sie bei der letzten Bundestagswahl gewählt haben. Wie eine klitzekleine Änderung in der Gewichtung die Wahlprognose beeinflusst, das zeigen wir jetzt in aller Kürze und auf Grundlage der Schätzung für die AfD. Für die AfD bilden 4% den Ausgangswert als Anteil bei der Bundestagswahl 2013, der in die Berechnung der Gewichts zur Errechnung der Wahlprognose für 2017 eingeht. Wir haben diese 4% um ein halbes Prozent auf 4,5% erhöht. Herausgekommen ist das Folgende:

 

Die kleine Änderung hat eine große Wirkung nach sich gezogen. Die AfD steigt von 11% auf 16%, während CDU/CSU, SPD, Grüne und Sonstige verlieren. Weitere Gewinner sind die Linke und die FDP, so dass die neue Wahlprognose am Ende fast der Prognose entspricht, die wir bereits vor einiger Zeit abgegeben haben.

Die dargestellte Veränderung basiert darauf, dass wir den Anteil der AfD bei der letzten Bundestagswahl um 0,5% erhöht haben und den Gewichtungsfaktor, den wir oben dargestellt haben, auf Grundlage dieses halben Prozent aufs Neue berechnet und zur Vorhersage des Wahlausgangs genutzt haben.

Wahlprognosen spiegeln nicht die Wirklichkeit wieder. Sie sind das Ergebnis der Annahmen, die Meinungsforschungsinstitute darüber machen, wie vergangene Wahlen zukünftige Wahlen beeinflussen und welche Gewichtungsfaktoren relevant sein könnten. Wie wir gezeigt haben, sind die Auswirkungen, die bereits eine geringe Veränderung in den Annahmen nach sich zieht, erheblich, so erheblich, dass man Meinungsumfragen lediglich als valide Quelle dafür ansehen kann, welche Interessen in den entsprechenden Forschungsinstituten die Ergebnisse beeinflussen.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Translate »
error: Content is protected !!