Sexuality-Pay-Gap: Arglistige Täuschung, Junk Science, DIW – kommt zusammen, was zusammen gehört?

Unglaublich.

Es ist wirklich unglaublich.

Zweierlei ist unglaublich.

Es ist unglaublich, wie es der Lobby von Schwulen und Lesben gelungen ist, ernsthafte und relevante Themen, wie z.B. die Auswirkung der Position in der Sozialstruktur auf die Lebenschancen und die Lebenserwartung fast vollkommen von der Agenda angeblich wissenschaftlicher Forschung zu verdrängen. Wen juckt es, dass Männer, die aus Arbeiterfamilien stammen und als Arbeiter jahrzehntelang ihr Auskommen erwirtschaften, eine deutlich geringer Lebenserwartung haben, als Angehörige der Mittelschicht? Wer interessiert sich dafür, dass der Anteil der Arbeiterkinder an Hochschulen auf niedrigem Niveau (rund 8%) rückläufig ist?

Kaum jemand.

Politiker sind mehr damit beschäftigt, Schwule- und Lesbenverbände zu hofieren als sich um soziale Probleme zu kümmern.

Und es ist unglaublich, was für einen Junk das Deutsche Institut für Wirtschaftsforschung (DIW), das inzwischen von Steuerzahlern finanziert wird, verbreitet, und am unglaublichsten ist es, dass man beim DIW nicht einmal mehr vor Täuschung zurückschreckt, wenn es darum geht, auf dem Bandwaggon derer mitzufahren, die auf Kosten der Allgemeinheit sich und LGB (Lesbian, Gay and Bi-Sexuals) noch besser stellen wollen.

Es beginnt heute, wie so oft, mit dem Hinweis eines Lesers auf einen Text in der Frankfurter Allgemeine, die sich immer mehr zum Trash-Blatt entwickelt. „Schwule haben geringeren Stundenlohn“ wird dort verkündet. Diese Weisheit hat der zuständige Redakteur wohl der Pressemeldung zu einer DIW-Studie entnommen, in der gezeigt worden sein soll, dass der Brutto-Stundenlohn, den Schwule erhalten, um 2,14 Euro geringer ausfällt, als der von heterosexuellen Männern. Ein neuer Pay-Gap, ein Sexuality Pay Gap, wie Martin Kroh, Simon Kühne, Christian Kipp und David Richter in ihrem Text „Einkommen, soziale Netzwerke, Lebenszufriedenheit: Lesen, Schwule und Bisexuelle in Deutschland“ schreiben, der im DIW-Wochenbericht Nr. 35 gerade erschienen ist. Das ist die Studie, auf die sich der Bericht in der FAZ bezieht.

Es ist eine Junk-Studie. Nein, Junk-Studie ist ein Begriff, der es nicht ganz trifft, denn die Autoren addieren noch die Täuschung der Leser zum üblichen Junk derartiger Studien.

Wenn wir Schlagzeilen lesen, die angebliche Erkenntnisse über Schwule oder Lesben thematisieren, dann hat dies immer dieselbe Frage zum Ergebnis: Wie ist es den Autoren gelungen, die notwendige Fallzahl zusammenzutragen, die man benötigt, um einigermaßen gesicherte Aussagen über Schwule und Lesben machen zu können? Denn: Wie Dr. habil. Heike Diefenbach in ihrer Analyse über den angeblichen Zusammenhang zwischen Homosexualität und erhöhter Wahrscheinlichkeit eines Suizids ausführlich dargelegt hat: Schwule und Lesben sind in den normalen Bevölkerungsstichproben das, was man eine seltene Population nennt. In der Regel sind sie im Datensatz zu selten, um überhaupt Aussagen zu ermöglichen. Deshalb behelfen sich die meisten, die in diesem Gebiet forschen, durch einen Trick, um die Fallzahl zu erhöhen: Sie rechnen Bisexuelle zu Homosexuellen obwohl man sie mit demselben Recht auch Heterosexuellen zurechnen könnte. Aber Heterosexuelle gibt es in Bevölkerungsstichproben in ausreichender Zahl. Manipuliert werden muss die Zahl der Homosexuellen.

Diese gängige Täuschung benutzen auch Kroh et al. Ihre Ergebnisse beziehen sich zunächst auf das, was sie LGB nennen, Lesbian, Gay and Bi-sexuals. Auf diese Weise schaffen es die Autoren 459 homo- und bisexuelle Befragte im SOEP zu identifizieren. Den 459 homosexuellen und bisexuellen Befragten stehen 39.100 heterosexuelle Befragte gegenüber, was eine dermaßen schiefe Verteilung produziert, dass man schon mit den Grundzahlen Mühe haben wird, sinnvolle Ergebnisse zu errechnen.

Hier beginnen die Täuschungen, derer sich Kroh et al. bedienen, um ihren Ergebnissen eine Relevanz zuzuweisen, die sie nicht haben.

Denn: die 459 Befragten sind nur der Idealfall. In den einzelnen Analysen sind regelmäßig weniger als 459 Befragte enthalten, weil nicht alle Befragten zu allen Fragen Angaben machen. Wie viele es tatsächlich sind, das verschweigen die Autoren so lautstark, dass es einem wehtun muss, wenn man ihren Beitrag liest. So offen wird selten gegen wissenschaftliche Lauterkeit verstoßen wie in diesem DIW-Machwerk – insofern ist es wirklich besonderer Junk.

Die Autoren verheimlichen den Lesern auch die Aufschlüsselung der 459 Schwulen, Lesben und Bisexuellen auf die jeweilige Orientierung. Nach aller Erfahrung ist die Gruppe der Bisexuellen am stärksten besetzt, so dass kaum Befragte übrigbleiben dürften, wenn man Bisexuelle, eben weil sie sowohl homo- als auch heterosexuell sind, aus den Berechnungen ausschließen würde, wie es der wissenschaftlichen Lauterkeit entspräche. Da ist es schon wieder, dieses Wort, Lauterkeit…

Vergessen wir die Lauterkeit: Weiter im Text.
Wir haben gesagt, dass Kroh et al. die Leser über ihre geringe Fallzahl hinwegtäuschen. Das erfolgt so unbeholfen und so ungeschickt, dass man es kaum übersehen kann, dass man getäuscht werden soll, jedenfalls dann, wenn man Erfahrung im Umgang mit Daten hat.

Die Autoren benutzen auch Ergebnisse, die auf Basis des Mikrozensus errechnet wurden, z.B. Abbildung 2. Die Darstellung umfasst Anteile und absolute Zahlen.
Die Autoren verweisen auf Ergebnisse von Wissenschaftlern z.B. in Fußnote 19. Der Verweis umfasst die Angabe der Fallzahlen.
Aber immer dann, wenn die Autoren ihre eigenen Daten, die auf 459 vermutlich vornehmlich bisexuellen Befragten basieren, darstellen, fehlen die Angaben zur Fallzahl. Sie fehlen bei der Abbildung 1, bei Abbildung 3, bei Tabelle 1, bei Tabelle 2, bei Abbildung 4, bei Tabelle 3, bei Tabelle 4 und bei Tabelle 5.

Die Angabe der Grundgesamtheit der LGB zu unterlassen, die in die Anteile, die in eine Tabelle eingeflossen sind, münden, ist mit wissenschaftlicher Lauterkeit nicht zu vereinbaren. Es entspricht schon eher dem Versuch einer arglistigen Täuschung, um nicht zugestehen zu müssen, dass die eigenen Ergebnisse keinen Pfifferling wert sind, weil sie auf so wenigen Befragten basieren, dass einem die Tränen kommen. Thematisierte man die geringe Fallzahl, dann wäre dies natürlich der Verbreitung der eigenen Ergebnisse in den Zeitungen Deutschlands hinderlich. Redakteure springen auf Behauptungen wie: „Schwule haben geringeren Stundenlohn“, sie sprängen sicher nicht auf Aussagen wie: Die auf Grundlage von 25 schwulen Männern berechnete Stundenlöhne sind geringer als die Stundenlöhne heterosexueller Männer. Wir nehmen nicht an, dass die Berechnungen von Kroh et al. auf viel mehr als 25 schwulen Männern beruhen. Wer schon einmal – wie wir das mehrfach getan haben – mit dem SOEP gerechnet hat, weiß, wie schnell die Befragten zwischen den Wellen verschwinden… Dass Kroh et al. Schwierigkeiten hatten, genügend LGB-Befragte zusammen zu klauben, kann man auch einem kleinen technischen Satz entnehmen, über den der gemeine, statistisch ungebildete Redakteur hinwegliest, sofern er überhaupt liest:

„Da vermutet werden kann, dass sich insbesondere LGB-Befragte aufgrund befürchteter Ablehnung durch die Interviewer oder als Kritik an der Fragestellung dazu entscheiden, keine Angaben zu machen, wird für die Berechnung des Anteils von LGBs an der erwachsenen Bevölkerung ein Korrekturfaktor verwendet. Dieser versieht diejenigen mit einem höheren Gewicht, die über typische Eigenschaften der AntwortverweigererInnen verfügen. Dies gilt beispielsweise für ältere Personen, für Personen ohne PartnerIn im Haushalt oder für bestimmte Befragungsmethoden.“

Weil Kroh et al. etwas annehmen, was sie für plausibel halten, wir aber nicht, von dem sie aber in jedem Fall nicht wissen, ob es zutrifft, gewichten sie vorsichtshalber LGB höher als heterosexuelle Befragte. Von letzteren haben sie ja auch genug. Gewichtung ist ein prätentiöses Wort, hinter dem sich eine einfache Multiplikation verbirgt. In Deutsch: Im Datensatz von Kroh et al. werden Befragte, die von sich weder gesagt haben, dass sie schwul noch dass sie lesbisch oder bisexuell sind, dennoch als schwul, lesbisch oder bisexuell gezählt, und zwar dann, wenn sie sozialstrukturell den wenigen im Datensatz vorhandenen Schwulen, Lesben und Bisexuellen ähnlich sind. Dann werden sie mit einem Faktor, der größer als 1 ist, multipliziert. Auf diese Weise macht man aus wenigen LGB etwas mehr LGB-Befragte. Zu diesem Mittel nimmt man nur dann Zuflucht, wenn man mit den vorhandenen Daten ohne diese Form der Täuschung, vielleicht auch des Betrugs überhaupt nichts anfangen kann, weil die Fallzahl, die Kroh et al. ihren Lesern vorenthalten (siehe oben) zu gering ist.

Auf Grundlage einer nicht genannten Anzahl von homosexuellen Männern, die sie sich zusammengewichtet haben, wollen Kroh et al. dann Stundenlöhne berechnet haben und diese mit den Angaben heterosexueller Männer verglichen haben, wobei sich ein „Sexuality Pay Gap“ ergeben haben soll. Nun muss man wissen, dass die Anzahl der Antwortverweigerer bei Fragen, die sich auf das Verdienst beziehen, sehr hoch ist. Wir haben 459 Schwule, Lesen und Bisexuelle im Datensatz. Selbst bei der vollkommen unrealistischen Annahme einer Gleichverteilung, denn Bisexuelle sind immer deutlich häufiger als Schwule oder Lesben, ergeben sich nur 153 Schwule. Von diesen 153 Schwulen werden nochmals rund ein Drittel ausfallen, weil sie keine Angaben zu ihrem Gehalt gemacht haben, so dass die Ergebnisse auf maximal 100 befragten Schwulen basieren. Wie gesagt, das ist eine wohlwollende Rechnung. Die tatsächliche Befragtenzahl, auf die Kroh et al. ihre Ergebnisse stützen und die sie verheimlichen, dürfte deutlich darunter liegen. Auf dieses armselige Häuflein von Befragten gründen die Autoren ihre Behauptung, dass es in Deutschland ein Pay Gap gäbe, das zuungunsten von Homosexuellen besteht.

Das ist nicht nur lächerlich, es ist unlauter und grenzt an Betrug und der Verdacht einer arglistigen Täuschung scheint begründet, da die Autoren es penibel unterlassen, die Anzahl der Befragten, die sie in ihren jeweiligen Berechnungen berücksichtigen, anzugeben.

Derartigen Junk hätte man früher nicht für möglich gehalten. Wäre diese Junk-Studie in einer wissenschaftlichen Zeitschrift erschienen, dann würde sich der Herausgeber vermutlich beeilen, den entsprechenden Artikel zurückzuziehen. Aber der Junk ist beim DIW erschienen, und vom DIW ist man in letzter Zeit viel Junk gewöhnt, viel zu viel Junk, als dass man die Berliner noch als Wissenschaftler ernstnehmen könnte. Deshalb erwarten wir nicht, dass man sich beim DIW von dieser Junk Studie distanziert.

Vielmehr steht zu erwarten, dass sich die Meute der ahnungslosen Journalisten, die es ja beileibe nicht nur bei der FAZ gibt, auf das Ergebnis stürzen wird, ist es doch geeignet, virtue signalling zu betreiben, sich als Guter auszugeben und Browny-Punkte dafür zu sammeln, dass man sich bei Lobbygruppen anbiedert, dass man sich mit Junk anbiedert ist nebensächlich.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Junk Science: Universität Würzburg gibt den Legitimationsbeschaffer für Medien

Als jemand, der jahrelang mit den Daten des Eurobarometers und für die Europäische Kommission gearbeitet hat, wird Michael Klein immer hellhörig, wenn Wissenschaftler etwas Herausragendes mit den Daten des Standard-Eurobarometers herausgefunden haben wollen. Das schon deshalb, weil er sich noch an die vielen Versuche des zwischenzeitlich verstorbenen Karlheinz Reif erinnert, Wissenschaftler für die Daten des Eurobarometer zu begeistern und die vielen Absagen kennt, die Reif erhalten hat.

Wie dem auch sei, eine „Studie der Universität Würzburg“ hat angeblich herausgefunden, dass das „Vertrauen in Medien einen neuen Höchststand“ erreicht hat. Vor allem bei rechtsgerichteten Menschen sei das Vertrauen in die Medien gestiegen, weshalb der Studienautor Kim Otto zu folgern können glaubt, dass der „angebliche massive Vertrauensverlust“ der Medien ein Mythos sei.

Wer sich für den gesamten Text der Pressemeldung, die wohl mit der Studie identisch ist, interessiert, der kann ihn hier nachlesen.

Wir wollen ein wenig aus dem Nähkästchen erzählen.
Zunächst ist es etwas irritierend, wenn Daten, die frei zugänglich sind, und die sich jeder aus den Archiven des Eurobarometer beschaffen kann, als Ergebnis einer „Studie“ dargestellt werden. Es ist wohl eher das Ergebnis von einigen wenigen Minuten Arbeit. Wir haben die Daten von Otto in knapp 10 Minuten beschafft.

Wer es uns nachmachen will: Hier ist der Link zur Europäischen Kommission.

Der angeblich neue Höchststand im Vertrauen, den Kim Otto feiert, er ist mit dem Standard-Eurobarometer 86 erreicht, der im November 2016 im Feld war. D.h. die aktuellen Ergebnisse von Otto, sie beziehen sich auf den November 2016, sie sind mehr als ein halbes Jahr alt.

Der Standard-Eurobarometer heißt deshalb Standard-Eurobarometer, weil er einen Kern von Fragen umfasst, die in jedem oder fast jedem Eurobarometer, seit der Bus-Survey im Jahr 1974 eingeführt wurde, gefragt wird. Eine der Standardfragen fragt nach dem Vertrauen in Institutionen.

 

Im englischen Original lautet die Frage:
I would like to ask you about how much trust you have in certain institutions. For each of the following institutions, please tell me, if you tend to trust or tend not to trust it.
The Press?

Ich zeige Ihnen nun eine Liste von Institutionen. Bitte sagen Sie mir für jede davon, ob sie dazu neigen, der Institution zu vertrauen oder dazu, der Institution nicht zu vertrauen.
Die Presse

Die selbe Frage wird für Radio und Fernsehen (separat) gestellt.
Wir bleiben hier bei der Presse.

Otto meint, die Ergebnisse würden zeigen, dass die Lügenpressevorwürfe verpufft seien und nach seiner Einschätzung ist die Strategie der Medien „die AfD durch eine inhaltliche Auseinandersetzung zu entzaubern, ein Stück weit aufgegangen“.

Damit haben wir den Boden der Daten und der Wissenschaft verlassen. Otto betätigt sich lieber als Ideologe und Prophet, denn als Wissenschaftler.

Wäre er Wissenschaftler, er wüsste zum einen, dass es einen Unterschied macht, ob man von sich sagt, dass man dazu neigt, der Presse zu vertrauen oder ob man sagt, dass man der Presse vertraut. Durch die gesamte Pressemeldung und Studie macht Otto keinerlei Unterschied zwischen beiden Aussagen, was zeigt: Er ist Ideologe, kein Wissenschaftler.

Wäre er ein Wissenschaftler, es wäre ihm beim Lesen der Frage, wie sie im Eurobarometer gestellt wurde, selbst eine Frage gekommen: Wonach wird hier eigentlich gefragt? Was ist „Die Presse“. Die allgemeine Formulierung der Frage hat in der Vergangenheit zu heftigen Diskussionen unter den damals noch mit dem Eurobarometer betrauten Wissenschaftlern geführt. Die Allgemeinheit der Frage ist geblieben und damit ist auch die Tatsache geblieben, dass man die Frage nicht gebrauchen kann: Denn wir wissen nicht, an welche Presse ein Befragter denkt, wenn er den Begriff „die Presse“ hört. Wir wissen, dass Otto an Medien und dann an die ARD vielleicht auch an RTL2 denkt. Manche denken vielleicht an die Frankfurter Rundschau, andere an die Junge Freiheit, wieder andere an das Compact Magazin des Kopp-Verlags. Entsprechend sagt es überhaupt nichts aus, dass das Vertrauen in „die Presse“ gestiegen ist, so lange man nicht weiß, warum das Vertrauen gestiegen ist und was die Befragten als „die Presse“ verstehen.

Wäre Otto ein Wissenschaftler, dieses Problem wäre ihm in den Sinn gekommen.
Wäre er ein Wissenschaftler, er hätte sich sogar eine Möglichkeit überlegen können, dieses Problem zumindest ansatzweise zu lösen.

Unter Statistikern steht die Kreuztabelle als Nukleus der meisten statistischen Verfahren und Erkenntnisse hoch im Kurs. Selbst Otto scheint sie zu kennen, sonst hätte er nicht herausfinden können, dass „das Vertrauen der Menschen im rechten politischen Spektrum in die Presse immerhin auf 51 Prozent“ gestiegen ist. Das drängt einem geradezu den Verdacht auf, dass es unterschiedliche Verständnisse von „die Presse“ gibt. Man könnte fast denken, dass Menschen „im rechten politischen Spektrum“ im Bereich der alternativen Presse Erzeugnisse „der Presse“ gefunden haben, die ihr Vertrauen in „die Presse“, die für sie die alternative Presse ist, wieder erhöht hat.

Aus diesen Ergebnissen ableiten zu wollen, dass „die Strategie der Medien, die AfD durch eine inhaltliche Auseinandersetzung zu entzaubern“ aufgegangen ist, ist nicht nur abenteuerlich, es ist unlauter.

Von alldem abgesehen sind sich empirische Sozialforscher darüber einig, dass die Daten des Eurobarometer nicht dazu geeignet sind, aktuelle Einschätzungen zu geben. Sie sind eine Momentaufnahme. Im vorliegenden Fall stammt die Momentaufnahme aus dem November 2016. Zudem ist jeder Eurobarometer eine in sich geschlossene Querschnittsbefragung. D.h. die Befragten, die im Mai 2016 befragt wurden, sind nicht dieselben Befragten, die im November 2016 befragt wurden. Die Legitimation dafür, Daten aus der Befragung unterschiedlicher Befragter zu unterschiedlichen Zeitpunkten so zu behandeln als hätte man Daten von den selben Befragte zu unterschiedlichen Zeitpunkten wird von denen, die derart windige Dinge durchführen mit einem Verweis auf „Repräsentativität“ vorgenommen. Was wir von Repräsentativität halten, ist den Stammlesern von ScienceFiles bekannt. Wer es nicht weiß, der kann es hier nachlesen. Dass Repräsentativität im Zusammenhang mit dem Eurobarometer, der zu seinen besten Zeiten ein Gewicht enthielt, das aus 500 Luxemburgern 7 gemacht hat, für diejenigen, die die Daten kennen, Ursache kontinuierlicher Belustigung ist, sagt alles über die Möglichkeit, die Daten als Verlaufsdaten zu interpretieren.

So müssen wir leider feststellen, dass nun auch von der Universität Würzburg ideologischer Science Junk verbreitet wird. In fast schon Mitleid erregender Weise wird versucht, die deutschen Medien gutzureden und zu schreiben und ein Vertrauen herbei zu zaubern, von dem auch Herr Otto nicht weiß, ob es tatsächlich vorhanden ist, denn: Er hat keine Daten, auf die er seine wilden Vermutungen stützen könnte. Entsprechend ist es wieder einmal an der Zeit festzustellen, dass empirische Daten nicht dazu da sind, die eigenen Phantasien auszuleben und in hilflose Zahlen zu interpretieren, sie sind dazu da, Hypothesen zu prüfen oder einen Eindruck über Verteilungen zu erhalten. Und weil dem so ist, hat sich Otto als Junk Scientist ge-outet. Das macht insofern nichts, als jeder aus seinen Fehlern lernen kann. Es ist insofern erschreckend als es heute möglich ist, Junk wie den von Otto als offizielle Studie der Professur für Wirtschaftsjournalismus zu bezeichnen und in einer Zeitschrift der Universität Würzburg zu platzieren.

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Junk Science: Medien entdecken den gewalttätigen Ausländer als “Angstfigur”

Schade, dass man Junk Science nicht steigern kann.

Die angebliche Studie, die Thomas Hestermann von der „[FACH]Hochschule Macromedia“ durchgeführt hat, sie verlangt geradezu danach, vom anderen Junk Studien abgehoben zu werden – als besonderer Junk, Mega-Junk oder Junk XXL.

Hestermann verbreitet seinen Junk vorab. Noch bevor die angebliche Studie veröffentlicht ist, veröffentlicht er eine Pressemeldung, die die Ergebnisse der Junk Studie zusammenfasst. Das ist nicht nur schlechter Stil, das ist unlauter, denn der Journalist Hestermann weiß natürlich, dass seine Kollegen nur zu willig auf Pressemeldungen springen und in der Regel gar nicht auf die Idee kommen, auch nur das Deckblatt der zugrunde liegenden Studie zu betrachten. Angesichts der Widersprüche und Idiotien, die sich bereits in der Pressemeldung finden, könnte man auch auf die Idee kommen, Hestermann habe die Studie nicht gleichzeitig veröffentlicht, um sie der Kritik zu entziehen, die unweigerlich kommen muss.

Warum?
Darum:

„Die Studie untersucht 283 Artikel im überregionalen redaktionellen Teil von Süddeutscher Zeitung, Frankfurter Allgemeine, Bild und taz im Zeitraum von Januar bis April 2017 sowie 67 TV-Beiträge aus den Hauptnachrichten von ARD, ZDF, RTL, RTL2, Sat1, ProSieben, kabel eins und Vox zu Nichtdeutschen in Deutschland“.

Wie die 283 Artikel im überregionalen redaktionellen Teil der vier Zeitungen (warum diese vier Zeitungen?) ausgewählt wurden, warum sie ausgewählt wurden, ist ebenso unklar wie die Antwort auf dieselbe Frage mit Bezug auf die acht Fernsehsender. Fakt ist: In einem Zeitraum von drei oder vier Monaten (es ist unklar, ob der April noch zum Untersuchungszeitraum gehört) fallen in acht Sendern mehr als 67 TV-Beiträge mit Bezug zu „Nichtdeutschen“ an.

Der Begriff „Nichtdeutsche“ wird in der Pressemeldung synonym mit den Begriffen „Ausländer“, Flüchtling und Zuwanderer verwendet. Indes gilt: Nicht alle Zuwanderer sind Flüchtlinge. Nicht alle Ausländer sind Flüchtlinge oder Zuwanderer, und nicht alle Nichtdeutschen sind Ausländer. Derart grundlegende Schnitzer in einem so kurzen Text wie der Pressemeldung, auf die wir uns beziehen, geben einen Einblick in die geistige Verfassung dessen, der für diese Studie verantwortlich ist. Um diesen Eindruck zu belegen, hier ein direktes Zitat des Verfassers:

„Seit der Kölner Silvesternacht 2015/2016 hat sich der mediale Blick auf Flüchtlinge und Zuwanderer deutlich verändert: Sie geraten vor allem als mutmaßliche Gewalttäter in den Fokus der Berichterstattung, während die wachsende Gewalt gegen Flüchtlinge kaum thematisiert wird. Das belegt eine aktuelle Studie. “Die deutschen Medien haben den gewalttätigen Einwanderer als Angstfigur neu entdeckt”, resümiert Thomas Hestermann. Der Medienwissenschaftler ist Journalismus-Professor an der Hochschule Macromedia”

Nun hat der vermeintliche Medienwissenschaftler gar keine Daten, auf die die gemachten Behauptungen gestützt werden könnten. Er hat Daten für den kurzen Zeitraum von Januar bis April 2017 (ob in- oder exklusive April ist wie gesagt unklar) und diese Daten nur für einige ausgewählte Zeitungen und ein paar TV-Nachrichten. Mehr nicht. Er kann auf Grundlage dieser Daten keinerlei Aussagen über den “Blick auf Flüchtlinge” wie er sich heute im Vergleich zu 2015/2016 darstellt, machen.

Dass die Medien den „gewalttätigen Einwanderer als Angstfigur neu entdeckt haben“, setzt voraus, dass es ihn schon einmal gegeben hätte. Ob und wenn ja, wann es ihn gegeben hat, kann der Medienwissenschaftler nicht angeben, mit Sicherheit nicht auf Grundlage seiner Daten. Denn: Er hat 283 Zeitungs- und 67 TV-Beiträge über „Ausländer“ oder „Nichtdeutsche“ untersucht, also nicht über Einwanderer und die untersuchten Beiträge in zwei Gruppen zu solchen geteilt, die positiv und solche, die negativ über Ausländer berichtet haben. Im Ergebnis haber er gefunden, so sagt er, dass von Januar bis April 2017 in „64,3 Prozent der Berichte“ in der Bild-Zeitung, 39,5 Prozent der Berichte in der Süddeutschen Zeitung, 38,2 Prozent der Berichte in der FAZ und 18,6 Prozent der Berichte in der taz negativ über Ausländer, nein Nichtdeutsche berichtet wurde.

Das ist das Ergebnis.

Mehr gibt es nicht zu sagen.
Mehr als dass, z.B. die taz in 18,6% der Artikel aus der taz, in denen Nichtdeutsche vorgekommen sind und die im untersuchten, kurzen Zeitraum wie auch immer ausgewählt wurden, negativ über Nichtdeutsche berichtet hat, kann man nicht sagen.

Aber natürlich begnügt sich Herrn Hestermann von der „Hochschule Macromedia“, die eine Fachhochschule ist, nicht mit diesen Fakten, er beginnt zu phantasieren.

Er sieht eine Vervielfachung der Berichte seit 2014, „in denen Gewalt nichtdeutscher Tatverdächtiger“ thematisiert wird. Der Vergleich mit 2014 ist auf Grundlage von Daten, die im Frühjahr 2017 gesammelt wurden, natürlich nicht möglich. Ebenso wenig wie ein Vergleich mit der Polizeilichen Kriminalstatistik möglich ist: Diese verzeichne, so heißt es in der Pressemeldung, nur einen Anstieg von einem Drittel bei den nichtdeutschen Tatverdächtigen.

Offensichtlich hat Herr Hestermann nicht nur Phantasie, er kann auch in die Zukunft sehen, denn bislang gibt es die Polizeiliche Kriminalstatistik für 2017 noch nicht. Er hat aber Daten aus dem Frühjahr von 2017. Abgesehen davon sind die Straftaten, über die in Medien z.B. 2016 berichtet wurde, nicht notwendigerweise die Straftaten, die 2016 in der PKS erfasst wurden. Nächster Lapsus.

Zurück zu Hestermann:
„Medien haben gewalttätigen Ausländer als Angstfigur entdeckt“, so sein „Resümee“. Um dieses Resümee ziehen zu können, benötigt man:

  1. Verlaufsdaten
  2. Eine Vergleichsgruppe,
  3. Vor allem: einen Abgleich mit der Realität

Man benötigt Verlaufsdaten, da die Entdeckung einer Veränderung zum Zeitpunkt X im Vergleich zum Zeitpunkt Y impliziert, dass sich im Vergleich von Zeitpunkten etwas verändert hat. Hestermann hat keine Verlaufsdaten, er hat nicht einmal Querschnittsdaten zu zwei Zeitpunkten. Er kann entsprechend keinen Vergleich über Zeit anstellen.

Man benötigt eine Vergleichsgruppe, da ein hoher Anteil einer negativen Berichterstattung über die Gruppe der Ausländer mit einem ebensolchen bei Berichten über Deutschen einhergehen kann. Entsprechend wäre der Anteil der Berichterstattung über Ausländer nichts besonderes.
Hestermann hat keine Vergleichsgruppe.

Man benötigt einen Abgleich mit der Realität, weil eine Zunahme von Berichten über Straftaten von Ausländern (ein Datum, das Hestermann nicht erhoben hat), mit einer Zunahme der Straftaten, die von Ausländern begangen werden, einhergehen kann (auch diese Daten hat Hestermann nicht erhoben).
Hestermann macht keinen Abgleich mit der Realität.

Hestermann erwartet von seinen Lesern, dass sie seine Phantasie teilen, nach der die „deutschen Medien“ (Es sei nur angemerkt, dass es mehr als 4 Tageszeitungen in Deutschland gibt, auch mehr als 4 überregionale Tageszeitungen) den gewalttätigen Einwanderer als Angstfigur entdeckt haben, auch wenn er keinerlei Daten hat, die seine Behauptung stützen und nicht einmal sicher ist, ob er nun Ausländer, Nichtdeutsche, Zuwanderer oder Flüchtlinge untersucht hat.

Nie war es angemessener von Stümperei zu sprechen.
Hestermann hat Junk Science auf ein neues Niveau gesenkt, so sehr, dass wir uns entschlossen haben, den Hestermann-Junk als neues Tiefstmaß für Junk-Science einzuführen.

Aber das ganze hat auch seine positiven Seiten, denn es verweist abermals darauf, dass die heute verbreitete Vorstellung, man könne auch ohne entsprechende Kenntnisse und Ausbildung einfach darauf losforschen, nicht weit bringt. Der Junk wird über kurz oder lang als solcher entlarvt werden, der Autor als junkfähig identifiziert.

„Dr. Thomas Hestermann lehrt Journalismus an den Campus Hamburg und Berlin der Hochschule Macromedia. Gelernt hat er den Journalismus von der Pike auf. Er fuhr als Reporter in den Schacht von Gorleben hinunter, war unterwegs mit gewalttätigen Skinheads und führte Interviews auf dem Gipfel des Montblanc. Er arbeitete als Sprecher eines Umweltverbandes, moderierte beim Norddeutschen Rundfunk und leitet heute die Redaktion der Fernsehreihe „Tacheles – Talk am roten Tisch“, die er 1999 entwickelte und die Phoenix seitdem ausstrahlt. Der Fernsehmacher, Buchautor, Online- und Hörfunkjournalist Thomas Hestermann sieht die Zukunft des Journalismus in crossmedialer Verknüpfung.“ (Quelle: FACHhochschule Macromedia)

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Junk Science erkennen – Feynman/ScienceFiles-Kurzanleitung

Wir haben ein Video mit Richard Feynman aus dem Jahre 1981 ausgegraben, in dem er in der kürzesten uns bekannten Weise darlegt, was für ihn Pseudo-Wissenschaft ist.

Wir sprechen in diesem Zusammenhang lieber von Junk Science, denn Pseudo-Science lässt die Möglichkeit zu, dass etwas noch zu Wissenschaft werden kann. Junk Science lässt diese Möglichkeit nicht. Was als Junk identifiziert ist, muss entsprechend entsorgt werden.

Als Sozialwissenschaftler sind wir mit dem Rundumschlag zu beginn des Videos nicht einverstanden. Nicht die Sozialwissenschaften als Ganze sind Junk Science, einzelne, vielleicht auch viele Sozialwissenschaftler oder Personen, die sich in die Sozialwissenschaften eingeschlichen oder von Regierungen eingeschleust wurden, produzieren Junk Science. Und weil wir hier differenzieren, deshalb sind uns auch die Kriterien, die Feynman angibt, um Pseudo-Science für ihn und Junk-Science für uns zu identifizieren, nicht zufrieden.

Für Feynman ist Pseudo-Wissenschaft dadurch ausgezeichnet, dass sich jemand an eine Schreibmaschine setzt und Behauptungen aufstellt, Behauptungen, die er nicht prüft. Behauptungen, die nicht über sich hinausweisen, die nicht in einer Weise generalisierbar sind, die es ermöglicht, neues Wissen zu generieren.

Seine drei Kriterien zur Identifikation von Pseudo-Wissenschaft sind demnach:

  • Es wird etwas behauptet;
  • Das was behauptet wird, wird nicht geprüft.
  • Das was behauptet wird, ist nicht generalisierbar, so dass auch keine neuen Erkenntnisse daraus ableitbar sind.

Wir würden Feynmans drei Kriterien um einige detailliertere Kriterien ergänzen:
Junk Science liegt vor, wenn:

  • Behauptungen aufgestellt werden, die nicht prüfbar sind;
  • Behauptungen als normative Doktrin präsentiert werden, die nicht hinterfragt werden darf, z.B.: Linksextreme sind nicht gewalttätig;
  • mehrere Behauptungen aufgestellt werden, die im Widerspruch zueinander stehen;
  • Behauptungen aufgestellt werden, die zwar prüfbar sind, die aber mit völlig ungeeigneten Methoden geprüft werden;
  • Behauptungen aufgestellt werden, die voraussetzen, was erst gezeigt werden soll, z.B. Rechtsextremisten sind gewalttätig;
  • Behauptungen wertende Bestandteile aufweisen, die in wissenschaftlichen Aussagen nichts zu suchen haben, z.B. Feministen sind für Emanzipation, deshalb leben Anti-Feministen im 18. Jahrhundert;
  • aus der Beobachtung eines Eremiten im dritten Andental links auf die allgemeinen Verhaltensweisen von Bergbewohnern geschlossen wird, wenn also aus empirischen Aussagen über einen Miniaturbereich, weitreichende Schlussfolgerungen abgeleitet werden, die nicht belegt werden;

Anregungen? Hinweise? Kontaktieren Sie ScienceFiles

Der rechtsextrem fremdenfeindliche Ossi: Junk Science trifft journalistische Ahnungslosigkeit

Wenn es um Sozialwissenschaften geht, dann scheint jeder Fuzzi zu denken, er könne mitreden.

Das ist ein Problem.

Ein weiteres Problem besteht darin, dass unter Journalisten Sachverstand und Urteilsvermögen so rar sind. Vor allem dann, wenn es um sozialwissenschaftliche Themen geht, fehlen beide in schöner Regelmäßigkeit, tritt die eigene ideologische Überzeugung an die Stelle von Ratio und Vernunft.

Und deshalb berichten heute die staatstragenden Medien unisono von einer Studie, die die auch im Jahre 27 nach der Vereinigung noch vorhandene Bundesbeauftrage für die neuen Bundesländer in Auftrag gegeben und teuer bezahlt hat. Dass es richtig teuer wird, dafür wollen wir nun sorgen.

Weil Journalisten so wenig Sachverstand und Urteilsvermögen haben, deshalb werden sie zum Durchlauferhitzer dessen, was angebliche Wissenschaftler von sich geben, die sich verstärkt an Instituten zu finden scheinen, die am Tropf von Ministerien oder ihren Ablegern hängen, die sie mit Auftragsforschung mästen. Das dem so ist, das hat noch keinen Journalisten auch nur verwundert. Journalisten zeichnen sich weitgehend durch eine treudoofe Berichterstattung aus, die verbreitet, was in der Pressemeldung steht, die weder in Frage stellt noch hinterfragt.

Und deshalb lesen deutsche Leser in jedem Medium denselben Unsinn:

  • junk_scienceZEIT: Rechtsextremismus: Wo sich Fremdenfeindlichkeit breit macht;
  • ZEIT: Studie der Bundesregierung: Ostdeutschland ist anfälliger für Rechtsextremismus
  • Frankfurter Rundschau: Diagnose einer ostdeutschen Spezifität;
  • Tagesschau.de: Studie: Warum häuft sich rechte Gewalt im Osten;
  • Göttinger Tageblatt: Osten hat Problem mit Rechtsextremismus;
  • Tagesspiegel: Rechtsextremismus in Ostdeutschland: Und immer wieder Sachsen;
  • RP Online: Studie – Was den Osten so anfällig für Rechtsextremismus macht;
  • Derwesten.de: Rechtsextremismus ist ein ostdeutsches Problem;
  • Heute.de: DDR-Wurzeln machen Osten rechtsextremer;
  • RBB24: Studie: Ostdeutsche anfälliger für Rechtsextremismus;
  • N-TV.de: Studie – Osten anfälliger für Rechtsextremismus;

Ausgangspunkt für diesen gesammelten Unsinn ist eine angebliche Studie, die das Göttinger Institut für Demokratieforschung erstellt hat; im Auftrag der Bundesbeauftragten für die Ossis und für viel Geld. Wir schätzen, dass die Bundesbeauftragte für diese Junk-Studie mindestens 500.000 Steuereuro aus dem Fenster geworfen hat und fragen uns, ob man politische Darsteller, deren Darstellung vornehmlich darin besteht, Steuergelder zu verprassen, nicht wegen Veruntreuung anzeigen sollte.

Denn um Veruntreuung handelt es sich bei dieser Studie, dieser prätentiösen Studie, die viel vorgibt und methodisch in einer Weise von der Ahnungslosigkeit der angeblichen Forscher kündet, die uns sprachlos macht (Und wir haben schon einiges an Unsinn gelesen im Laufe unserer Gutachter-Karriere…).

Fangen wir zunächst mit dem an, was man aufgrund des methodischen Designs der Junk-Studie nicht machen kann:

Man kann keine Aussagen darüber machen, wie die Ostdeutschen sind. Die Datengrundlage lässt derartige Aussagen nicht zu.

Man kann keine Aussagen darüber machen, was die Ostdeutschen im Vergleich zu den Westdeutschen mehr oder eher oder besonders sind. In der Studie werden keinerlei Westdeutsche befragt oder untersucht. Entsprechend können auch keine Vergleiche zwischen Ost- und Westdeutschen auf Grundlage dessen vorgenommen werden, was die Göttinger da zusammengebastelt haben.

Man kann auf Grundlage der Daten der Göttinger keine Aussagen über Besonderheiten von Sachsen oder Thüringer machen. Die wenigen Daten, die noch dazu keinerlei regionale Variation aufweisen, lassen das nicht zu.

Ja man kann auf der Datenbasis, die die Göttinger sich teuer haben bezahlen lassen, nicht einmal Aussagen darüber machen, was Freital, Heidenau oder Erfurt, die drei Orte, in denen die Göttinger gewirkt haben, auszeichnet.

Damit sind alle Überschriften und Aussagen, die mit einem umfassenden Anspruch für alle Ostdeutschen oder für Ostdeutsche im Vergleich zu Westdeutschen oder für Sachsen oder Thüringer oder Heidenauer oder Freitaler oder Erfurter gemacht werden, wilde Spekulation und können keinerlei Anspruch darauf erheben, etwas zu verdeutlichen oder gar zu erklären.

Alle Titel und Beiträge in den oben zitierten Medien sind FakeNews, denn sie behaupten etwas, was schlicht nicht behauptet werden kann. Warum nicht?

Deshalb:

Rechtsextremismus und Fremdenfeindlichkeit in Ostdeutschland“, so lautet der Titel der Göttinger Studie. Tatsächlich haben die Göttinger nicht Ostdeutschland, sondern nur Erfurt, Heidenau und Freital untersucht. Selbst Journalisten sollten verstehen, dass drei Orte nicht Ostdeutschland sind.

Der Titel geht noch weiter: „Ursachen und Hintergründe für Rechtsextremismus und Fremdenfeindlichkeit und fremdenfeindlich motivierte Übergriffe in Ostdeutschland sowie die Ballung in einzelnen ostdeutschen Regionen“.

Wenn angebliche Wissenschaftler von Ursachen sprechen und behaupten, sie hätten Kausalitäten entdeckt, dann ist Vorsicht angezeigt; Wenn die entsprechenden Wissenschaftler ihre Kausalitäten auf Basis von qualitativen Methoden gefunden haben wollen, dann ist neben Heiterkeit noch mehr Vorsicht angezeigt, dann liegt der Verdacht nahe, dass hier ein Versuch unternommen werden soll, Sozialwissenschaften zum Zwecke ideologischer Manipulation derer, die sich so gerne und einfach manipulieren lassen, also der Journalisten, zu missbrauchen.

Goettingen Junk ScienceUm diesen Verdacht zu untersuchen, benötigt man Kenntnisse der Methoden der empirischen Sozialforschung und man muss in der Lage sein, das Methodenkapitel der Göttinger Ideologen zu lesen. Dasselbe nimmt gerade einmal drei dreiviertel Seiten ein und rapportiert im Wesentlichen nur, was gemacht wurde:

Es wurden qualitative Interviews mit Experten geführt, also mit Personen, die die Göttinger für Experten halten. Warum sie die entsprechenden Personen für Experten halten, warum und wie sie die entsprechenden Personen ausgewählt haben, grundlegende Fragen, an denen der Wert einer Studie und ihre Reichweite bewertet wird, sie werden nicht beantwortet. Das ist ein Verstoß gegen wissenschaftliche Lauterkeit und ein eindrücklicher Beleg für methodische Unkenntnis.

Dann wurden Fokusgruppen-Interviews in Freital und Heidenau und Erfurt geführt, mit jeweils 6 bis 8 Personen. Wer aus welchem Grund als Teilnehmer in die Fokusgruppen gelangt ist, darüber schweigen sich die Göttinger ebenfalls aus. Abermals ein Verstoß gegen wissenschaftliche Lauterkeit, den man einem Studenten im ersten Semester nicht durchgehen lässt.

Weil niemand weiß, wer warum in die Fokusgruppen oder als Experte zum Experteninterviews geladen wurde, deshalb ist das Material das aus den Interviews resultiert schlicht wertlos. Möglicherweise haben die Göttinger Forscher ja ausschließlich Mitglieder der LINKE zu ihrer Meinung über Rechtsextremismus und Fremdenfeindlichkeit befragt. Ein Verdacht, der nicht so fern liegt, wie man denken würde. Aber dazu kommen wir noch.

Dann haben die Göttinger noch „teilnehmende Beobachtungen“ durchgeführt, sie haben an Stadratsitzungen teilgenommen, sind zu einem oder mehreren Fussballspielen gegangen und waren bei Stadt- oder Grillfesten zugegen. Grundsätzlich ist die teilnehmende Beobachtung eine wissenschaftliche Methode, aber nur dann, wenn die Beobachtungssituationen und die, die beobachtet werden, nach festen Kriterien bestimmt und kontrolliert werden. Die Göttinger haben nichts davon getan. Entsprechend sind ihre Ergebnisse auch hier wertlos.

Schließlich haben sie Wahlergebnisse ausgewertet. Ein löbliches Unterfangen, das man normalerweise von Studenten im Grundstudium vornehmen lässt.

Das, was der ahnungslosen Bundesbeauftragten hier mit Sicherheit als „Methoden-Mix“ verkauft wurde, sehr teuer verkauft wurde, wir gehen von Kosten in Höhe von mindesten einer halben Million Euro für ein solches Design aus, ist eine Sammlung methodischer Kunstfehler, die letztlich keinerlei Aussagen darüber zulassen, welche lokale Strukturen oder gar Ursachen von Rechtsextremismus in Freital, Heidenau oder Erfurt für zu finden sind, geschweige denn, dass sich Aussagen für Sachsen, Thüringen oder Ostdeutschland als Ganzes machen ließen.

Dass dem so ist, das müssen auch die Göttinger irgendwie gedacht haben. Nur so ist es zu erklären, dass sie einen der dümmsten Sätze, die je aus einem angeblichen Wissenschaftlerkopf gefallen sind, zu Papier gebracht haben, um zu suggerieren, ihre Ergebnisse wären irgendwie repräsentativ, würden irgendwie Schlüsse über die Personen, von denen die Ergebnisse generiert wurden, hinaus zulassen:

Prof Facepalm„Die jeweiligen Fokusgruppen hatten eine Größe von sechs bis acht TeilnehmerInnen, wobei versucht wurde – und auch weitgehend gelang -, sowohl nach Alters- als auch nach den Geschlechterdurchschnitt sowie die Verteilung nach Berufstätigkeit/Ausbildung/Arbeitslosigkeit/Rente der jeweiligen Untersuchungsorte einigermaßen repräsentativ abzubilden.“ (12)

Damit ist es den Göttingern gelungen, die Vielfalt von Heidenau, Erfurt und Freital in sechs bis acht Personen repräsentativ zu erfassen, und zwar mit Blick auf das Alter, das Geschlecht, den Beruf, und den Erwerbsstatus. Daraus muss man schließen, dass es in Erfurt und Freital und Heidenau jeweils maximal 6 bis 8 Personen unterschiedlichen Alters gibt, die nicht mehr als 6 bis 8 unterschiedliche Berufe ausüben und noch in der Lage sind, die Verschiedenheit von Erwerbsstatussen (Vollzeit, Teilzeit, stundenweise Beschäftigung, Arbeitslosigkeit, in Lehrausbildung, bei der Bundeswehr, im Studium, in Elternzeit, beurlaubt, krankgeschrieben usw.) abzubilden.

Das ist mit Verlaub der größte Schwachsinn, den wir je gelesen haben. Wer behauptet, er können auf Basis von 6 bis 8 Personen die „jeweiligen Untersuchungsorte einigermaßen repräsentativ“ abbilden, wie dies die Göttinger tun, der hat entweder (1) nicht mehr alle Tassen im Schrank, (2) keine Ahnung von Methoden, (3) will bewusst seinen Auftraggeber täuschen oder macht (4) sich einen Spaß mit seinem Auftraggeber, dem er entsprechende Attribute von Dummheit und Naivität zuweisen muss.

methoden_der_empirischen_sozialforschungWas zutrifft, wissen wir nicht. Aber wir wissen, dass die Behauptung, die Ergebnisse seien in irgendeiner Weise aussagekräftig, nicht nur methodisch unhaltbar ist, sie sind eine schlichte Lüge. Das ganze Brimborium, das die Göttinger veranstalten, dient einzig dazu, die Kosten für diese Studie in die Höhe zu treiben, ohne auch nur einen Deut Erkenntnis als Gegenleistung zu liefern und dazu, am Ende die eigenen Vorurteile, die man zu Anfang in die Studie gepackt hat, damit rechtfertigen zu können, dass man sie nun als Ergebnisse präsentiert.

Um es noch einmal deutlich zu sagen: Auf Grundlage dessen, was die Göttinger geforscht haben wollen, kann man KEINERLEI Aussage über Erfurter, Heidenauer, Freitaler, Sachsen, Thüringer oder Ostdeutsche machen.

Fehlt noch der Beleg dafür, dass die Göttinger gefunden haben, wonach sie manisch auf der Suche waren.

Wenn man belegen will, dass X ein Rechtsextremist ist, was macht man dann? Man befragt Y, der schon mehrfach öffentlich seine Meinung bekundet hat, dass X ein Rechtsextremist ist. Das beschreibt die Anlage der Studie, deren Ergebnisse, die Journalisten so treudoof herbeten und die auf den Angaben der folgenden Personen beruhen:

  1. Sebastian Reißig, Geschäftsführer von Aktion Zivilcourage e.V., Pirna
  2. Herr Dreier, Mitglied der Fraktion SPD/Grüne im Stadtrat Freital und
  3. Mitglied der Fraktion SPD/Grüne im Kreistag Sächsische Schweiz-Osterzgebirge
  4. Herr Menke, Mitglied der Fraktion DIE LINKE im Stadtrat Freital und im Kreistag Sächsische Schweiz-Osterzgebirge
  5. Frau Laski, Mitglied des Freitaler Stadtrates
  6. Jürgen Opitz, Bürgermeister der Stadt Heidenau
  7. Frau Ackermann, Mitglied des sächsischen Landtages (Fraktion DIE LINKE)
  8. Herr Reese, führender Mitarbeiter der sächsischen Landeszentrale für politische Bildung
  9. Frau Decker, Lokalredakteurin der Sächsischen Zeitung in Freital
  10. MitarbeiterInnen des Kinder- und Jugendhilfeverbundes Freital
  11. Herr Thiele, Mitglied der Fraktion „Bürger für Freital“ im Freitaler Stadtrat
  12. Herr Tharandt, Lehrer am Weißeritzgymnasium Freital
  13. Frau Fröhlich, Mitglied der Fraktion DIE LINKE/Grüne im Stadtrat Heidenau
  14. Dr. Enrico Schwarz, Geschäftsführer von Biotec e.V., Freital
  15. Herr Lehmann, Fußballtrainer in Freital mit Migrationshintergrund
  16. MitarbeiterInnen der Stadtverwaltung Heidenau
  17. KommunalpolitikerInnen aus Heidenau
  18. Mitarbeiterinnen von Zusammenleben e.V., Freital
  19. Zwei Beamte des Landesamtes für Verfassungsschutz Sachsen (Leiter der
  20. Stabsstelle und Leiter des Fachreferates Rechtsextremismus)
  21. Frau Preuss, Bewohnerin des Stadtteils Heidenau-Süd
  22. BewohnerInnen des Herrenbergs, die anonym bleiben wollen, 27.10.2016
  23. Mitarbeiter der Partei DIE LINKE mit Schwerpunkt auf Rechtsextremismus, 01.08.2016
  24. Lokaler politischer Akteur, 27.10.2016
  25. Fanprojekt Erfurt e.V., 30.07.2016
  26. Fokusgruppe Erfurt, 16.11.2016
  27. Mitglied des Stadtrates für die SPD, 07.06.2016
  28. Journalist des MDR, 22.08.2016
  29. Politischer Akteur aus dem grünen Spektrum A, 17.05.2016
  30. Vertreter des Gemeindevorstands Ahmadiyya, 28.11.2017
  31. Mitglied des Stadtrates für die CDU, 07.06.2016
  32. Mobit e.V., 18.05.2016
  33. Bodo Ramelow, Ministerpräsident Thüringens, 07.09.2016
  34. Person aus der Bildungspolitik, 25.05.2016
  35. Politischer Akteur aus dem grünen Spektrum B, 22.08.2016
  36. Lokale zivilgesellschaftliche AkteurInnen, 15.11.2016
  37. Zwei Personen aus der Zivilgesellschaft, die anonym bleiben wollen, 27.09.2016

Alle Aussagen über Rechtsextremismus und Fremdenfeindlichkeit der Sachsen, Thüringer oder Ostdeutschen basieren auf den Angaben der hier zusammengestellten Interviewpartner. Man muss nicht in empirischer Sozialforschung ausgebildet sein, um zu erkennen, dass auf Basis der Interviews mit den genannten Personen keinerlei verallgemeinernde Aussagen möglich sind, die auf alle Sachsen oder Ostdeutschen übertragen werden. Alltagsverstand reicht. Alltagsverstand, den wohl die meisten Journalisten nicht haben. Man muss, am Rande bemerkt, selten dämlich sein, wenn man für einen derartigen Junk, mehrere 100.000 Euro Steuergelder aus dem Fenster wirft.

Aber: Nichts ist so schlecht, dass es nicht für etwas gut ist. Wenn man aus der Liste der Interviewten etwas entnehmen kann, dann die Angst der angeblichen Sozialforscher vor ihrem Studienobjekt. Es findet sich kein Rechter, kein bekennender Rechstextremist, nicht einmal ein Rechtsextremist-light in Form eines NPD-Funktionärs. Die Göttinger haben offensichtlich die Hosen voll und eine Heidenangst davor, mit denen konfrontiert zu werden, über die sie angeblich forschen. Das ist noch armseliger als diese Junk-Studie.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Translate »
error: Content is protected !!
Skip to toolbar