Der Korruptions-Schwindel von Transparency International

Platz 10 von 176.
Hier findet sich Deutschland.
Bei Transparency International auf dem Corruption Perception Index.

Das ist schön.

Aber es ist auch verwunderlich. Allein die Seilschaften, die von Ministerien zu ihren Günstlingen in Stiftungen und Meinungsforschungsinstituten, die mit Parteisoldaten besetzt sind, verlaufen, legen eigentlich den Schluss nahe, dass politische Korruption in Deutschland verbreitet ist, verbreiteter als es der Platz bei Transparency International ausweist.

Also haben wir uns gefragt, wie es dazu kommt, dass Deutschland bei Transparency International so gut angesehen ist, was die Korruption angeht.

Die Antwort auf diese Frage muss man etwas suchen. Letztlich findet sie sich in einem Link, der mit „Source Description“ benannt ist.

Source Description bezeichnet die Datenquellen, aus denen Transparency International seinen Corruption Perception Index (CPI) zusammenklaubt. Anders als viele denken ist der Corruption Perception Index von Transparency International kein Ergebnis eigener Tätigkeit, sondern das Ergebnis von Mittelwertberechnung. Die Daten, die andere gesammelt haben, werden von Transparency International in einen Topf geworfen und gemittelt. Heraus kommt der Corruption Perception Index (CPI).

Der CPI ist natürlich nur so gut, wie die Datenquellen es sind, auf denen er beruht. Also haben wir uns gefragt, welche Datenquellen sind dafür verantwortlich, dass die politische Korruption in Deutschland – wie wir meinen – so schöngefärbt und als fast nicht vorhanden angezeigt wird? 

SGI Network media

Quelle: SGI-Network

Als Antwort haben wir z.B. die Daten des SGI-Networks das Sustainable Governance Indicators sammelt – alles ganz wissenschaftlich und von der Bertelsmann-Stiftung finanziert, gefunden. Unter anderem werden hier Daten zu Korruption und zur Unabhängigkeit der Berichterstattung der Medien gesammelt, Daten, die zeigen, dass in Deutschland Medien-Pluralismus und entsprechende Berichterstattung so gut ist, dass sie gar nicht besser sein könnten und Daten, die zeigen, dass Korruption in Deutschland kein Problem ist, lediglich bei der innerparteilichen Demokratie gibt es im von Bertelsmann finanzierten SGI-Index ein Problem, ein kleines Problem, das wohl nicht weiter relevant ist.

Wie kommen diese Daten zusammen?

Werden große Umfragen unter Tausenden Bundesbürgern durchgeführt, um u.a. ihre Sicht zur Korruption in Deutschland zu erheben?

Werden eine große Anzahl von Personen befragt, die in ihrer täglichen Arbeit, z.B. weil sie für ein Unternehmen mit Planungsbehörden zu tun haben oder mit Parteien und ihrer Macht konfrontiert sind, mit politischer Korruption in Kontakt kommen können?

Die Daten, die von der Bertelsmann zusammengestellt werden und gleichberechtigt mit allen anderen Daten, die Transparency International benutzt, um seinen, wie man wohl sagen muss, Reinwasch-Index für westliche Gesellschaften zu berechnen, sie werden von 3, DREI Personen zusammengestellt, eingeschätzt, wie das so schön heißt, nämlich von:

  • Friedbert Rüb, Professor für Politische Soziologie an der Humboldt-Universität zu Berlin;
  • Friedrich Heinemann, Abteilungsleiter am Zentrum für Europäische Wirtschaftsforschung in Mannheim;
  • Tom Ulbricht, wissenschaftlicher Mitarbeiter am Institut für Sozialwissenschaften der Humboldt-Universität zu Berlin

Diese drei „Experten“, von denen niemand so richtig weiß, was sie zum Experten z.B. in Fragen der Korruption für Deutschland macht, produzieren die Daten, die Transparency International dann im CPI verwurstet.

SGI Network media

Quelle: SGI-Network

Ja, wir haben auch zunächst gedacht, das kann nicht sein, drei Hanseln, die Daten für ein Land produzieren, das kann nur ein schlechter Witz sein. Ist es aber nicht, wie man der „Methodologie-Sektion“, noch ein Witz, noch ein schlechter Witz, von SGI-Bertelsmann entnehmen kann.

Aber halt, der CPI von Transparency International basiert ja nicht nur auf den Angaben der drei Hanseln für Deutschland. Es gibt noch weitere Datenquellen, wie die Weltbank oder das World Economic Forum. Beide Letztgenannten erheben ausschließlich Daten, die im Hinblick auf die staatliche Korruption, der sich Unternehmer gegenübersehen könnten, wenn sie ein Unternehmen eröffnen oder betreiben wollen, also Schmiergeldzahlungen und Bestechungen an staatliche Bedienstete, relevant sind. Politische Korruption, die Form von Korruption, die in Deutschland endemisch ist, sie kommt also überhaupt nicht vor. Als Beispiel mag der ebenfalls als Datenquelle fungierende Rule of Law Index des World Justice Projects dienen, der ebenfalls in den CPI von Transparency International eingeht.

Dort wird Korruption mit folgenden Aussagen erfragt:

  • 2.1 Government officials in the executive branch do not use public office for private gain
  • 2.2 Government officials in the judicial branch do not use public office for private gain
  • 2.3 Government officials in the police and the military do not use public office for private gain
  • 2.4 Government officials in the legislative branch do not use public office for private gain

Politische Korruption kommt abermals nicht vor. Es ist also kein Wunder, dass man sich verwundert die Augen reibt, wenn man sieht, welche Rangposition Deutschland im CPI zugewiesen wird. Wer nicht nach politischer Korruption, nach der Korruption von Parteien, von ihren Stiftungen, die ausschließlich von Steuergeldern unterhalten werden, nach Korruption von Parteimitgliedern, die als Ministerdarsteller über Steuergelder verfügen, die in entsprechende Netzwerke kanalisiert werden können, sucht, der wird sie auch nicht finden.

Der Korruptions-Index von Transparency International ist somit im schlimmsten Fall eine Täuschung der Öffentlichkeit, im besten Fall ein Instrument, das veraltet, nicht valide und auf Datenquellen basiert, die man abermals im besten Fall als dubios und im schlimmsten Fall als versuchte Täuschung der Öffentlichkeit bezeichnen muss. Dass die Bertelsmann-Stiftung dabei eine prominente Rolle spielt, ist im besten Fall ein Zufall im schlimmsten Fall das Ergebnis politischer Korruption.


Hinweise für ScienceFiles?
Schreiben Sie uns.

Wissenschaftlicher Unsinn gefährdet Ihre Gesundheit

Grundsätzlich ist es das Ziel von wissenschaftlicher Forschung, allgemeine Zusammenhänge, verallgemeinerbare Aussagen, Theorien aufzustellen, die es erlauben, auf Basis einiger Kriterien Aussagen über die Zukunft, also Prognosen aufzustellen.

Tatsächlich verkommt wissenschaftliche Forschung immer mehr zu ideologischem Geschwätz oder sie wird dazu genutzt, die letzten Trivialitäten zu verkünden oder dazu, den allgemeinen Wald vor lauter speziellen Bäumen nicht mehr zu sehen. Häufig sind angebliche Wissenschaftler nur noch damit beschäftigt, ihren geistigen Tellerrand abzulaufen und kommen nicht einmal auf die Idee, es könnte eine Erkenntnis jenseits der eigenen Engstirnigkeit geben.

Opp MethodologieDie „Bonner Ökonomen Armin Falk und Fabian Kosse“ gehören zu Letzteren. Sie produzieren Ergebnisse, die (1) trivial, (2) engstirnig und (3) idiosynkratisch sind, und zwar unter der Überschrift: “Unfaire Löhne gefährden die Gesundheit”.

Falk und Kosse haben 80 Studenten in zwei Gruppen geteilt. Eine Gruppe enthielt Chefs, eine Arbeiter. Die Arbeiter mussten 25 Minuten lang langweilige Rechenaufgaben lösen, während die Chefs entspannten. Für jede gelöste Rechenaufgabe gab es Geld. Je mehr Rechenaufgaben gelöst wurden, desto höher das gemeinsame Verdienst, das am Ende der 25 Minuten von den 25 Chefs mit den 25 Arbeitern geteilt wurden. Dabei haben sich die Chefs regelmäßig mehr Geld zugewiesen als sie ihren Arbeitern zugebilligt haben, was bei den Arbeitern dazu geführt hat, dass sich die Herzfrequenzvariabilität abgesenkt hat.

Sie waren gestresst, wie Falk und Kosse meinen, verärgert wäre das Wort, das wir gewählt hätten. Nun bringt eine niedrigere Herzfrequenzvariabilität, wie Falk und Kosse meinen, das erhöhte Risiko einer Herzerkrankungen mit sich. Entsprechend folgern sie, dass die unfaire Teilung des von den Arbeitern erwirtschafteten Gelds durch die Chefs letztlich die Arbeiter krank machen kann.

Von hieraus machen Falk und Kosse einen Sprung zu Ergebnissen, die auf Basis des Sozio-ökonomischen Panels erzielt wurden. Demnach haben Befragte, die ihren Lohn als unfair empfunden haben, auch ihren Gesundheitszustand schlechter eingeschätzt als Befragte, die ihren Lohn als fair empfanden. Der Sprung soll die eigenen, mageren Ergebnisse, die auf dem Rücken von 80 studentischen Opfern gewonnen wurden, aufpeppen und allgemein machen. Tut er aber nicht. Vielmehr vergleichen Falk und Kosse Äpfel mit Birnen.

Im SOEP wurde real erhaltener Lohn und subjektive Einschätzung von Gesundheit untersucht, während Falk und Kosse erspielten Gewinn, willkürliche Entscheidung und gemessene Herzfrequenzvariabilität in Zusammenhang gebracht haben. Sie behaupten also einen Syllogismus ohne Mittelglied, und so lange sie nicht belegt haben, dass unfairer Lohn mit erspieltem Gewinn und mit Herzfrequenzvariabilität und subjektiv schlecht eingeschätzter Gesundheit zusammenhängt, ist ihre wilde Assoziation eben das: eine wilde Assoziation.

Wenn der Schluss, den Falk und Kosse gerne im Hinblick auf Lohngerechtigkeit ziehen würden, wohl weil Lohngerechtigkeit derzeit ein trendy Thema ist, mit dem man viel Browniepoints verdienen kann, nicht gezogen werden kann, was bleibt dann von ihrer Forschung?

Trivialitäten.
Diese zum Beispiel: „Unsere Ergebnisse zeigen, dass der menschliche Körper auf soziale und kontextbezogene Informationen reagiert und sie systematisch verarbeitet“.

Unglaublich. Menschen sind Teil einer Umwelt und reagieren auf diese Umwelt. Es soll Menschen geben, die bei Hitze schwitzen, andere sollen bei Kälte frieren und wieder andere sollen mit Ärger reagieren, wenn sie öffentlich-rechtliche Sender anschalten, Behördenbriefe erhalten oder derart dünngeistigen Unsinn zugemutet bekommen, wie ihn Fabian Kosse hier formuliert hat.

Nicht genug mit Trivialitäten, Engstirnigkeit kommt noch hinzu.

Völlig fixiert auf ihr Ansinnen, auf dem Trittbrett der Lohngerechtigkeit mitzufahren (um vielleicht vom BMFSFJ gefördert zu werden), sehen sie den Wald vor lauter Bäumen nicht, obwohl Gerechtigkeit eine Universalie ist, die den Schluss nahelegt, dass eine Verletzung des Gerechtigkeitsempfinden im generellen und nicht nur im Speziellen für die niedrigere Herzfrequenzvariabilität verantwortlich ist. Der Spiellohn bei Falk und Kosse wäre somit ein Anwendungsfall eines größeren Themas, eines Themas, das eigentlich in der Wissenschaft bearbeitet wird, nur nicht von Falk und Kosse.

Vielleicht scheuen Sie davor zurück, weil der Schluss, dass eine niedrige Herzfrequenzvariabilität ein Maß für ein erhöhtes Risiko einer Herzerkrankung ist, vor allem dann, wenn es um gesunde und junge Menschen geht, unter Ärzten umstritten ist bzw. nicht gezogen wird. Ärzte begnügen sich damit festzustellen, dass die Herzfrequenzvariabilität bei Patienten, die bereits unter einer Erkrankung des Herzens leiden, ein hilfreicher Indikator sein kann und dass es wohl einen, bislang ungeklärten Zusammenhang zwischen Herzfrequenzvariabilität und Alter gibt:

“ Die Mechanismen der altersassoziierten HRVAbnahme sind noch nicht vollständig aufgeklärt. Sicher spielen bei einem Teil der Menschen gerade auch mit zunehmendem Alter Lifestyle – Faktoren, vor allem die Abnahme der körperlichen Aktivität und daraus resultierend der körperlichen Fitness eine Rolle. Darüber hinaus scheint jedoch auch der Alterungsprozess per se zu einer Beeinträchtigung der autonomen Funktion zu führen, wobei nach derzeitiger Datenlage vor allem vagusvermittelte Prozesse und Regelkreise betroffen sind.“

Vom Forschungsergebnis, das Falk und Kosse mit umfangreichen und weitreichenden Behauptungen vertreiben, bleibt nichts übrig, so dass man wohl feststellen muss: handwerklich schlecht, theoretisch unfundiert, assoziativ und falsch. Forschung 2017.

Geschwätz ist keine Wissenschaft: Methodologie der SozialWISSENSCHAFTEN

Sozialwissenschaften sind bzw. waren Wissenschaften. Es ist Zeit, einmal wieder daran zu erinnern. Wissenschaft unterscheidet sich von Nicht-Wissenschaft nicht dadurch, dass erstere an Universitäten betrieben wird und letztere nicht, wie viele zu meinen scheinen, sondern durch die Methode und das Ziel, dem diese Methode dient.

Albert TraktatDas Ziel jeder Wissenschaft ist Erkenntnisgewinn, die Akkumulation von Wissen, von bewährtem Wissen. Um dieses Ziel zu erreichen, benötigt Wissenschaft eine Methode. Die Methode der Wissenschaft, die systematisches Sammeln von Wissen ermöglich, sie besteht darin, Theorien zu entwickeln und an der Realität zu testen. Entsprechend müssen wissenschaftliche Theorien etwas über die Realität aussagen. Fabuliertes, wie man es z.B. bei Hegel oder Habermas lesen kann, hat mit Wissenschaft nichts zu tun. Es mag für den einen oder anderen gelehrt klingen oder gar interessant sein, aber so lange man aus dem, was Hegel oder Habermas von sich geben, nicht logisch korrekt Hypothesen ableiten kann, die man wiederum an der Realität testen kann, ist ihr Fabuliertes heiße Luft ohne weiteren Wert.

Entsprechend kann Wissenschaft im Ziel nur empirisch sein, d.h. die formulierten Aussagen müssen dem Ziel dienen, unser Wissen über die Wirklichkeit zu vermehren. Entsprechend ist Genderismus keine Wissenschaft. Denn entweder erzählen Genderisten im Inbrunst der Überzeugung Trivialitäten, die schon seit Aristoteles und vermutlich schon lange vor ihm bekannt waren oder sie machen Aussagen, die nichts über die Wirklichkeit aussagen oder gar der täglichen Erfahrung von Menschen widersprechen.

Dass Frauen diskriminiert werden, wo sie gehen und stehen, ist eine solche Behauptung, die, so lange sie nicht mit Antezedens-Bedingungen verbunden wird, keinerlei empirischen Gehalt hat und somit belanglos ist. Erst wenn angegeben werden kann, unter welchen empirisch messbaren Bedingungen Frauen wo und von wem diskriminiert werden und welche empirisch messbare Folge sich daraus ergibt, haben Genderisten einen Schritt in Richtung Wissenschaft getan. Bislang sind sie nicht einmal in der Lage, die einfachsten Fragen zu Erkenntnisinteresse und Erkenntnismethode zu beantworten, geschweige denn, zur Erkenntnistheorie, so dass man Genderismus mit der Kaffeedomantie auf einer Stufe sehen kann. Der einzige Unterschied zwischen beiden besteht darin, dass Kaffeesatzlesen derzeit von keinem Ministerium gefördert wird, derzeit …

Sozialwissenschaften verfügen über einen Grundstock an Methoden, der sie zur Wissenschaft qualifiziert. Die 1960er bis Mitte der 1990er Jahre haben entsprechend viele Arbeiten zu Wissenschaftstheorie bzw. Methode oder Methodologie der Sozialwissenschaften gesehen. Sozialwissenschaftler haben sich damals die Frage gestellt, welche Kriterien ihre Sozialwissenschaft erfüllen muss, um als Wissenschaft zu gelten. Und Sozialwissenschaften wie die Soziologie und die Politikwissenschaft waren kurz davor, einen einheitlichen und verpflichtenden Methoden-Korpus zu entwickeln.

Die genderistische und sozialistische Unterwanderung der Sozialwissenschaften hat dies anscheinend zum Stocken gebracht, und die Sozialwissenschaften in ein Methodenbrache verwandelt, in der viele denken, qualitative Befragungen seien die Möglichkeit, sich der Mühe strukturierten Arbeitens zu entledigen und eine billige Möglichkeit, um mit dem Interview-Gesülze Seiten zu füllen. Experteninterviews sind an die Stelle von theoretischen Annahmen getreten, denn viele der derzeitigen Sozialwissenschaftler machen keine Annahmen mehr, dazu müsste man Texte lesen, Bücher am Ende und sich Gedanken machen. Das qualitative Schmarotzen in Form von vermeintlichen Experteninterviews, in deren Verlauf die möchtegern-Forscher hoffen, das zu erfahren, was sie nicht wissen, also so ziemlich alles, ist an die Stelle des eigenen Denkens getreten.

In der quantitativen Sozialforschung sieht es nicht besser aus. Das alte „data speak to me“ feiert neue Feste und Befragungen werden in der Regel nicht mehr durchgeführt, um Annahmen zu testen, sondern um die eigenen ideologischen Überzeugungen zu bestätigen.

Die empirische Sozialforschung liegt weitgehend am Boden, aber immerhin sehen empirische Sozialforscher noch die Notwendigkeit, zumindest den Versuch zu machen, eine Beziehung zur Realität herzustellen. Andere haben längst damit aufgehört, sich um die Realität zu kümmern und sind zum alten Modell der Offenbarungslehre zurückgekehrt, von dem Hans Albert noch 1991 schreiben konnte, dass es im 15. Jahrhundert überwunden wurde. Er hat die Rechnung ohne die Sozialwissenschaftler gemacht, die sich Sozialwissenschaftler nennen, weil sie einen Lehrstuhl inne haben, der eine entsprechende Bezeichnung nahelegt. Von diesem Lehrstuhl aus offenbaren sie ihrer Umwelt die von ihnen für richtig gehaltene Lehre, deren Richtigkeit man nur erkennen kann, wenn man sich eingehend mit dem Gegenstand der Heilslehre beschäftigt hat, so eingehend, wie der Verkünder der Wahrheit. Auch für diese Form des Missbrauchs wissenschaftlicher Einrichtungen gibt es Begriffe. Sie reichen von der Afterwissenschaft, wie sie Max Weber genannt hat, bis zur Kritikimmunisierung, die Hans Albert in diesen Zusammenhängen beschrieben hat.

Angesichts der aufgezeigten Entwicklung der deutschen Sozialwissenschaften ist es wichtig, darauf hinzuweisen, dass es nicht nur eine Zeit gegeben hat, in der deutsche Sozialwissenschaftler Methode und Erkenntnisinteresse hatten, es ist auch an der Zeit, auf entsprechende Veröffentlichungen hinzuweisen, ehe sie dem Vergessen anheim fallen.

Opp_MethodologieEine solche Veröffentlichung ist die „Methodologie der Sozialwissenschaften“ von Karl-Dieter Opp. Ursprünglich in den 1970er Jahren geschrieben, ist die derzeitige Version eine knappere Darstellung des ursprünglichen Buches, bereinigt um all die logischen Operatoren und Zusammenhänge, die man heutigen Studenten nicht mehr zumuten soll, weil heutige Studenten den Unterschied zwischen einer Implikation und einer Äquivalenz nicht mehr kennen. Die abgespeckte Version bietet einen leichten Zugang zu der Art und Weise, in der man Sozialwissenschaft betreibt, damit am Ende Wissenschaft und nicht Ideologie dabei herauskommt.

Opp beschreibt die Struktur sozialwissenschaftlicher Aussagen und dabei die Logik kausaler Beziehungen im Rahmen von Satzgeflechten, die man Theorie nennt. Er erklärt den Unterschied zwischen einer Erklärung, als dem, wonach Wissenschaftler streben und dem Verstehen, als dem, was Wissenschaftler können sollten, was aber nicht ihr Erkenntnisinteresse darstellt. Er gibt Beispiele für die Bildung theoretischer Modelle und wendet sich dann dem „Informationsgehalt sozialwissenschaftlicher Aussagen“ zu, also der Frage, was eine Aussage zu einer sozialwissenschaftlichen Aussage macht. Es folgt ein Kapitel über die Logik sozialwissenschaftlicher Theorienbildung. Weil Theorien nicht um ihrer selbst willen gebildet werden, sondern dazu, einen Erkenntnisgewinn zu ermöglichen, also in der Regel dazu, Probleme zu lösen, und weil Erkenntnisgewinn eine Beziehung zwischen Theorie und Empirie voraussetzt, kommt Opp im zentralen achten Kapitel seiner Methodologie zur Beantwortung der alles überragenden Frage: Wie prüft man sozialwissenschaftliche Theorien? Allein die Lektüre dieses Kapitels macht deutlich, warum so vieles, was uns derzeit als Sozialwissenschaft untergeschoben wird, nicht einmal dazu taugt, den Status einer Hypothese zugewiesen zu bekommen. Die Lektüre sei entsprechend jedem an Sozialwissenschaft Interessierten empfohlen.

Die Auseinandersetzung mit der Frage, wie man eine Theorie kritisiert, die Opp unabhängig von der Frage diskutiert, wie man eine Theorie prüft, führt schließlich zu dem, was man als gängige Praxis dessen ansehen kann, was derzeit als Sozialwissenschaften verkauft werden soll: „Wie formuliert man eine Theorie, die unprüfbar ist?“, so fragt Opp und beantwortet die Frage auch selbst:

“In Lehrveranstaltungen zur Wissenschaftstheorie stelle ich zuweilen die Aufgabe, eine sozialwissenschaftliche Theorie – z.B. die Anomietheorie – so umzuformulieren, dass sie unwiderlegbar wird und dass es möglichst schwierig wird, dies zu erkennen. Um dies zu bewerkstelligen, muss man die Begriffe möglichst unklar lassen, die Struktur der Theorie bestenfalls andeuten, und die Wenn- und Dann-Komponente so formulieren, dass die Theorie analytisch wahr (oder falsch) wird – und zwar so, dass der analytische Charakter der Theorie nicht erkennbar ist.“ (220).

Wem also eine angebliche sozialwissenschaftliche Theorie begegnet, die so komplex ist, dass man sie nicht verständlich formulieren kann, der sollte sensibel dafür sein, dass man versucht, ihn zu täuschen. Ähnliches gilt für Aussagen, mit denen behauptet wird, bestimmte Inhalte seien zu komplex, als dass man sie in einfache Aussagen verpacken könnte. Wenn bestimmte Inhalte zu komplex sind, als dass man sie in einfache Aussagen zerlegen kann, dann ist es sehr unwahrscheinlich, dass diejenigen, die behaupten, die Aussagen seien so komplex, in der Lage sind, sie zu verstehen, denn komplexe Aussagen überfordern die meisten Gehirne, wie jeder leicht feststellen kann, wenn er versucht, sich einen vierdimensionalen Raum vorzustellen.

Wohlgemerkt ist die Kritik von Opp eine Kritik auf hohem Niveau, denn der meiste Unsinn, der heute aus den Sozialwissenschaften kommt, schafft es nicht einmal auf die Stufe, auf der man zugestehen könnte, dass hier ein Versuch gemacht wurde, eine Theorie zu formulieren. Vermutlich ist die Komplexität der eigenen Gedanken in den entsprechenden Fällen zu groß, als dass es möglich wäre, sie in geordneter Form und für andere verständlich mitzuteilen.

Das bringt uns zur letzten Frage: Warum wirken Geschwätzburgen, die aus der Komplexität aneinandergereihter Nominalkonstruktionen bestehen, die sich bei näherem Besehen als Leeformel herausstellen, auf manche so anziehend? Die Antwort ist unseres Erachtens eine sozialpsychologische: Wessen Kompetenz nicht ausreichend, um Leerformeln als solche zu erkennen, wer Nominalkonstruktionen nachbetet, weil er sie für wahre Erkenntnis hält, der kommt auch nicht auf die Idee, dass Dritte ihn durchschauen und merken könnten, dass er versucht, sich mit leerem Geschwätz zu schmücken, das er für große Erkenntnis hält. Käme er auf diese Idee, er würde sich nicht mit leerem Geschwätz schmücken, sondern das leere Geschwätz als solches erkennen. Die Frage, was aus diesen Ausführungen für die institutionalisierten Sozialwissenschaften und das viele Geschwätz, das aus ihnen zu hören ist, folgt, ist eine Frage, die sich nun jeder selbst beantworten muss.


Helfen Sie uns dabei, ScienceFiles vom Hobby zum fest etablierten Blog zu machen. Machen Sie mit beim ScienceFiles-Projekt.

Mit Ihrer Spende können Sie dazu beitragen, dass wir uns nicht mehr nur nebenbei um ScienceFiles kümmern können und uns dem, was wir investigative Wissenschaft und angewandte Sozialwissenschaft nennen, voll widmen können.

Paypal:

PAYPAL

Spendenkonto:
Wir empfehlen Transferwise, um die horrenden Bankgebühren deutscher Banken zu vermeiden.

  • Bank: Tescobank plc.
  • Accountname: ScienceFiles-Account
  • BIC: TPFGGB2EXXX
  • IBAN: GB40TPFG40642010588246
  • Kontoinhaber: Michael Klein
  • Bankgebühren umgehen mit Transferwise

Datenfuzzis: Über den Zusammenhang zwischen Quatsch und Unsinn

Nach einem langen Arbeitstag, der schon mit der Mondfinsternis begonnen hat, hat man etwas Ruhe und Erholung verdient – so meint man. Jedenfalls hat man nicht die Studie von Chan, Ghose und Seamans mit dem Titel “The Internet and Racial Hate Crime” verdient.

junk_scienceChan, Ghose und Seamans wissen, wie man Wissenschaftler zur Verzweiflung treibt, wie man Blogbetreiber dazu bringt, ein Post zu schreiben, ein Post über den Zusammenhang zwischen Quatsch und Unsinn.

Der wichtigste Satz der Studie von Chan, Ghose und Seamans findet sich auf Seite 29 und lautet: “This paper has several limitations”.

Ihre Studie sie hat in der Tat viele Beschränkungen. Die ganze Studie ist eine einzige Beschränkung.

Chan, Ghose und Seamans betreiben eine Form von Forschung, die man als Suche von Regressionsanwendern nach passenden Daten beschreiben kann. Auf ihrer Suche nach Daten, mit denen sie ihre Regressiongleichung füllen können, sind sie über die Anzahl der Anbieter von DSL-Verbindungen ins Internet (broadband im Englischen) und die Zahl so genannter Hate Crimes, also Hasskriminalität gestolpert.

Warum auch nicht. Warum, das ist so ein Schlüsselwort, zu dem wir noch kommen.

Also haben sich Chan, Ghose und Seamans gedacht, bringen wir die Regressionsgleichung zur Anwendung, y(Hasskriminalität) = b0 + b1(DSL-Anschluss)+ b2(Sonstiges – was so anfällt) [Wer es mag, kann die Werte auch logarithmieren.]. Und natürlich ist etwas dabei herausgekommen: Mit einem zusätzlichen DSL-Anbieter steigt die Häufigkeit von Hasskriminalität um 1200 bis 4800 Fälle (in den USA). Und wenn der DSL-Anbieter in einem Gebiet anbietet, in dem es schon viel Rassismus gibt, dann wird alles noch schlimmer, was für die Autoren zeigt, dass Individuen online gehen, “um sich dort eine Rassenidentität zu konstruieren” (das ist unsere Übersetzung dessen, was im Text mit den Limitations tatsächlich steht, auf Seite 27 im zweiten Absatz, für alle, die es nachlesen wollen).

Was meinen Sie zu dieser Studie?

Nun, was uns angeht, wir haben sofort gedacht, warum nicht Mikrowelle? Wir sind der Überzeugung, dass mit der Verbreitung von Mikrowellen mit mindestens 800 Watt die Häufigkeit von Hasskriminalität steigt, weil die Anwender von Mikrowellen offensichtlich durch die Mikrowellen in ihrem Rassismus bestärkt werden.

Natürlich wirken sich Tiefkühlgeräte reduzierend auf die Anzahl der Fälle von Hasskriminalität aus, da man sich in einer Tiefkühltruhe sein Mütchen kühlen kann.

Wenn jedoch Mikrowellen und Tiefkühlgeräte in Gebieten aufeinander treffen, die sowieso schon durch Rassismus geprägt sind, dann steht zu befürchten, dass die Konstruktion einer rassistischen Identität gestört ist – vielleicht auch nicht.

Ganz davon abgesehen hängt die Häufigkeit von Hasskriminalität natürlich mit der Anzahl der roten Ampeln zusammen, schon weil durch rote Ampeln die Wahrscheinlichkeit erhöht wird, rot zu sehen.

Das war der kathartische und destruktive Teil.

Why god has no phdNun zurück zum Wörtchen “warum”.
Was ist so besonders am Wörtchen, “warum”?
Nun, “warum” ist so etwas wie der Nukleus der Wissenschaft.

Es kann in destruktiver Absicht genutzt werden, um Junk Science wie die von Chan, Ghose und Seamans produzierte mit genau einem Wort, nämlich: “Warum?” zu zerstören. In der langen Version: Warum sollte es einen Zusammenhang zwischen der Anzahl der Anbieter von DSL-Verbindungen und der Häufigkeit von Hasskriminalität geben?

Und warum kann konstruktiv verwendet werden: Warum sollte es einen Zusammenhang zwischen der Anzahl der Anbieter von DSL-Verbindungen und der Häufigkeit von Hasskriminalität geben?

Hmm, mal überlegen.

Und wenn dieses Überlegen zu einem Ergebnis kommt, z.B: weil die Anbieter von DSL-Verbindungen ihren Kunden ohne deren Wissen Hasskriminalität fördernde Sequenzen auf den Monitor bringen, die deren Hasskriminalität steigern, dann hat man nicht nur ein Antwort, sondern eine Hypothese, die man PRÜFEN muss.

Denn Wissenschaft besteht nicht darin, Regressionsgleichungen mit wild zusammengeklaubten Daten zu füllen, sondern darin, Zusammenhänge zu erklären und diese Erklärung zu prüfen. Damit aus dem “paper” von Chan, Ghose und Seamans Wissenschaft wird, müssen sie also nicht nur Hypothesen darüber aufstellen, warum die Anzahl der DSL-Anbieter einen Einfluss auf die Häufigkeit von Hasskriminalität haben soll, nein, sie müssen diese Hypothesen auch prüfen.

Nur so wird Wissenschaft daraus.

Und nur dieses Vorgehen unterscheidet Wissenschaft von Hirngespinsten und, nun ja, Chan, Ghose und Seamans sind bislang bei Hirngespinnsten stehen geblieben – bei Hirngespinnsten in Form einer Regressionsgleichung.

Die Verlässlichkeit wissenschaftlicher Ergebnisse

Wissenschaft ist eine Methode des Erkenntnisgewinns. Die Methode hat zur Konsequenz, dass wissenschaftliche Ergebnisse nachvollziehbar, prüfbar und falsifizierbar sind. Um Ergebnisse, die ein Wissenschaftler publiziert hat, nachprüfen zu können, ist es notwendig, dass der Weg, auf dem die Ergebnisse gewonnen wurden, nachvollziehbar ist, dass z.B. Experimente, die durchgeführt wurden, replizierbar sind.

Logik der ForschungDiese Prinzipien der Wissenschaftlichkeit, die man als Rubikon beschreiben kann, der Wissenschaft von Nicht-Wissenschaft unterscheidet und der dazu führt, dass alle vermeintlich wissenschaftlichen Ergebnisse, die nicht nachvollziehbar, prüfbar, falsifizierbar und replizierbar sind, keine Wissenschaft, sondern Gaukelei, Mutmaßung oder was auch immer, eben keine Wissenschaft sind, haben sich u.a. in methodischen Standards der Validität und Reliabität niedergeschlagen.

Tests auf Validität und Reliabilität gehören zur Standardausrüstung quantitativer und eigentlich auch qualitativer Sozialforschung, wenngleich sich die qualitative Sozialforschung zunehmend großer Beliebigkeit erfreut und die Standards von Validität und Reliabilität, um die sich Mayring in seinen Publikationen noch bemüht hat, regelmäßig in Vergessenheit geraten.

Wenn Wissenschaft ein kumulatives auf Erkenntnisfortschritt gerichtetes Unterfangen sein soll, dann ist die Verlässlichkeit veröffentlichter Ergebnisse, deren Reliabilität und Validität, die in einer Reproduzierbarkeit kumulieren, unerlässlich. Um so schlimmer ist es, dass ganze Bereiche der Sozialwissenschaften zu einer ungeordneten Schwatzbude verkommen sind, in der qualitative Interviews ein Feigenblatt für die fehlende methodische Ausbildung darstellen.

In der Psychologie ist dies anders. Es gibt, vor allem im englischsprachigen Bereich, eine experimentelle Tradition, d.h. Forschungsergebnisse basieren häufig auf experimentellen Designs, die in kontrollierten Bedingungen umgesetzt werden und somit eigentlich die besten Voraussetzungen dafür bieten sollten, dass die Ergebnisse gültig und wiederholbar sind.

Und genau das sind sie nicht, wie im Rahmen eines Open Science Projektes deutlich wurde, an dem eine Vielzahl von Psychologen beteiligt war. Insgesamt 100 experimentelle Studien, die in vier psychologischen Zeitschriften veröffentlicht wurden, haben jeweils Teams von Psychologen zu replizieren versucht.

Das Ergebnis ist ernüchternd.

Selbst unter kontrollierten experimentellen Bedingungen erzielte Forschungsergebnisse konnten nur in 36% der Fälle repliziert werden, wenn die Signifikanz der Ergebnisse die Grundlage der Beurteilung des Replikationserfolgs war. Nach der subjektiven Einschätzung der jeweiligen mit der Replikation befassten Psychologen konnten 39% der Ergebnisse repliziert werden. Nimmt man die Effektstärke der Ergebnisse als Maß, dann konnte eine Übereinstimmung in rund 92% der Replikationsversuche hergestellt werden.

Die Ergebnisse sind ernüchternd und zeigen, dass Primärforscher selbst dann, wenn sie ein experimentelles Design einsetzen, die notwendige Sorgfalt oft vermissen lassen. Insgesamt schnitten Beiträge, die im Journal of Experimental and Social Psychology veröffentlicht wurden, am schlechtesten ab, was zudem den Schluss nahelegt, dass manche Herausgeber von Zeitschriften in der Auswahl der Beiträge, die sie veröffentlichen, kritischer und rigider sein sollten.

Bewertet man diese Ergebnisse vor dem Hintergrund, dass experimentelle Studien diejenigen Studien sind, bei denen man die höchste Wahrscheinlichkeit einer Reproduzierbarkeit erwarten kann, dann kann man sich ungefähr vorstellen, was herauskäme, wenn quantitative Sozialforscher oder gar qualitative Sozialforscher dem Beispiel der Psychologen folgen und die Reproduzierbarkeit von Ergebnissen prüfen würden, die z.B. im Bereich der Politikwissenschaft oder der Soziologie veröffentlicht wurden.

Dabei wäre eine entsprechende Prüfung gerade in diesen Fächer so dringend notwendig, da sich die qualitative Willkür und die quantitative Datenhuberei gerade in der Politikwissenschaft und der Soziologie breit gemacht haben, von den Beiträgen, die einzig aus sprachlicher Nabelschau bestehen, ganz zu schweigen.

Entsprechend würde man sich wünschen, es gäbe in beiden Fächern Wissenschaftler, die einen ähnlichen Ethos haben, wie diejenigen, die die Verlässlichkeit von Ergebnissen in der Psychologie geprüft haben und diesen Ethos wie folgt beschreiben:

“We conducted this project because we care deeply about the health of our discipline and believe in its promise for accumulating knowledge about human behavior that can advance the quality of the human condition. Reproducibility is central to that aim. Accumulating evidence is the scientific community’s method of self-correction and is the best available option for achieving that ultimate goal: truth.”

Alle Ergebnisse, die im Rahmen der Reproduzierbarkeitsstudie erzielt wurden, sind öffentlich und hier einsehbar.
Ein zusammenfassender Bericht ist hier zu finden.

error: Content is protected !!
Profile photo of Michael Klein
Holler Box
Skip to toolbar