Evidenzbasierte Politik made in the EU: Mehr Bürokratie für weniger Evidenz!?

von Dr. habil. Heike Diefenbach

Evidenzbasierte Politik oder „evidence based policy“, wie es im internationalen Sprachgebrauch heißt, klingt gut in den Ohren all derer, die meinen, dass die Zeit überreif dafür ist, die Politiken nach Vernunftkriterien zu formulieren statt aufgrund parteipolitischer Erwägungen strategischer Art und aufgrund des Bezugs auf traditionelle Motive, die ihren Ursprung in Gesellschaften haben, die vor einhundert oder gar einhundertfünfzig Jahren in Europa existierten. Denn evidenzbasierte Politik“ bedeutet dem Namen nach, dass Politiken aufgrund von belastbaren Daten und Fakten darüber, „was funktioniert“ („what works“; Baron 2018: 40) formuliert und umgesetzt werden. Man könnte sagen, dass die Rationalisierung der Formulierung von Politiken durch Berufung auf Daten und Fakten zur Entpolitisierung der Politiken führt oder führen soll, und in Zeiten stark weltanschaulich segmentierter Bevölkerungsgruppen scheint es, dass dies der einzige Weg ist, Politiken zu formulieren, die für jeden einigermaßen akzeptabel sind – oder für k/aum/einen!?

Die Idee von der evidenzbasierten Politik zur „Linderung gesellschaftlicher Leiden“ („… ways that alleviate societal ills“; Hoornbeek 2011: 861) wurde zuerst in den 1940er- und 1950er-Jahren in den USA systematisch zu entwickeln versucht und hat sich zuerst im Gesundheitswesen als evidenzbasierte Medizin niedergeschlagen. „Was funktioniert“ wurde durch randomisierte Kontrollstudien festgestellt, d.h. durch Experimente, bei denen die Wirkung einer Intervention dadurch festgestellt wird, das eine Gruppe, die der Intervention unterzogen wurde, mit einer anderen Gruppe, die der Intervention nicht unterzogen wurde – der Kontrollgruppe – (oder mehreren Kontrollgruppen), auf das Merkmal von Interesse hin verglichen wird, und bei denen Menschen der einen oder der anderen Gruppe nach dem Zufallsprinzip zugeordnet wurden.

Randomisierte Kontrollstudien waren zwar schon vorher und außerhalb des medizinischen Bereiches entwickelt und durchgeführt worden, aber das Feldexperiment von Jonas E. Salk (1956) zur Entwicklung eines Impfstoffes gegen Poliomyelitis – in Deutschland als „Kinderlähmung“ bekannt, weil vor allem, aber durchaus nicht nur, Kinder daran erkrankt sind – ist bis heute die umfassendste und vermutlich die bekannteste randomisierte Kontrollstudie: 623.972 Schulkinder wurden mit dem Impfstoff oder einem Placebo geimpft, und mehr als eine Million weiterer Kinder wurden in der Studie als Kontrollgruppen berücksichtigt (Meldum 1998: 1233). Heute ist die Verwendung von randomisierten Kontrollstudien in Interventionsstudien in der Medizin Standard – und nach wie vor der Goldstandard.

Außerhalb der Medizin bzw. des Gesundheitswesens hat sich evidenzbasierte Politik langsamer entwickelt. Bemerkenswerte Beispiele für den frühen Einsatz randomisierter Kontrollstudien im Bereich der Sozialpolitik aus den USA sind u.a. die Cambridge-Somerville Youth Study aus den 1930er-Jahren, die nicht nur eine randomisierte Kontrollstudie, sondern auch eine Langzeitstudie gewesen ist und durch die die Wirksamkeit eines Programms zur Prävention von Jugendkriminalität festgestellt werden sollte (McCord & McCord 1959), und das Manhattan Bail Bond-Projekt aus 1961, durch das geprüft werden sollte, welche Wirkungen es hat, wenn Beklagte mit vergleichsweise starker Einbettung in ihre lokalen Gemeinden vor ihrer Gerichtsverhandlung auf freien Fuß gesetzt werden, ohne dafür Kaution bezahlen zu müssen (Ares, Rankin & Sturz 1963).

Das Berichtete mag genügen, um deutlich zu machen, dass das definierende Merkmal evidenzbasierter Politik von Anfang an die Verwendung von randomisierten Kontrollstudien gewesen ist, und zwar deshalb, weil randomisierte Kontrollstudien das einzige Forschungsdesign sind, durch das kausale Zusammenhänge zwischen Intervention und Ergebnis (mit statistisch angebbarem Grad an Sicherheit) identifiziert werden können. Das Vernunftkriterium in evidenzbasierter Politik ist also „traditionell“ keines des Abwägens von Alternativen aufgrund von Befunden, Fallstudien oder gar „Experten“-Meinungen oder überhaupt keines, das durch Inhalte gefasst werden könnte, sondern ein rein methodisches.

In Europa war es das Vereinigte Königreich, das seit den 1990er-Jahren (so wie beschrieben verstandene) evidenzbasierte Medizin zum Standard entwickelt hat, vor allem seit 1992, dem Jahr in dem das Cochrane Centre gegründet wurde, um eine systematische Übersicht über randomisierte Kontrollstudien (und ihre Ergebnisse) aus dem medizinischen Bereich, die im In- oder Ausland durchgeführt wurden, zu erstellen und fortzuschreiben. Aber erst seit der Jahrtausendwende ist evidenzbasierte Politik regelrecht zum „political slogan“ (Cairney 2018: 1), sowohl im Vereinigten Königreich als auch in anderen westlichen Ländern, geworden, bei dessen Verwendung allerdings in der Regel vergessen wird, was sie im Kern ausmacht bzw. früher ausgemacht hat, nämlich der systematische Einsatz von randomisierten Kontrollstudien. Wells hat schon 2007 (23) festgehalten:

“There is no single unifying account of EBPM [evidence-based policy making]. It is used in different ways across the policy and academic worlds”,

und es bedeutet oft wenig mehr als dass Entscheidungen für bestimmte Politiken oder deren Umsetzung auf der Basis empirischer Daten bzw. auf der Basis von Ergebnissen aus empirischen Studien erfolgen sollten.

Programmatische Äußerungen zur evidenzbasierten Politik lauten dementsprechend, wie z.B. im Manifest der Labour Party aus dem Jahr 1997, in dem sich die Partei unter der Führung von Tony Blair dafür ausgesprochen hat, „im Kern der Politikgestaltung und –umsetzung Informationen und Wissen viel wirksamer und kreativer zu nutzen“ („… using information and knowledge much more effectively and creatively at the heart of policy-making and policy delivery“; zitiert nach Wells 2007: 22). Solche Bestrebungen im Vereinigten Königreich und anderswo haben sich in diversen Strategien der Politikfolgenabschätzung und der „best practice“-Initiativen niedergeschlagen, in deren Rahmen randomisierte Kontrollstudien vorgesehen sein können – oder nicht.

Im Vereinigten Königreich hat man allerdings die im Jahr 1992 mit dem Cochrane Centre begonnene Tradition der Sammlung und Auswertung von randomisierten Kontrollstudien aus In- und Ausland nicht nur beibehalten, sondern über den engeren Bereich der Medizin hinaus ausgeweitet. Seit dem Jahr 2011 wurden so genannte What Works Centres gegründet, die die verfügbaren empirischen Studien zu verschiedenen Themen sammeln (u.a. zu Frühförderung, zu Kriminalitätsprävention und zu lokalem wirtschaftlichen Wachstum) und entsprechende Übersichten zusammenstellen, aber auch randomisierte Kontrollstudien in eigener Regie durchführen. Im Jahr 2018 hatten die zehn bis dahin existierenden What Works Centres 288 „Reviews“ über Studien bzw. Befunde zu bestimmten Themen erarbeitet oder in Auftrag gegeben, darunter 48 systematische Übersichten (What Works Team 2018: 11). Die What Works Centres haben in diesem Zusammenhang ihre eigene Methode entwickelt, nach der sie die Qualität von Studien bestimmen.

In der Europäiischen Union gibt es keine evidenzbasierte Politik in einem vergleichbaren Sinn, bzw. nimmt sie die Form der Folgenabschätzung („impact assessment“) an. Die Europäische Kommission beschreibt die Folgenabschätzung in ihren Leitlinien zur Folgenabschätzung vom 15. Januar 2009 (auf S. 4) wie folgt:

„Die Folgenabschätzung [FA] ist eine Abfolge logischer Schritte, die begleitend zur Ausarbeitung von Politikvorschlägen durchgeführt wird. Es handelt sich um einen Prozess, bei dem Informationen über die Vor- und Nachteile möglicher politischer Optionen für politische Entscheidungsträger aufbereitet werden, indem ihre potenziellen Auswirkungen bewertet werden. Die Ergebnisse dieses Prozesses werden im FA-Bericht dargelegt und zusammengefasst. Bei der Durchführung einer FA sind eine Reihe von Fragen zu beantworten:

  • Um welches Problem in welcher Größenordnung handelt es sich, wie entwickelt es sich weiter und wer sind die Hauptbetroffenen?
  • Welche Meinung haben die Interessenvertreter dazu?
  • Sollte die Union aktiv werden?
  • Wenn ja, welche Ziele sollten zur Lösung des Problems festgelegt werden?
  • Welche hauptsächlichen politischen Optionen bieten sich an?
  • Welche möglichen wirtschaftlichen, sozialen und ökologischen Auswirkungen ziehen diese Optionen nach sich?
  • Wie wirksam, effizient und kohärent tragen die jeweiligen Optionen zur Problemlösung bei?
  • Wie können Monitoring und Evaluierung durchgeführt werden?“

Wie man diesem Zitat entnehmen kann, geht es in der Folgenabschätzung der EU weniger darum, Politiken daraufhin zu überprüfen welche Folgen von ihnen aufgrund wissenschaftlich qualitätvoller Forschung zu erwarten sind, sondern vor allem um „agenda setting“ und darum, diesbezüglich möglichst Konsens herzustellen:

„Die Folgenabschätzung ist ein Schlüsselinstrument zur Gewährleistung dafür, dass die Initiativen der Kommission und die Rechtsvorschriften der EU auf der Grundlage transparenter, vollständiger und ausgewogener Informationen ausgearbeitet werden“
(EU-Kommission 2009: 5),

aber nicht unbedingt auf der Grundlage von Informationen von faktischer Richtigkeit oder gar von Informationen über Zusammenhänge zwischen Faktoren, die anhand randomisierter Kontrollstudien gewonnen wurden. Letztere werden in der „Zusammenfassung der wichtigsten analytischen Schritte“ des Prozesses der Folgenabschätzung lediglich als einer von fünf Punkten unter der Rubrik „Analyse der Auswirkungen der Politikalternativen“ indirekt wie folgt angesprochen:

„Ermittlung von direkten und indirekten wirtschaftlichen, sozialen und ökologischen Auswirkungen sowie Beschreibung, wie diese auftreten (Kausalität)“,

gefolgt u.a. von:

„Ermittlung der Betroffenen (auch außerhalb der EU) und Erläuterung der Art der Auswirkungen auf sie“

und

„Ermittlung und Bewertung des Verwaltungsaufwandes/der Vereinfachungsvorteile (oder Begründung, warum dies nicht erfolgt)“
(EU-Kommission 2009: 5)

Eine Politik, die einer solchen Folgenabschätzung unterzogen worden ist, mag alles mögliche sein, aber sie ist bestenfalls zufällig eine, die im ursprünglichen Sinn des Ausdrucks eine evidenzbasierte Politik ist. Oder anders ausgedrückt: Die „Evidenz“, die einer solchen Politik zugrundeliegt, hat mit dem, was unter „Evidenz“ im wissenschaftlichen oder faktischen Sinn verstanden wird, nur sehr begrenzt etwas zu tun, denn Einschätzungen z.B. darüber, wer die Betroffenen einer Politik sein mögen und welche Auswirkungen eine Politik auf sie haben mag, oder Informationen darüber, welche Meinungen „Interessenvertreter“ zu einem Problem oder zu einer Politik haben, sind eben das: Einschätzungen und Meinungen, die man jetzt kennt und vorher nicht kannte. Die „Evidenz“, die man dadurch erhält, ist eine „Evidenz“ für die Existenz bestimmter Einschätzungen und Meinungen.

Ich behaupte ausdrücklich nicht, dass diese per se unwichtig seien, aber sie sind „Evidenzen“ gänzlich anderer Art als Evidenzen im Sinne von faktischem Wissen über Wirkungszusammenhänge, um die es bei der evidenzbasierten Politikformulierung ursprünglich ging und im Bereich der Medizin und im Vereinigten Königreich (und anderswo) immer noch geht. Meinungen und Einschätzungen kann man vielleicht dann als „Meta-Evidenzen“ bezeichnen, wenn sie Aufschluss darüber geben, wie sich Leute, z.B. „Betroffene“ oder „Experten“ Wirkungszusammenhänge vorstellen, aber das verweist zurück auf die Frage, warum sich die entsprechenden Personen die interessierenden Wirkungszusammenhänge so und nicht anders vorstellen. Es bedarf Evidenzen über Wirkungszusammenhänge im eigentlichen Sinn, um festzustellen, welche diesbezüglichen Vorstellungen faktisch zutreffend oder unzutreffend sind. Und was haben wir gewonnen, wenn wir wissen, wer diesbezüglich Recht und wer Unrecht hatte?

Nichts, denn für die Formulierung effizienter Politiken ist das in keiner Weise relevant. Auf den Punkt gebracht: Wenn „evidenzbasierte Politik“ so weit gefasst wird, wie die EU-Kommission das tut, kann es dann überhaupt eine Politik geben, die nicht „evidenzbasiert“ ist? Immerhin schätzt ja immer irgendjemand eine bestimmte Politik als diejenige ein, die am besten dazu geeignet ist, ein von ihm (so) gesehenes Problem zu lösen, und wenn seine Einschätzung Grundlage der Entscheidung über eine Politik ist, dann kann sie im Sinn des EU-Leitfadens zur Folgenabschätzung aus 2005 als „evidenzbasiert“ gelten.

Die EU-Kommission mag selbst geahnt haben, dass diese Auffassung von evidenzbasierter Politik mehr oder weniger sinnlos ist. So hat der ehemalige EU-Präsident Juncker in einem Brief seiner Auffassung Ausdruck verliehen, dass es in der EU einen Bedarf gibt

„for “establishing strong coordination across the Commission regarding research, science and innovation matters, to make sure that Commission proposals and activities are based on sound scientific evidence and contribute best to our jobs and growth agenda” (zitiert nach European Commission 2015: 4).

In Reaktion auf die entsprechenden Defizite hat die Europäische Kommission im Jahr 2015 ein Papier veröffentlicht, in dem sie schon im Titel ihrem Anliegen Ausdruck verleiht; er lautet: “Strengthening Evidence Based Policy Making Through Scientific Advice“ (European Commission 2015).

Das Papier enthält eine Übersicht erstens über die Dienste der Wissenschaftsberatung, die der EU-Kommission zu dem Zeitpunkt, zu dem das Papier verfasst wurde, bereits zur Verfügung standen. Es waren

  • The Joint Research Center (JRC),
  • The European Political Strategy Centre (EPSC),
  • “Dedicated expert groups reporting to the various Directorates-General”,
  • Spezielle Kommitées, u.a. für Konsumentenschutz, für landwirtschaftliche Forschung, für Gesundheit und Umweltrisiken und die European Group of Ethics (European Commission 2015: 5-6).

Wie hoch das Budget all dieser Einrichtungen war, wird nicht mitgeteilt. Jedenfalls wurden sie von der EU-Kommission selbst für unzureichend befunden, und daher wurden Anregungen aus anderen Ländern gesucht. Das Papier enthält deshalb zweitens eine Übersicht über die Dienste der Wissenschaftsberatung, die verschiedene EU-Länder und einige Nicht-EU-Länder auf nationaler Ebene etabliert haben, um evidenzbasierte Politiken formulieren zu können. Was im Papier letztlich vorgeschlagen wird, ist die Einrichtung eines „Science Advise Mechanism“ (SAM) oder Wissenschaftsberatungsmechanismus, der sich zusammensetzen soll aus:

  • „a high-level group of independent scientists, convened regularly in agreement with the Commissioner for Research, Science and Innovation,
  • a permanent secretariat, provided by DG RTD, that ensures a structured and effective liaison between demand and supply of scientific advice, and
  • a strengthened relationship with existing advisory bodies at EU and national level, and with the wider scientific community”
    (European Commission 2015: 18; Hervorhebungen im Original).

Aufgabe des SAM soll es sein, „… [to] complement the existing processes of Commission policy making (stakeholder consultations, impact assessments, etc.) and the existing sources of scientific advice (inhouse, outsourced, specialist advisory bodies)” (European Commission 2015: 18).

Es wird bei der “evidenzbasierten” Politik der EU also auch weiterhin darum gehen, Lobbyisten zu hören, die oben beschriebene übliche Folgenabschätzung durchzuführen und Kommitées und „bodies“ zu unterhalten etc. etc. die (vermutlich vor allem: miteinander) beraten. Neu hinzu kommt lediglich die Einrichtung des SAM, d.h. konkret die Einrichtung eines ständigen Sekretariats und einer Gruppe von „unabhängigen“ Wissenschaftlern „auf hoher Ebene“. „Unabhängig“ bedeutet, dass die

„ … high-level group members … would not be full time and they would not be employed by the Commission. Rather, they would maintain their positions as independent scientists and be reimbursed for a set number of days per year for regular meetings in Brussels and for remote work. The members of the HLG [high-level group] will be expected to serve in their personal capacity and not as representatives of their respective countries or institutions. They are therefore expected to offer their advice on a strictly independent basis” (European Commission 2015: 20).

Wann jemand einen “high-level” repräsentiert, oder ob der Bezug auf “high-level” so gemeint ist, dass man dadurch einen „high level“ erreicht oder „wichtig“ wird, dass man in die entsprechende Gruppe bei der Europäischen Kommission berufen wird, bleibt ungeklärt. Explizit festgehalten wird aber, dass die „high-level“-Gruppe eine legitimatorische Funktion und eine ggf. notwendig werdende Sündenbock-Funktion für die Europäische Kommission erfüllen soll:

„The high-level group (HLG) will ensure the independence and scientific integrity of the advice provided to the Commission, supported by a secretariat” (European Commission 2015: 20).

Ein Blick in die Liste der7 Chief Scientific Advisors“, die „appointed in their personal capacity“ wurden – wie und von wem genau, bleibt ungeklärt –, gibt Aufschluss darüber, wer sich derzeit für eine solche – und weitgehend unbezahlte – Funktion für die EU hergibt. Es ist niemand dabei, von dem ich jemals gehört habe, auch nicht von der Dame aus der Soziologie, und ich darf, glaube ich, berechtigt den Anspruch anmelden, ziemlich belesen und in meinen Bereichen gut informiert zu sein. (Aber die Frauenquote ist jedenfalls in der Liste derer, die sich ausnutzen lassen, wenn sie dafür von der EU-Kommission als „high-level“ oder „chief“ o.ä. gehandelt werden, wenig erstaunlich stark übererfüllt!)

(Wie das SAM in seiner implementierten Form derzeit aussieht, kann hier  eingesehen warden.)

Mit der Einrichtung des SAM wurden also mehr Stellen geschaffen, die die europäischen Steuerzahler finanzieren müssen, ohne dass klar ist, wie genau die „Neuen“ auf der Gehaltsliste dazu beitragen sollen (oder auch nur können), qualitätvolle evidenzbasierte Politiken zu entwickeln. Es ist nicht so, dass im Papier nicht beschrieben würde, was die im SAM Versammelten tun soll; die Beschreibung lautet wie folgt:

„The SAM should seek out relevant scientific advice, evidence and opinions that already exist on the issues it is addressing, including the European and national academies and learned societies, the existing specialised advisory bodies and the wider scientific community. Where relevant advice has not been developed within the academies, learned societies or specialised advisory bodies, the SAM would work with these bodies and the wider scientific community in order to develop advice based on the best available scientific evidence” (European Commission 2015: 20).

Was die im SAM Versammelten tun sollen, ist also, ihrerseits “relevante wissenschaftliche Beratung, wissenschaftliche Belege und Meinungen [!], die zum jeweils in Frage stehenden Thema bereits existieren“ einzuholen, und zwar teilweise bei denjenigen Einrichtungen, die zum Zweck wissenschaftlicher Beratung bereits existieren, aber von der EU selbst für unzureichend befunden wurden. Und wenn es keine Belege und Meinungen zum interessierenden Thema gibt, dann arbeiten die im SAM Versammelten mit denen, die es auch nicht besser wissen, daran, Ratschlag zu geben auf der Basis des bestmöglichen verfügbaren Forschungsstandes – obwohl es ihn nicht gibt! Vielleicht macht das Ganze Sinn, wenn man meint, „Viel hilft viel“, und falls nicht, dann helfe vielleicht noch mehr ein kleines bisschen, aber selbst dann ist die Frage: mehr wovon?

Wir erinnern uns:
Evidenzbasierte Politiken sind nicht solche, über die möglichst viele Leute mit mehr oder weniger zuverlässigen Erfahrungen oder mehr oder weniger gut begründeten Meinungen mehr oder weniger lange beraten, sondern solche, die angeleitet sind durch Ergebnisse qualitätvoller wissenschaftlicher Forschung über Wirkungszusammenhänge, und das bedeutet: anhand von randomisierten Kontrollstudien.

Man sollte meinen, das sei einfach genug zu verstehen und dem sei einfach genug in der Realität Rechnung zu tragen wie z.B. im What Works Network im Vereinigten Königreich, das den angestrebten Zweck auf kostengünstige Weise voll erfüllt. Aber von solchen methodischen „Niederungen“ ist im zitierten EU-Papier nichts zu lesen.

Man sollte ebenfalls meinen, dass es einfach ist zu verstehen, warum eine immer größere Versammlung in der EU von irgendwie mit Wissenschaftsberatung Betrauten immer mehr Möglichkeiten schafft, statt evidenzbasierter Politik politikbasierte Evidenzen herbeizuschaffen, sei es durch die Auswahl entsprechend geneigter „chief scientific advisors“ oder durch die gezielte In-Auftrag-Gebung von „Studien“ bei ausgewählten „Experten“ mit mehr oder weniger detaillierter Inhaltsangabe darüber, was wie berücksichtigt werden soll (weshalb schwerlich etwas anderes bei dem Unterfangen herauskommen kann als das Gewünschte) oder andere Mittel, die den Beteiligten vielleicht gar nicht als Verzerrungen vorkommen, sondern den von ihnen gesehenen Problemen, Erfordernissen, relevanten Forschungsergebnissen etc. Rechnung tragen – mit Betonung auf „von ihnen gesehenen“.

Vor diesem Hintergrund halten Saltelli und Giampietro (2017: 62-63) fest:

“The European Commission is often praised or blamed on reason of being a technocratic organization, where the use of science as input to policy is kept in high consideration. Hence it is not surprising that the symptom of a surging malaise in the use of science for policy are felt acutely in this institution”,

und dieselben Autoren haben den Eindruck, dass

„[t]here seems to be a mounting awareness that too often evidence based policy turns into its opposite, policy based evidence” (Saltelli & Giampietro 2017: 63).

Diese Autoren suchen Gründe hierfür vor allem bei der Wissenschaft selbst:

„Attention and quality decay due to proliferation of publications in science are today an accepted reality …“ (Saltelli & Giampietro 2017: 64),

und sie kommt u.a. zum Ausdruck im

„… improper use of mathematical modelling“ (Saltelli & Giampietro 2017: 66), das u.a. (vergleichsweise große) Sicherheit der Vorhersage suggerieren soll, wo keine Sicherheit besteht oder bestehen kann, aber dazu geeignet ist, „… to impress or obfuscate“ (Saltelli & Giampietro 2017: 66). Man denke in diesem Zusammenhang an all die Klimamodelle, die entscheidende Größen nicht berücksichtigen können oder nicht berücksichtigen, obwohl es möglich wäre. Und in diesen (aber nicht nur in diesen) Zusammenhang gehört die Praxis, die Wirkung von politischen Interventionen zu projizieren statt zu messen (vgl. hierzu Chairney 2019: 2).

Andere Autoren sehen grundsätzliche Probleme darin, dass politische Akteure in der Regel nicht mit wissenschaftlichen Ergebnissen umgehen bzw. sie angemessen einschätzen können, z.B. im Fall einer „… disproportionate response to limited evidence“ (Chairney 2019: 2), der die Vorstellung zugrunde liegt,

„… that the ends (good policy) can justify the means (using limited or bad evidence)” (Chairney 2019: 2).

Diese Vorstellung kann auch dazu führen, dass politische Akteure ethisch fragwürdige Mittel wie das so genannte „nudging“ oder „Schubsen“ gezielt einsetzen, um ein Ziel, das sie für „gut“ befunden haben, zu erreichen.

Wieder andere Autoren beobachten, dass

„… there is a tendency to conflate the empirical and the normative – to conflate what is the case with what we feel should be the case … This confusion of the empirical and the normative tends to cloud our thinking about the rationale for strengthening the use of evidence in policy making” (Sanderson 2011: 69).

Würden nur politische Akteure diese Tendenz aufweisen, könnten sie durch qualitätvolle wissenschaftliche Beratung korrigiert werden, aber was, wenn dieselbe Tendenz bei wissenschaftlichen Beratern selbst, z.B. bei den sieben „chief science advisors“ der EU, besteht? Welche „Probleme“ werden sie als solche bestimmen, welche Ziele zur Lösung solcher Probleme werden sie vorschlagen, für welche politischen Optionen votieren?

Einmal mehr scheint es, dass allein die Festlegung auf klare und verbindliche Qualitätskriterien für wissenschaftliche Befunde bzw. Studien darauf hinwirken kann, dass Wirkungszusammenhänge als solche erkannt und respektiert werden, d.h. methodische Kriterien ins Zentrum der Aufmerksamkeit mit Bezug auf wissenschaftliche Befunde gerückt werden.

Schon der Titel der deutschen Übersetzung ist falsch übersetzt. Lesen Sie das Original!

Wenn man nicht dem Fatalismus huldigen will und Politikberatung durch Befunde aus empirischer Forschung nicht grundsätzlich aufgeben möchte, dann scheint es darüber hinaus geboten zu sein, Wissenschaft nicht zu überfordern, d.h. u.a. zu erkennen und zu akzeptieren, welche Fragen sie sinnvollerweise mit ihren Mitteln beantworten kann und welche nicht. Erstere sind vor allem konkrete Fragen nach Wirkungszusammenhängen (ggf. unter bestimmten, angebbaren Bedingungen).

Allerdings muss in der Wissenschaft selbst der Wille bestehen, sich von politischen Vorgaben freizuhalten oder besser: wieder zu befreien bzw. sich von politisch motivierter Förderungspolitik unabhängig zu machen, denn

„… targeted public funding skews knowledge portfolio by scientists [besonders] in a nascent field” (Kishi 2020: 114),

und es wäre ein Mißbrauch von Politikberatung durch Wissenschaft, wenn man eingeschränktes oder verzerrtes “wissenschaftliches” Wissen, das politischem Einfluss geschuldet ist, in die Politik zurückfüttern würde.

Darüber hinaus – und vor allem – wäre es notwendig, dass auch die institutionalisierte Wissenschaft zurückfindet zu klaren Kriterien dafür, was Wissenschaft ausmacht und was unter qualitätvollem wissenschaftlichen Arbeiten zu verstehen ist. Nicht jeder, der sich viel und gerne oder besonders engagiert mit etwas beschäftigt oder von einer politischen Organisation aus Legitimationsgründen als solcher bezeichnet wird, ist deshalb auch ein „Experte“ in der Sache, und schon gar kein qualifizierter wissenschaftlicher Berater.


Literatur:

Ares, Charles E., Rankin, Anne & Sturz, Herbert, 1963: The Manhattan Bail Project: An Interim Report on the Use of Pre-Trial Parole. New York University Law Revue 38(1): 67-95.

Baron, 2018: A Brief History of Evidence-Based Policy. The Annals of the American Academy of Political and Social Science 678(1): 40-50.

Cairney, Paul, 2019: The UK Government’s Imaginative Use of Evidence to Make Policy. British Politics 14(1): 1-22.

Europäische Kommission, 2009: Leitlinien zur Folgenabschätzung. (SEK(2009) 92).

European Commission, 2015: Strengthening Evidence Based Policy Making through Scientific Advise. Reviewing Existing Practice and Setting up a European Science Advice Mechanism.

Hoornbeek, John A., 2011: Evidence-based Policy, S. 860-862 in: Badie, Bertrand, Berg-Schlosser, Dirk & Morlino, Leonardo (Hrsg.): International Encyclopedia of Political Sciences, Volume 1. Los Angeles: Sage.

Kishi, Naoko, 2020: How Does Policy Focus Influence Scientific Research? Science and Public Policy 47(1): 114-124.

McCord, Joan & McCord, William, 1959: A Follow-up Report on the Cambridge-Somerville Youth Study. The Annals of the American Academy of Political and Social Science 322(1): 89-96.

Meldrum, Marcia, 1998: “A Calculated Risk”: The Salk Polio Vaccine Field Trials of 1954. British Medical Journal (BMJ) 317(7167): 1233-1236.

Salk, Jonas E., 1956: Poliomyelitis Vaccine in the Fall of 1955. American Journal of Public Health 46(1): 1-14.

Saltelli, Andrea & Giampietro, Mario, 2017: What is Wrong with Evidence Based Poicy, and How Can it be Improved? Futures 91: 62-71.

Sanderson, Ian, 2011:Evidence-based Policy or Policy-based Evidence? Reflections on Scottish Experience. Evidence & Policy 7(1): 59-76.

Sturz, Herbert, 1962: An Alternative to the Bail System. Federal Probation 26(4): 49-52.

Wells, Peter, 2007: New Labour and Evidence Based Policy Making: 1997-2007. People, Place and Policy 1(1): 22-29.

What Works Team (led by Jen Gold), 2018: The What Works Network: Five Years On



Bei uns finden Sie die Informationen und Hintergründe, die Ihnen Mainstream-Medien vorenthalten.
Eine starke Leistung in einem privaten Blog, das ohne die Spenden unserer Leser nicht leisten könnte, was es leistet.

Unterstützen Sie unseren Fortbestand als freies Medium.
Vielen Dank!




Folgen Sie uns auf TELEGRAM


Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.

ScienceFiles-Abo
Loading



ScienceFiles-Shop


Print Friendly, PDF & Email
4 Comments

Bitte keine Beleidigungen, keine wilden Behauptungen und keine strafbaren Inhalte ... Wir glauben noch an die Vernunft!

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Translate »

ScienceFiles-Betrieb

Was uns am Herzen liegt ...

 

Ein Tag ScienceFiles-Betrieb kostet zwischen 250 Euro und 350 Euro.


 

Wenn jeder, der ScienceFiles liest, uns ab und zu mit einer Spende von 5, 10, 20, 50 Euro oder vielleicht auch mehr unterstützt, vielleicht auch regelmäßig, dann ist der Fortbestand von ScienceFiles damit auf Dauer gesichert.


Wir bedanken uns bei allen, die uns unterstützen!


ScienceFiles-Spendenkonto

Vielen Dank!

Holler Box