Die unerträgliche Leichtigkeit von Pressemeldungen und Evaluationen: Von irgendwo ansetzenden Projekten und irgendwie effizienten Ansätzen

von Dr. habil. Heike Diefenbach

Wer Sciencefiles in den vergangenen Wochen regelmäßig gelesen hat, der hat vielleicht auch meine kleine Reihe von Texten über das Fremdsprachen-Lernen gelesen. Und wie es der Zufall will, flatterte just nach Abschluss der kleinen Reihe eine Pressemeldung der Goethe-Universität Frankfurt vom 25. Februar 2021 auf den Schreibtisch, deren Titel lautet:

„Fünf Jahre ‚Sprachentdecker‘: Wie Kinder in Kita [zu Deutsch: Kindertagesstätten] und Grundschule nebenbei Deutsch lernen“

Wow!

Eine Sprache „nebenbei“ lernen! Gänzlich, ohne mit Wortarten, Deklinationen, Konjugationen und all den anderen Aspekten des Aufbaus einer Sprache konfrontiert zu werden, ohne Üben und Wiederholen von Vokabular, ohne systematische „Spracharbeit“, einfach „nebenbei“; zu schön, um wahr zu sein!?

Glaubt man dem, was in der Pressemeldung getextet wurde, dann „… [wirkt] [d]ie Methode […] nachhaltig [und ist] [i]n Pandemiezeiten auch digital vermittelbar“.

Nicht nur, dass man eine Sprache „nebenbei“, ohne eigenes, bewusstes Engagement, erlernen kann, das nebenbei Gelernte wird auch „nachhaltig“ gelernt, was wohl bedeuten soll, dass das nebenbei Gelernte für einen unbestimmten Zeitraum, von dem jedoch durch das Wort „nachhaltig“ suggeriert wird, es sei ein ziemlich langer Zeitraum, erinnert wird.

Spätestens an dieser Stelle in der Pressemeldung – und wir sind noch im Dreizeiler, der auf den Titel folgt! – sollte sich die Vermutung beim Leser einstellen, dass hier etwas nicht stimmen kann: Wie, bitte, ist es gleichzeitig möglich, dass eine Sprache „nebenbei“ erlernt wird, und „digital vermittel[t]“ wird?

Das ist nicht die einzige Ungereimtheit im Text. Schon in der Überschrift steht, dass das Projekt „Sprachentdecker“ bereits seit fünf Jahren laufe. Dennoch wird im Text suggeriert, dass das Projekt dazu da sei, mangelnden Kontakt von „… mehrsprachige[n] Kinder[n], deren Familiensprache nicht Deutsch ist“ „mit der Landessprache“, d.h. dem Deutschen, während der Zeit der Schließung von Kindertagesstätten und Schulen wegen des neuen Corona-Virus irgendwie wettzumachen bzw. dabei zu helfen, „das Versäumte auf[zu]hol]en“. Es heißt explizit:

„Hier setzt das Modellprojekt ‚Sprachentdecker, eine Initiative von BHF BANK Stiftung, Goethe-Universität und dem Amt für interkulturelle Angelegenheiten der Stadt Frankfurt, an“.

Das ist wahre Prophetie! Als das Projekt vor fünf Jahren initiiert wurde, müssen BHF BANK Stiftung, Goethe-Universität und das Amt für interkulturelle Angelegenheiten der Stadt Frankfurt schon gewusst haben, dass das neue Corona-Virus kommen würde, denn wie sonst sollte es möglich sein, dass das Projekt an der durch die Lockdowns wegen des Virus geschaffenen Situation „ansetzen“ würde?!



Dessen ungeachtet steht unten in der Pressemeldung, dass das Projekt im Jahr 2016 begonnen wurde, ohne, dass ersichtlich würde, warum genau. Hierzu heißt es lapidar:

„‘Unzureichende Deutschkenntnisse am Ende einer Schullaufbahn verringern die Chancen auf ein gutes Leben. Diese Problematik wollten wir in den Blick nehmen und möglichst früh ansetzen und innerhalb der bestehenden Strukturen effiziente Möglichkeiten der Förderung etablieren‘, sagt Sigrid Scherer, Leiterin der BHF BANK Stiftung. ‚Man muss sich genau anschauen: Wie interagieren Kinder und Förderkräfte? Wie sollten Fehler korrigiert werden, damit Kinder daraus lernen können? Was kann ein Kind aufnehmen, was nicht? Das Projekt hat uns gezeigt, wie groß der Bedarf ist und wie notwendig passgenaue Qualifizierungen und die Coachings sind.‘“.

Aha. Das Projekt wurde also nicht geschaffen, um Kindern in deutschen Kindertagesstätten und Grundschulen, deren Muttersprache nicht Deutsch ist, dabei zu helfen, in Lockdown-Zeiten den Kontakt mit dem Deutschen nicht gänzlich zu verlieren bzw. „Versäumtes“ in Sachen Deutsch nachzuholen. Anscheinend wurde es geschaffen, um die Fragen zu beantworten, die Frau Scherer formuliert hat.

Dann müsste sich auch die – nach fünf Jahren stattfindende! – Evaluation des Projektes inhaltlich auf diese Fragen beziehen. Es müsste also u.a. geklärt haben, auf welche Weise Fehler korrigiert werden sollten, damit die Kinder „daraus lernen können“, und „was […] ein Kind aufnehmen [kann], was nicht“.

Nur – der Pressemeldung kann man diesbezüglich nichts entnehmen. Dort wird die am Institut für Pädagogik der Elementar- und Primarstufe der Goethe-Universität Frankfurt als Professorin angestellte Dietmut Kucharz, die die wissenschaftliche Leitung des Projektes inne hat(te) wie folgt zitiert:

„Die Evaluation hat gezeigt, dass ‚Sprachentdecker’ und die Techniken der alltagsintegrierten Förderung es den pädagogischen Fachkräften ermöglichen, ihr Wissen über die Sprache zu verbessern und es optimal einzusetzen, wenn sie mit den Kindern interagieren … Viele Förderkräfte haben noch kein Instrumentarium, um zu erkennen, was die Kinder schon gut beherrschen und wo Einzelne noch Defizite haben. Hier setzt ‚Sprachentdecker’ an: Wir schärfen den Blick der Teilnehmerinnen und Teilnehmer und komplettieren ihr Repertoire – und das ohne zusätzliche Fördermaßnahmen für die Kinder, sondern integriert in deren Alltag. Die Evaluierung hat gezeigt: Dies ist ein sehr effizienter Ansatz.“

Ach so, hier setzt das Projekt an, und nicht an der durch die Lockdowns geschaffenen Situation; „Sprachentdecker“ war also dazu gedacht, „pädagogische Fachkräfte“ (weiter) zu qualifizieren in Form einer „Schärfung“ ihres Blicks! Und die Evaluierung des Projektes nach fünf Jahren habe gezeigt, dass „[d]ies [ein] sehr effizienter Ansatz [ist].

Das wirft die interessante Frage danach auf, wie man die „Schärfung“ des „Blicks“ erreicht, wie man eine fortschreitende Schärfung des Blicks misst, und wie man die Effekte einer fortschreitenden Schärfung eines Blicks misst. Aber über all dies erfährt man in der Pressemeldung nichts. Man erfährt lediglich, dass die durch das Projekt (weiter) qualifizierten Pädagoginnen im Verlauf von fünf Jahren – hoffentlich unter anderem – das Folgende zu tun gelernt haben:

„Sie fordern die Kinder zum Beispiel [im Mathematik-Unterricht] dazu auf, nicht nur das Ergebnis einer Aufgabe zu nennen, sondern auch zu erklären, wie sie darauf gekommen sind. Dabei geben sie den Kindern Satzmuster vor, die beim Antworten helfen: „Als erstes habe ich…“ „Weil…, muss man …“. Auch in der Kita regen die Erzieherinnen die sprachliche Entwicklung der Kinder an, indem sie deren Sätze aufgreifen und erweitern. Erzählt ein Kind: „Gestern hab ich Pferd geseht!“ antwortet die Fachkraft z.B.: „Stimmt, gestern haben wir beim Spaziergang ein großes braunes Pferd gesehen, das auf einer Weide stand“. So lernen die Kinder beiläufig richtige und variantenreiche Formulierungsmöglichkeiten im Deutschen.“

Ja, so lernen die Kinder „beiläufig“, wie viele richtige und variantenreiche Formulierungsmöglichkeiten denen zur Verfügung stehen, die Deutsch können bzw. deren Muttersprache Deutsch ist.

Darüber hinaus ist die Pressemeldung bloß eine Ansammlung von Floskeln und Lobreden, gerichtet an die diversen Geldgeber, die der sozialen Netzwerkbildung unter Institutionen dienen mag, aber von keinerlei bis wenig Interesse für alle Anderen ist.

Hat man bis hierher überhaupt noch Interesse an der Sache, muss man sich den Evaluierungsbericht selbst ansehen. Aber wo findet man ihn? Die Pressemeldung enthält zwei links. Der zweite ermöglicht es einem, Frau Kucharz eine email zu schicken, was aber vielleicht gar nicht notwendig ist, denn der erste link wird eingeführt mit:

„Bilder sowie Statements und Informationen zum Hintergrund finden Sie unter: http://www.uni-frankfurt.de/98184209.

Das Wort „Bilder“ ist zwar fettgedruckt, und wie gerne würden wir alle Bildchen sehen, vielleicht davon, wie die Projektmitarbeiter Weihnachten feiern oder wie die zu qualifizierenden Pädagoginnen aufmerksam der Schulung durch Projektangestellte lauschen, aber leider – es handelt sich hier nur um einen schlichten Fettdruck, keinen klickbaren link. Also klickt man auf den am Ende des Satzes angegebenen link.

Na also! Oder doch nicht?! Klickt man diesen link an, dann lädt sich erneut der Pressemeldungstext, in dem der link steht. Also doch Frau Kucharz schreiben?

Erfreulicherweise muss man Frau Kucharz nicht direkt um die Zusendung des Evaluationsberichtes bitten, denn eine einfache Suche nach „sprachentdecker evaluation“ in Duckduckgo führt den Suchenden im zweiten Eintrag (Goethe-Universität – Sprachentdecker“) auf eine andere Seite der Goethe-Universität Frankfurt, also derselben Universität, von der die Pressemeldung stammt (!), und auf dieser Seite wiederum findet man ganz unten auf der Seite das klickbare Wort „Abschlussbericht“.

Und tatsächlich! Klickt man hierauf, dann lädt sich ein „Abschlussbericht der Evaluation – März 2020“.

Er ist ohne eigene Suche les- und herunterladbar unter der Adresse: https://www.uni-frankfurt.de/98227145/Sprachentdecker_Abschlussbericht_der_Evaluation_Graf_2020.pdf

Hm. „März 2020“!?! Ist es möglich, dass knapp ein Jahr nach der Anfertigung eines Abschlussberichtes eine Pressemeldung über diesen Bericht herausgegeben wird? Anscheinend ist das so. Jedenfalls nennt sich dieser Bericht „Abschlussbericht“ und nicht „Zwischenbericht“, und ich kann auch keinen anderen, neueren Evaluationsbericht finden, auf den sich die Pressemeldung beziehen könnte.

Also muss man wohl davon ausgehen, dass der „Abschlussbericht der Evaluation – März 2020“ derjenige ist, auf den sich die Pressemeldung, die ein Jahr später erschienen ist, bezieht. Oder handelt es sich um einen Tippfehler, und es müsste „,März 2021“ heißen? Aber dann würde sich die Pressemeldung aus dem Februar auf einen Bericht beziehen, dessen Inhalte einem zukünftigen Stand, eben dem Stand des folgenden Monates März, entsprechen, und wie kann das möglich sein?!

Also gehen wir davon aus, dass der „Abschlussbericht der Evaluation – März 2020“ derjenige ist, auf den sich die Pressemeldung bezieht, und unterziehen ihn der Lektüre. Es ist ja nicht so, dass die Lektüre viel Zeit in Anspruch nehmen würde; er ist acht Seiten lang, und diese acht Seiten beinhalten eine viertel Seite Kopf, in dem alle beteiligten Institutionen bzw. Organisationen samt ihrer Memes genannt sind, und den Titel des Berichtes.

Löblicherweise ist der Bericht, was die zu beantwortenden Fragen betrifft, einigermaßen konkret. Auf Seite 1 heißt es:

„Wie verändern sich das Wissen und Können zur Sprachförderung der Fach- und Lehrkräfte durch die Teilnahme an den Fortbildungen und Coachings? [und] Verbessert sich der Sprachstand der von ihnen betreuten Kinder im Deutschen?“

Das ist beruhigend; jemand im Projekt hat sich wider Erwarten dafür interessiert, ob die „betreuten Kinder“ ihren Sprachstand im Deutschen durch die „Betreuung“ des im Projekt fortgebildeten pädagogischen Personals verbessern, vielleicht Christina Graf, die als alleinige Verfasserin des Anschlussberichtes genannt ist. Immerhin ist es dieses Datum, das den Maßstab für den Erfolg der pädagogischen Intervention darstellt; warum sonst sollte man pädagogisches Personal irgendeiner Schulung unterziehen, wenn nicht, um größeren Lernerfolg bei den „Betreuten“ zu erzielen?!

Was ist nun die Datenbasis der Evaluation des Projektes „Sprachentdecker“?

Bezüglich der ersten Frage, die das (weiter) zu qualifizierende pädagogische Personal betrifft, lesen wir:

„In den drei Kohorten 2016, 2017 und 2018, die an der Evaluation teilgenommen haben, konnten insgesamt Daten von 37 Fach- und Lehrkräften zu je zwei Messzeitpunkten gesammelt werden. Dies entspricht einer Rücklaufquote von 54%. Insgesamt haben 22 pädagogische Fachkräfte und 14 Grundschullehrkräfte sowie eine Teilnehmende, die sich der Gruppe Sonstige zugeordnet hat, am SprachKoPF teilgenommen“ (Seite 1 im Bericht).

„SprachKoPF“ bezeichnet einen Test, der „[…] sowohl linguistisches Grundlagenwissen, Wissen zur Sprachentwicklung sowie im Könnensbereich diagnostische und sprachfördernde Fähigkeiten [misst]“ (Seite 1 im Bericht).

Mehr erfährt der Leser über diesen Test nicht. Dem Acht-Seiten-Bericht sind leider keine Materialien angefügt, die u.a. Beispielitems aus diesem Test hätten enthalten können. Jedenfalls wurde dieser „zu zwei Messzeitpunkten durchgeführt“ (Seite 1 im Bericht), deren Terminierung im Bericht nicht angegeben ist.

Die Verfasserin berichtet:

„Zum 2. Messzeitpunkt erreichten die Teilnehmenden im Wissensbereich einen durchschnittlichen Mittelwert von .53 (Standardabweichung .18), im Bereich Können von .35 (Standardabweichung .17) und im Gesamtwert von .45 (Standardabweichung .15). Der Zuwachs vom ersten zum zweiten Messzeitpunkt ist im Wissen, Können und Gesamtwert jeweils signifikant. Eine Auskunft über die Stärke der Intervention gibt die Effektstärke, die im Wissen bei .41, im Können bei .46 und im Gesamtwert bei .66 liegt, so dass man von mittleren Effekten sprechen kann“ (auf Seite 2 des Berichtes).

Soweit die gute Nachricht. Es folgt die schlechte:

„Die Ergebnisse der Prä- und Post-Vergleiche zeigen somit in die gewünschte Richtung. Ob es sich ausschließlich um einen Effekt der Intervention handelt, kann aufgrund einer fehlenden Vergleichsgruppe nicht sicher gefolgert werden. Dennoch lassen sich bei der individuellen Betrachtung der einzelnen Personen Zuwächse feststellen, die unter anderem auf die gestiegene Auseinandersetzung mit dem Thema zurückzuführen sind. Somit zeigt sich auf dieser Ebene ein Erfolg des Projekts“ (auf Seite 3 des Berichtes).

Davon abgesehen, dass es korrekt hätte es heißen müssen, „Ob es sich [überhaupt] um einen Effekt der Intervention handelt, …, enthält dieser Absatz den für den halbwegs informierten Leser bestürzenden Verweis darauf, dass im Projekt Effekte einer Intervention untersucht werden sollten, ohne dass im Projekt eine Vergleichsgruppe berücksichtigt worden wäre, deren Berücksichtigung notwendig gewesen wäre, um, wie Graf vollkommen richtig feststellt, vermuten zu können, dass ggf. erzielte Effekte tatsächlich auf die Intervention zurückzuführen sind und nicht sonstwie oder einfach zufällig zustandegekommen sind. Keine Vergleichsgruppe in ein Evalutionsprojekt miteinzubeziehen, ist eine Unterlassungssünde, die man als einen kruden Anfängerfehler in durchaus schmeichelhafter Weise bezeichnet.

Und wie hat sich der Sprachstand der „Kinder[…], die von den am Projekt beteiligten Fach- und Lehrkräften betreut werden, entwickelt? Hat er sich verbessert? Zur Beantwortung dieser Frage

„wurde der Test SET 5-10 sowie bei jüngeren und bei mehrsprachigen Kindern [?!?] der Test LiSe-DaZ jeweils zu zwei Messzeitpunkten eingesetzt“ (Seite 3 im Bericht).

Und:

„Insgesamt liegen Daten von 167 Kindern zu beiden Messzeitpunkten vor. Davon sind 151 Kinder mehrsprachig und nur 16 Kinder mit Deutsch als Muttersprache (DaM). Die Einteilung der Kinder bezüglich der Mehrsprachigkeit und der Kontaktdauer mit dem Deutschen (meist das Eintrittsdatum in die Einrichtung) beruhen auf den Angaben der Fach- und Lehrkräfte [!]. Das Testalter liegt zwischen 3 und 7 Jahren zum 1. Messzeitpunkt. Um eine Vergleichbarkeit der Ergebnisse unabhängig des Testalters zu erzielen, wurde mit dem PR-Wert (Prozentrang) gerechnet. Der PR-Wert gibt an, wie viel Prozent der Kinder der Vergleichsgruppe (Normstichprobe) genauso gut oder schlechter abgeschnitten haben wie die untersuchten Kinder“ (Seite 4 im Bericht).

Im Ergebnis zeigte sich insgesamt, dass zum zweiten Meßzeitpunkt weniger Kinder Förderbedarf attestiert werden musste als zum ersten Meßzeitpunkt, wobei allerdings die Variation zwischen den Kindern zum ersten Meßzeitpunkt sehr hoch gewesen ist und zum zweiten Meßzeitpunkt weiterhin sehr hoch war (Seite 4 im Bericht), und der Anteil der „Sprachentdecker“-Kinder im Alter von 5 bis 10 Jahren mit Förderbedarf zum ersten und zum zweiten Meßzeitpunkt nur sehr geringfügig zurückgegangen ist:

„Es zeigt sich, dass sich die Kinder im Untersuchungszeitraum prozentual verbesserten. Dennoch liegen einige Ergebnisse unter dem Durchschnitt und ein Blick auf den Förderbedarf zeigt, dass dieser zum 1.Messzeitpunkt bei insgesamt 40% und zum 2.Messzeitpunkte bei 37% liegt“ (Seite 6 im Bericht). Darüber hinaus hatte

„[d]ie Gruppe der Vorschulkinder … in 6 von 10 Untertests zum 2.Messzeitpunkt einen höheren Förderbedarf als zum 1.Messzeitpunkt“ (Seite 8 im Bericht).

Sollten Veränderungen des Sprachstands der betrachteten Kinder zwischen den beiden Messzeitpunkten überhaupt etwas mit der Schulung des pädagogischen Personals zu tun haben, dann müsste man konstatieren, dass diese Intervention sich nur geringfügig positiv auf den Sprachstand der Kinder auswirkt, und auf den Sprachstand der Vorschulkinder sogar negativ.

Eine Intervention, die solche Ergebnisse erzielt, sollte, wenn nicht schleunigst verworfen werden, so doch die Dringlichkeit der Suche nach besseren Methoden der Sprachvermittlung anzeigen. Aber wie das so ist mit Evaluationsberichten – Projekte sind immer Erfolge, haben sich immer gelohnt, weisen immer irgendwie, wenigstens ein bisschen, in die richtige Richtung:

„Die Resultate geben ein Indiz dafür, dass beide Berufsgruppen von ihrer Teilnahme an Sprachentdecker profitiert haben und die Ziele des Projekts auf der Ebene der Fach- und Lehrkräfte durch die gemeinsamen Fortbildungen erreicht werden konnten. Ob die positiven Ergebnisse ausschließlich auf die Intervention zurückzuführen sind, kann nicht abschließend geklärt werden. Dennoch ist die Auseinandersetzung mit der Thematik ein wichtiger Bestandteil in der erfolgreichen Förderung der Kinder, denn schließlich geht es vor allem um sie“ (Seite 8 im Bericht).

Ja. Und weil es schließlich darum geht, dass Kinder, deren Muttersprache nicht Deutsch ist, möglichst gut Deutsch lernen, deshalb können die Ergebnisse, die diese „Evaluation“ diesbezüglich erbracht hat (s.o.) kaum anders als enttäuschend genannt werden – im Fall der Vorschulkinder sogar kontraproduktiv!

Aber das kann kein Schlusswort in der schönen virtuellen Projektwelt sein, und deshalb heißt es auch im Abschlussbericht, um den es hier geht:

„Alles in allem folgt das Erlernen einer Sprache keiner linearen Entwicklung und braucht viel Zeit. Die Evaluation hat die einzelnen Teilnehmenden nur jeweils über ein Jahr verteilt begleitet, was in Anbetracht der zu bewältigenden Aufgaben ein sehr kurzes Zeitfenster darstellt und eigentlich FollowUp-Untersuchungen zu einem späteren Zeitraum erforderlich wären. Insgesamt können die Evaluationsergebnisse der ersten Projektphase als Erfolg für Sprachentdecker angesehen werden“ (Seite 8 im Bericht).

Wenn man also während der fünfjährigen Projektzeit nicht eine Evaluation mit zwei Messzeitpunkten, die lediglich einen Abstand von einem Jahr zueinander hatten – soviel zur in der Pressemitteilung behaupteten „nachhaltigen“ Wirkung der „Methode“! –, durchgeführt hätte, und wenn man „eigentlich“ notwendige „FollowUp-Untersuchungen“ durchgeführt hätte, dann wäre bestimmt Positives bzw. Positiveres bei dieser Evaluation herausgekommen.

Und wenn nicht, naja, dann muss man daran erinnert werden, dass „das Erlernen einer Sprache keiner linearen Entwicklung folgt und viel Zeit braucht“ und es nicht ausgeschlossen ist, dass die Kinder, die jetzt fragwürdigen Interventionen unterzogen werden, als Greise vielleicht tatsächlich fließend Deutsch sprechen.

Und deshalb sagt der jetzt oder irgendwann in Zukunft an Weiterfinanzierung Interessierte der Einfachheit halber:

„Insgesamt können die Evaluationsergebnisse der ersten Projektphase als Erfolg für Sprachentdecker angesehen werden“, oder gar – wie Frau Kucharz in der Pressemitteilung zitiert wird und wie sie es vielleicht sogar tatsächlich gesagt hat: „Die Evaluierung hat gezeigt: Dies ist ein sehr effizienter Ansatz“.

Dass „es“, also das Lernen-durch-Entdecken, tatsächlich kein „sehr effizienter“ Ansatz ist, zeigt nicht nur die – ohnehin methodisch kaum ernstzunehmende – Evaluation des Projektes.

Vor allem hätte es eine systematische Literaturstudie gezeigt, die früher einmal üblichlicherweise in der Vorbereitungsphase wissenschaftlicher Projekte durchgeführt wurde, denn die Forschung, die zeigt, dass der „Lernen-durch-Entdecken“-Ansatz in der Pädagogik normalerweise überhaupt nichts bringt, ist erdrückend. Dem interessierten Leser sei diesbezüglich die Meta-Studie von Alfieri et al. aus dem Jahr 2011 empfohlen, in der die Ergebnisse von 164 Studien zur Wirksamkeit – oder im Ergebnis treffender: Nicht-Wirksamkeit – des Lernens durch Entdecken zusammengestellt werden und die zu dem Ergebnis kommt:

„The findings suggest that unassisted discovery does not benefit learners, whereas feedback, worked examples, scaffolding, and elicited explanations do” (Alfieri et al. 2011),

und zwar vor allem deshalb, weil “Lernen-durch-Entdecken” im Widerspruch zu dem steht, was man die kognitive Architektur des menschlichen Gehirns nennen könnte, u.a. die Bedingungen menschlicher Erinnerungsfähigkeit nicht in Rechnung stellt (s. hierzu z.B. Kirscher, Sweller & Clark 2006; Van Merriënboer & Sweller 2005).

Das hätte man bereits vor fünf Jahren, vor dem Beginn des Projektes, wissen können. Aber wo Stiftungen und Ämter – Letztere unter Einsatz von Steuergeldern – „virtue signalling“ betreiben wollen und Universitätsangestellte nicht auf der Höhe der Zeit sind, was die Forschung betrifft, die sie kennen müssten, da hat Wissen keinen Platz und wird durch Fühlen und Meinen ersetzt.

Leider sind weder dieses Projekt noch seine Evaluierung noch die entsprechende Pressemitteilung unrühmliche Ausnahmen. Es repräsentiert das, was in Deutschland derzeit – vermutlich in Ermangelung kompetenten Personals – als „Wissenschaft“ und als „Wissenschaft“-Marketing durchgeht.


Literatur:

Alfieri, Louis, Brooks, Patricia J., & Aldrich, Naomi J., 2011: Does Discovery-Based Instruction Enhance Learning? Journal of Educational Psychology 103(1): 1-18.

Kirschner, Paul A., Sweller, John, & Clark, Richard E., 2006: Why Minimal Guidance During Instruction Does Not Work: An Analysis of the Failture of Constructivist, Discovery, Problem-based, Experiential and Inquiry-based Teaching. Educational Psychologist 41(2): 75-86.

Van Merriënboer, Jeroen J. G., & Sweller, John, 2005: Cognitive Load Theory and Complex Learning: Recent Developments and Future Directions. Educational Psychology Review 17(2): 147-177.



Wissenschaftliche Texte aufbereitet zum argumentativen Gebrauch finden Sie bei ScienceFiles.
Unterstützen Sie bitte unseren Fortbestand als Freies Medium.Vielen Dank!




Folgen Sie uns auf TELEGRAM


Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.

ScienceFiles-Abo


Print Friendly, PDF & Email
7 Comments

Bitte keine Beleidigungen, keine wilden Behauptungen und keine strafbaren Inhalte ... Wir glauben noch an die Vernunft!

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Translate »

ScienceFiles-Betrieb

Was uns am Herzen liegt ...

 

Ein Tag ScienceFiles-Betrieb kostet zwischen 250 Euro und 350 Euro.


 

Wenn jeder, der ScienceFiles liest, uns ab und zu mit einer Spende von 5, 10, 20, 50 Euro oder vielleicht auch mehr unterstützt, vielleicht auch regelmäßig, dann ist der Fortbestand von ScienceFiles damit auf Dauer gesichert.


Wir bedanken uns bei allen, die uns unterstützen!


ScienceFiles-Spendenkonto

Vielen Dank!

Holler Box