1 Einleitung

Dieser Artikel anlässlich des 50-jährgen Bestehens der Unterrichtswissenschaft fokussiert das Thema Lernen. Dabei geht es insbesondere um individuelle Lernprozesse und deren Förderung. Nicht betrachtet werden Lernprozesse, die beispielsweise auf einer organisationalen Ebene (Unternehmen, Schule) angesiedelt sind. Auch könnte man Lernprozesse auf Gruppenebene (Klasse, Kleingruppe) analysieren; diese werden hier nur insofern mitgedacht, als sie individuelle Lernprozesse beeinflussen können. Die hier eingenommene Perspektive ist primär eine pädagogisch-psychologische bzw. „psychologie-inspirierte“ Perspektive.

Es wird kein Anspruch auf eine systematische Überblicksarbeit erhoben. Dieser Beitrag versteht sich vielmehr als ein Positionspapier, das ausgewählte Gesichtspunkte in dem Mittelpunkt stellt (z. B. kognitive Aspekte des Lernens). Zudem verzeihe mir die Leserin oder der Leser einige pointierte Formulierungen, von denen ich mir stärkere Impulse zum Nachdenken und Diskutieren erhoffe als von „langweilig ausgeglichenen“ Stellungnahmen.

In der Unterrichtswissenschaft gab es bereits 1990 („Beginn des letzten Jahrzehnts dieses Jahrhunderts“, Strittmatter 1990, S. 3) und 2000 („historisches Datum“, Strittmatter 2000, S. 2) zwei Themenhefte, in denen der Stand der Forschung in dem Bereich, den die Unterrichtswissenschaft abdeckt, reflektiert wurde und in denen Vorschläge gemacht wurden, wie es sinnvollerweise weitergehen könnte. Damals wurden in deutlicher Weise theoretische Defizite konstatiert. Beispielsweise bezeichnete Beck (1990) die Lernforschung, wenn man einen anspruchsvollen Theoriebegriff zugrunde legt, als theoriearm; dieses Urteil bekräftige Beck (2000) 10 Jahr später mit anderen Worten, als er eine deutliche Schwäche in der theoretischen Verankerung konstatierte. Zudem wurde die Fokussierung der Forschung auf Mini-Theorien kritisiert (Hameyer 1990; Weinert 2000). Die Hoffnung, dass sich diese Defizite in substantieller Weise verringern, kam in einigen Beiträgen insofern zum Ausdruck, als mehr Theoriearbeit als Ziel künftiger Forschungsbemühungen vorgeschlagen wurde (z. B. Beck 1990; Gruber 2000; Weinert 2000). Ein zentrales Postulat dieses Artikels ist, dass diese Hoffnung sich kaum erfüllte. Wir sind immer noch ein gutes Stück von empirisch bewährten Theorien entfernt, die ein differenziertes und generelleres (d. h. nicht nur auf bestimmte Fälle beschränktes) Verständnis von Lernprozessen bzw. von wichtigen Aspekten davon erlauben (z. B. Zusammenspiel von Selbst- und Fremdsteuerung, Bezüge zwischen Prozessen auf sozialer Ebene, z. B. bei einem Unterrichtsgespräch, und individuellen Lernprozessen).

2 Theoriedefizit: Inwiefern?

Vorweg, ich will nicht in Abrede stelle, dass es bewährte und nützliche Theorien gibt. In diesem Beitrag gelten Theorien dann als bewährt, wenn damit zum einen vorliegende Befunde erklärt werden können bzw. sie bei der Theoriebildung berücksichtigt wurden und zum anderen Hypothesen formuliert werden können, die in quantitativ-empirischen Studien überprüft werden können. Damit sind diese Theorien auch wissenschaftlich nützlich (zur praktischen Nützlichkeit von Theorien, die in diesem Beitrag nicht im Fokus steht, siehe Renkl 2022). In diesem Beitrag geht es damit in allererster Linie um Theorien und Theorieentwicklung, die in substantiellem Maße auf quantitativ-empirischen Studien und entsprechenden Befunden basieren; natürlich gehen in derartige Theorien vielfach auch Ideen aus anderen Quellen als quantitativ-empirischer Forschung ein (z. B. aus qualitativ-empirischer Forschung oder aus philosophischen Theorien). Nachteile und mögliche Vorteile von Theorien, die keinen starken Bezug auf quantitativ-empirische Arbeiten nehmen, stehen im Folgenden nicht im Fokus. Bei Theorien, die auf quantitativ-empirischen Befunden beruhen, werden insbesondere die folgenden Einschränkungen gesehen.

Mini-Theorien oder aber Rahmentheorien

Es gibt Mini-Theorien, die ausgewählte Aspekte gut erklären können, etwa zur Wirkung von Kooperationsskripten (Fischer et al. 2013), zur Wirkung von Problemlöseaktivitäten vor direkter Instruktion (Loibl et al. 2017) oder zu Conceptual Change beim Vorliegen theorieartiger Wissensstrukturen (Vosniadou und Skopeliti 2014). Da sich diese Theorien aber auf spezifische Aspekte des Lernens und/oder dessen Förderung konzentrieren, haben sie zwar einen Nutzen, aber eben nur einen eingeschränkten. Mini-Theorien bieten sozusagen wissenschaftliches „Knowledge in pieces“, erlauben aber kein kohärentes Verständnis von Lernprozessen in größeren Bereichen. Um die in diesem Absatz genannten Beispiele aufzugreifen, sie sind keine generelleren theoretischen Konzeptualisierungen von Lernprozessen in kooperativen Lernarrangements, bei verschiedenen Sequenzen von Phasen des Problemlösens und der direkten Instruktion oder bei Vorliegen von Lernendenkonzepten, die (zumindest partiell) nicht mit wissenschaftlichen Konzepten kompatibel sind.

Mini-Theorien im Sinne lokaler, „humble“ (Cobb et al. 2003) oder kontextualisierter Theorien fokussiert auch der Ansatz der „Design-based (Implementation) Research“ (DBR, DBIR). Teils wird angestrebt, diese Theorien auf weiter werdende Kontexte zu übertragen (z. B. Bakker und Smit 2017; Reinmann 2005; Fishman und Penuel 2018). Es ist jedoch nicht unfair zu konstatieren, dass es diesem Forschungsansatz (noch) nicht geglückt ist, einen theoretischen Durchbruch zu erreichen bzw. Theorien, die Eckpfeiler für die Forschung zu Lernprozessen darstellen, zu etablieren.

Auf der anderen Seite gibt es Rahmentheorien, die für die empirische Forschung orientierende Leitplanken zur Verfügung stellen (z. B. Integrated Framework of Multiple Text Use, List und Alexander 2019; Angebot-Nutzungs-Modell zur Wirkweise von Unterricht, z. B. Helmke 2002, 2010; Praetorius und Kleickmann 2022; Cognitive Load Theory, z. B. Sweller et al. 2019). Etwas vereinfacht gesagt, geben Rahmentheorien an, welche Faktoren relevant sind, und es wird grob spezifiziert, in welchem Zusammenhang und wie diese relevant sind. Diese Theorien werden vielfach mit Kästchen-Pfeil-Diagrammen visualisiert und entsprechend Boxologien genannt, was nicht immer als Kompliment gemeint ist (z. B. Eder 2017). Sie sind keine ausformulierten Theorien, auf deren Basis man, ohne weitere (in der Forschung oft ad-hoc formulierte) Zusatzannahmen, präzise Erklärungen oder Hypothesen formulieren könnte. Insofern können Rahmentheorien ein nützlicher Ausgangspunkt dafür sein, ein fundiertes Verständnis von Lernen zu erarbeiten; sie stellen es aber nicht bereit.

Zwischen erklärungsmächtigen und bewährten Mini-Theorien und einen orientierenden Überblick gebenden Rahmentheorien klafft eine Lücke. Metaphorisch gesprochen, haben wir hochauflösende Innenstadtpläne oder aber Europa- bzw. Welt-Übersichtskarten, wie sie an mancher (Büro‑)Wand hängen; eine genaue Repräsentation umfassender Gebiete fehlt uns aber. Es fehlen Theorien, die präzise sind, aber nicht nur sehr spezifische Aspekte erklären. Um ein Missverständnis zu vermeiden, mit präzisen Theorien sind nicht notwendigerweise formalisierte (z. B. mathematisierte) Theorien gemeint, wie sie Oberauer und Lewandowsky (2019) vorschlagen (siehe Eronen und Bringmann 2021; für eine Diskussion, warum eine Formalisierung (alleine) wenig Probleme löst). Wichtig wäre aber, dass Theorien eine eindeutige Ableitung von Hypothesen erlauben.

Theorie-Dubletten

Ein weiteres Problem besteht darin, dass es oft zwei oder vielfach sogar mehrere Theorien gibt, die versuchen, fast die gleichen oder zumindest stark verwandte Phänomenbereiche zu konzeptualisieren (Eronen und Bringmann 2021; Greene 2022). Im Bereich der Mini-Theorien könnte man etwa Theorien der intrinsischen Motivation (z. B. Ryan und Deci 2009) und Interessenstheorien (z. B. Krapp 2010) nennen. In diesem Fall ist die inhaltliche Überschneidung auffällig. Teils gibt es aber auch starke Überschneidungen zwischen prima vista recht unterschiedlich anmutenden Modellen oder theoretischen Konzepten, etwa zwischen dem metakognitiven Konzept des „Judgment of Learning“ (Prädiktion, wieviel man später erinnern oder wie viele Aufgaben man später lösen kann) und dem Konzept der Selbstwirksamkeit. Die starke Überschneidung wird vor allem bei den Operationalisierungen offensichtlich, wie die folgenden Beispiel-Items illustrieren: „You just studied (…), how many of the five multiple choice questions related to the content of the abstract you think you will answer correctly?“ (van Laer und Elen 2019); „Could you answer similar questions in a potential exam“ (Selbstwirksamkeit; Endres et al. 2020).

Das Dublettenproblem gibt es aber auch bei Rahmentheorien, wenn man etwa an die Cognitive Load Theory (z. B. Sweller et al. 2019) und die Cognitive Theory of Multimedia Learning (z. B. Mayer 2021) denkt, welche sehr ähnliche Annahmen treffen und teils (fast) identische Effekte postulieren. Ein Problem ist dabei, dass weder (a) weitgehend redundante Mini- und Rahmen-Theorien auf der Basis empirischer Befunde als sub-optimale Alternativen aussortiert werden, noch (b) eine Theorie weitgehende Akzeptanz als „etabliertes Wissen“ erfährt. Wie Eronen und Bringmann (2021) es pointiert ausdrücken „… they [the theories, ergänzt durch AR] simply hang around until they are abandoned or forgotten“ (S. 779).

Deskriptiv/erklärend oder präskriptiv/normativ?

Im Bereich des Lernens und Lehrens gibt es Theorien, die deskriptiv/erklärend oder aber präskriptiv/normativ sind; manche Theorien beinhalten Elemente beider Art. Deskriptiv/erklärend ist z. B. das Angebot-Nutzungs-Modell von Helmke (z. B. 2010) zur Wirkweise von Unterricht, das Faktoren spezifiziert, die schulische Lernergebnisse beeinflussen. Das vor allem in der Hochschuldidaktik stark rezipierte Constructive Aligment-Modell von Biggs (1996) ist präskriptiv/normativ; es sollen nach diesem Modell die Lehr-Lern-Methode, die Lernziele und die Art des Assessments konstruktiv („constructive“) aufeinander abgestimmt werden. Ein Problem ist, dass es eher die Ausnahme als die Regel ist, dass die Autor*innen von Theorien explizieren, wie ihre Theorie gemeint ist: deskriptiv/erklärend oder präskriptiv/normativ. Dies zieht das Problem nach sich, dass auch die Rezipient*innen von Theorien sich den Status einer Theorie ggf. nicht bewusstmachen, obgleich dies ein ganz essentieller Gesichtspunkt ist; Theorien der einen oder anderen Art dienen schlichtweg unterschiedlichen Hauptzwecken (beschreiben/erklären oder aber Vorgaben nahelegen/machen).

Noch problematischer sind Theorien, die eine Mischung aus deskriptiven/erklärenden und präskriptiven/normativen Elementen enthalten, ohne dass dies expliziert wird. Als Beispiel – es hätte zahlreiche Alternative gegeben – sei der Integrated Framework of Multiple Text Use (List und Alexander 2019) gewählt. Einerseits werden deskriptiv/erklärend Lernendenmerkmale genannt, die die Nutzung multipler Texte beeinflussen (z. B. Vorwissen, Interesse, Epistemische Überzeugungen), andererseits gibt es im Modell Elemente, die wünschenswert wären, aber nicht unbedingt das Vorgehen bei der Nutzung multipler Texte beschreiben (z. B. Inter-Text-Bezüge herstellen oder Perspektiven übernehmen; siehe Fig. 1 in List und Alexander 2019). Eine Theorie, in der eine Mischung aus deskriptiven/erklärenden und präskriptiven/normativen Elementen vorkommt, ohne dass der jeweilige Status der Elemente expliziert wird, trägt nicht zur Klarheit in der Theoriebildung bei.

Die mangelnde Differenzierung deskriptiver/erklärender und präskriptiver/normativer Betrachtungsweisen spiegelt sich auch in problematischen Schlussfolgerungen wieder (siehe zu diesem Problem auch Wecker 2013). Beispielsweise haben einige Autor*innen aus der deskriptiven Aussage des Konstruktivismus, dass verständnisorientiertes Lernen eine aktive Konstruktion der Lernenden sei, die präskriptive Schlussfolgerung gezogen, dass Lernen aktiv sein sollte und nicht passiv wie in traditionellen Unterrichtsformen (Schelten 2006). Wie kann Lernen jedoch passiv sein, wenn es aus konstruktivistischer Sicht per definitionem eine aktive Konstruktion beinhaltet (siehe Renkl 2008, 2009; zu einer ausführlichen Diskussion dieser problematischen Schlussfolgerung)? Analoge „unreflektiert-anmutende“ Sprünge von der deskriptiven auf die präskriptive Betrachtungsweise konnte man in den Diskussionen zur situierten Kognition bzw. zum situierten Lernen beobachten (vgl. Renkl 2008, 2009; zu einer Diskussion konstruktivistischer und situierter Perspektiven siehe auch Abschn. 4 „Die (nicht allzu ferne) Vergangenheit: Verpasste Chancen“).

Zusammenfassend ist es ein substantielles Defizit von Theorien im Bereich des Lernens, dass selten expliziert wird, ob eine Theorie einen deskriptiven/erklärenden oder aber einen präskriptiven/normativen Status hat. Insbesondere Theorien, in denen beide Aspekte vermischt werden, sind als problematisch anzusehen.

Theorien auf verschiedenen Betrachtungsebenen

Theorien können auf unterschiedlichen Ebenen formuliert werden; hier wird eine Ebeneneinteilung von Horvath and Donoghue (2016) aufgegriffen (siehe aber auch Gerjets und Westermann (1997), oder Gerstenmaier (2002) zur Relevanz von Dennett’s (2009) Einteilung unterschiedlicher „Stances“ (Ebenen) für die pädagogische bzw. psychologische Theoriebildung). Horvath und Donoghue (2016) unterscheiden u. a. die Ebenen der neuronalen Aktivierungen (cognitive/behaviorial neuroscience), des Verhaltens und der Kognition (cognitive/behavioral psychology) und der Lernförderung, z. B. durch Lehrkräfte (education/educational practice); diese haben in der genannten Reihung eine jeweils komplexere Organisationsform, d. h. die Ebene der Lernförderung beinhaltet Elemente des Verhaltens und der Kognition, die wiederum neuronale Prozesse beinhalten. Phänomene auf einer höheren Ebene (z. B. Kognition) können jedoch nur begrenzt durch Elemente auf einer niedrigeren Ebene (z. B. Neurone oder neuronale Strukturen) erklärt werden. Auf einer höheren Ebene entstehen emergente Merkmale (z. B. kognitive Prozesse), die nicht (und nur schwerlich) durch Merkmale der Elemente einer niedrigeren Ebene (z. B. Aktivierung von Neuronenverbänden) erklärt werden können. D. h. die emergenten Merkmale höherer Ebenen machen es schwer, aus Befunden zu einer niedrigeren Ebene ohne zusätzliche Annahmen Schlussfolgerungen über die nächsthöhere Ebenen zu treffen. Entsprechend sind beispielsweise viele pädagogische Empfehlungen aufgrund neurowissenschaftlicher Befunde insofern problematisch, als oftmals (präskriptive) Schlussfolgerungen über zwei Ebenen hinweg getroffen werden, ohne dass die Einschränkungen von solchen ebenenüberschreitenden Schlussfolgerungen in Betracht gezogen werden.

Zusammenfassend ist bei der Formulierung von Theorien und deren Nutzung defizitär, dass selten expliziert wird, auf welcher Ebene bzw. auf welchen Ebenen argumentiert wird. Dies führt teils zu nicht gerechtfertigten Schlüssen über verschiedene Ebenen hinweg.

Forschungssynthesen: Mehr Meta-Analyse als Theorie

Die Befunde einzelner empirischer Studien kann man gewissermaßen als die Bausteine ansehen, die „synthetisiert“ werden müssen, um zu einem tieferen Verständnis von Lernen zu gelangen. Die typischste Form der Forschungssynthese sind Reviews, wobei die Meta-Analyse dabei als die hochwertigste Form gilt (vgl. auch die in der Lehr-Lernforschung vielfach zitierte Evidenzhierarchie aus der Medizin, an deren Spitze Meta-Analysen stehen; siehe z. B. Bromme et al. 2014; siehe auch Shadish und Lecy 2015). Für Praxiszwecke arbeitet z. B. auch das Clearing House Unterricht der Technischen Universität München (Seidel et al. 2017) mit Forschungssynthesen in Form von Meta-Analysen.

Typische Ziele von Meta-Analysen beziehen sich darauf zu untersuchen, ob ein bestimmter Effekt (z. B. Spacing-Effekt, Kim und Webb 2022), die Wirkung einer Intervention oder Unterstützungsmaßnahme (z. B. integriertes Format bei multiplen Darstellungsformen; Schroeder und Cenkci 2018) oder ein Zusammenhang (z. B. zwischen Geschlecht und Schulleistung; Voyer und Voyer 2014) reliabel gefunden werden können. In aller Regel ist die Antwort aber weder ja noch nein. Zu allermeist wird gefunden, dass ein Effekt, eine Wirkung oder ein Zusammenhang von Kontextmoderatoren, teils auch untersuchungsmethodischen Moderatoren, abhängen. Untersuchungsmethodische Moderatoren können zum Teil auch inhaltlich interpretiert werden, etwa wenn ein Effekt (z. B. von Testing) von der Art der Kontrollbedingung abhängt (z. B. Testing vs. keine Intervention oder aber elaborative Lernaktivität; Yang et al. 2021); man kann dann sagen, gegenüber „was genau“ etwas im Mittel besser sei. Insofern sieht Pant (2014) sogar den Hauptzweck von Meta-Analysen darin, wichtige Kontextbedingungen aufzudecken. Von einigen Ausnahmen abgesehen (z. B. Seidel und Shavelson 2007), die eine Meta-Analyse als Grundlage zur Formulierung eines Theorieentwurfs nutzen, werden die gefundenen Moderationseffekte in der Regel lokal erklärt; es fehlt meist ein umfassender theoretischer Rahmen, der das Set von gefundenen Moderatoren in konsistenter Weise erklärt (Greene 2022). Bei viel erforschten Phänomenen (z. B. Testing-Effekt) verkompliziert sich die Situation, man könnte fast sagen paradoxerweise, insofern weiter, als es dann mehrere Meta-Analysen gibt, die nie völlig konsistente Befunde berichten (siehe dazu Renkl 2022).

Insgesamt gesehen führen Meta-Analysen, zumindest so wie sie derzeit meist durchgeführt werden, weder zu einer eindeutigen Etablierung noch zu einem umfassenden theoretischen Verständnis eines Effekts, einer Wirkung oder eines Zusammenhangs (siehe dazu auch Renkl 2022), sondern eher – um mit Enrico Fermi zu sprechen – zu einer „confusion on a higher level“. Diese Verwirrung auf höherem Niveau kann eine gute Grundlage sein, um weitere Forschung in eine produktive Richtung zu lenken. Meta-Analysen führen aber nur in eingeschränktem Maße zu einem besseren theoretischen Verständnis von Lernen; dafür braucht es Theoriearbeit.

3 Theoriedefizit: Warum?

Warum ein Theoriedefizit zu Lernprozessen und deren Förderung, obwohl schon lange konstatiert, noch immer besteht, darüber gibt es keine gute empirische Evidenz. Dennoch werden hier einige, möglicherweise wichtige Gründe erörtert, die in der Literatur diskutiert werden (z. B. Eronen und Bringmann 2021; Greene 2022; Mischel 2008; Wentzel 2021).

Ausbildungsinhalte

Als ein prototypisches Beispiel seien hier Psychologiestudiengänge betrachtet. Diese beinhalten als etablierte forschungsbezogene Studieninhalte viele Elemente, die primär auf technisch-methodische Aspekte der Forschung abheben, z. B. Statistik, Testtheorie, Versuchsplanung und Experimentalpraktika. Veranstaltungen zur Theorieentwicklung gehören hingegen nicht zu den Standardinhalten dieser Studiengänge (z. B. Wentzel 2021).

Mangel an robusten Phänomen

Es gibt nicht ausreichend robuste und konsensuell konzipierte Phänomen (z. B. Effekte oder Prozesse), auf deren Basis robuste Theorien entwickelt werden könnten. Ein auch für die Lernforschung relevantes Beispiel nennen Eronen und Bringmann (2021): Das Phänomen „Ego Depletion“ hat zunächst sehr viel Aufmerksamkeit erfahren, bevor es als Phänomen insgesamt oder zumindest bzgl. seiner Erklärung in Zweifel gezogen wurde. Insgesamt gesehen scheint sich die ursprüngliche Konzeptualisierung von Ego Depletion nicht bewährt zu haben, und inwieweit bestimmte Kernideen davon „gerettet“ werden können, ist noch offen. Das Phänomen der Ego Depletion bleibt trotz zahlreicher Arbeiten dazu unscharf (z. B. Friese et al. 2019). Wenn es aber nur wenig robuste Phänomene gibt, ist es auch schwer möglich, robuste und präzise Theorien zu entwickeln (Eronen und Bringmann 2021; Greene 2022).

Mangelnde Weiterentwicklung von Konstrukten

Es werden nicht genügend Anstrengungen unternommen, wissenschaftliche Konstrukte zu optimieren und zu validieren. Stattdessen werden zum Teil verschiedene Begriffe für dieselben oder stark überlappende Konstrukte eingeführt (Hagger 2014; siehe auch oben: Theorie-Dubletten). Um das Beispiel des sehr prominenten Konstrukts der Selbstregulation beim Lernen aufzugreifen: Es wurden unterschiedliche (Rahmen‑)Theorien formuliert, die jeweils unterschiedliche Aspekte dieses Konstrukts in den Vordergrund stellen (z. B. Boekaerts 1999; Zimmerman 2000; Winne und Hadwin 1998). Teils werden auch unterschiedliche Begriffe verwendet (z. B. selbstreguliertes Lernen, selbstgesteuertes Lernen, Selbstkontrolle), wobei unklar bleibt, welche genauen Gemeinsamkeiten und Unterschiede bestehen (siehe Rietmann und Deing 2019). Wiederum ergibt sich aus der mangelnden „Qualität“ der Konstrukte, dass auf dieser Basis kaum robuste und präzise Theorien entwickelt werden können (Eronen und Bringmann 2021).

Mangelnde Evidenz für kausale Effekte

Auch wenn es in der (Pädagogischen) Psychologie verbreitet ist, experimentelle Untersuchungen, die als Königsweg zur Etablierung kausaler Effekte gelten, einzusetzen, bleibt es vielfach schwierig, kausale Effekte zu identifizieren. Eronen und Bringmann (2021) sprechen davon, dass die Interventionen auf die unabhängigen Variablen vielfach zu „fat-handed“ sind, d. h. dass nicht präzise nur eine Variable durch die Intervention beeinflusst wird. Solche „fat-handed“ Variablenmanipulationen gibt es in der Lehr-Lernforschung sehr häufig, etwa wenn bestimmte Lehr-Lernmethoden (z. B. problemorientiertes Lernen oder Lernen mit bestimmten digitalen Tools) mit anderen Methoden verglichen werden (vgl. auch die „horse-race approach“-Kritik für derartige Studien von Salomon 2002). Zum Teil ist die unpräzise Variablenmanipulation auch darauf zurückzuführen, dass bestimmte Variablen nur indirekt manipuliert werden können (z. B. motivationale Zielorientierungen durch ein verbales Framing der Lernaktivität, z. B. Moning und Roelle 2021). Dieses Problem mag auch dazu beitragen, dass Meta-Analysen so gut wie nie stabile (nicht-moderierte) Effekte finden (Pant 2014; Renkl 2022). Wiederum ist es schwierig, gute Theorien auf der Basis nicht-stabiler Effekte zu formulieren.

Das Zahnbürsten-Problem

Das Zahnbürstenproblem nach Mischel (2008) bezieht sich darauf, dass viele (psychologische) Forscher*innen das Aufgreifen der Theorien Anderer meiden, wie den Gebrauch von fremden Zahnbürsten. Aus Karrieregründen versuchen viele ihr eigenes Modell oder ihre einige Theorie (Zahnbürste) zu formulieren, damit ihr Name für etwas Spezifisches steht. Dies steht aber einer kumulativen Wissenschaft entgegen. Ein Problem besteht auch, wenn Fachzeitschriften, Forschungsförderorganisationen oder Berufungskommission teils „eigene Zahnbürsten“ (vgl. das Kriterium der „Originalität“) höher bewerten als „kumulative“ Beiträge.

4 Die (nicht allzu ferne) Vergangenheit: Verpasste Chancen

In den vergangenen Jahrzehnten, also seit den zu Beginn genannten Themenheften in der Unterrichtswissenschaft von 1990 und 2000, gab es mehrere prominente Ansätze, die prinzipiell geeignet gewesen wären, Impulse zur theoretischen Weiterentwicklung des in der Lehr-Lern-Forschung dominierenden „kognitiven Paradigmas“ zu setzen. Im Folgenden werden die neurologische Perspektive, die situierte Perspektive und die konstruktivistische Perspektive diskutiert. Dies geschieht in Hinblick darauf, inwiefern diese Perspektiven wertvolle Impulse zur theoretischen Weiterentwicklung der kognitiven Perspektive gaben oder hätten geben können, inwiefern die prinzipiellen Ideen teils trivialisiert wurden, in Sinne einer vereinfachenden Entdifferenzierung und Absolutsetzung (siehe Hofmann 1999), und was Wertvolles bleib – meist nicht allzu viel, um es vorweg zu nehmen. Im Rahmen dieses Beitrags können die drei Perspektiven nur in Kürze dargestellt und diskutiert werden.

4.1 Neurowissenschaftliche Perspektive

In den USA hat Präsident George H. W. Bush 1990 die Dekade des Gehirns (bis 1999) ausgerufen, die mit besonderer Förderung entsprechender Forschung verbunden war. In Deutschland wurde in einer ähnlichen Initiative der Zeitraum 2000–2010 als Dekade des menschlichen Gehirns deklariert (Bundesminister Wolfgang Clement als Schirmherr). Auch im Bereich des Lernens wurden in dieser Zeit optimistische Erwartungen dazu formuliert, inwiefern die Neurowissenschaften substantielle Erkenntnisse zur Analyse oder Förderung der kognitiven Entwicklung und des (schulischen) Lernens beitragen können. Beispielsweise wurden unter Schlagwörtern wie (kinder-)gehirngerechtes Lernen (z. B. Herrmann 2009; Jackel 2008) „neuropsychologisch begründete“ Empfehlungen für den Bereich des Lernens und Lehrens formuliert, die als signifikanter Fortschritt angesehen wurden (für eine differenzierte Analyse zu den Potenzialen und den Einschränkungen neurowissenschaftlicher Befunde für den Bereich des Lernens, siehe z. B. Schumacher und Stern 2012).

Es gibt jedoch etliche Schwierigkeiten bei Empfehlungen aufgrund neurowissenschaftlicher Befunde. Vier solcher Schwierigkeiten seien exemplarisch genannt. Erstens werden, wie bereits angesprochen, bei neurowissenschaftlich-inspirierten Empfehlungen vielfach nicht-triviale Sprünge über unterschiedliche Ebenen der Betrachtung gemacht. Viele Empfehlungen sind damit nicht gerechtfertigt, wie bereits im Abschnitt Theorien auf verschiedenen Betrachtungsebenen erläutert wurde. Eine Lösung sehen Horvarth and Donoghue (2016) darin, dass neurowissenschaftliche Befunde schrittweise zuerst auf die psychologische Ebene des Verhaltens und der Kognition übertragen werden – unter Berücksichtigung notwendiger Zusatzannahmen bei derartigen Ebenenwechseln – und von der psychologischen Ebene dann pädagogische Schlussfolgerungen – wiederum unter Berücksichtigung der Problematik von Ebenenwechseln – getroffen werden (zu Details siehe Horvath und Donoghue 2016). Dies ist aber aktuell noch ein Desiderat.

Zweitens werden in verkürzter Weise Schlussfolgerungen von einer deskriptiven/erklärenden auf eine präskriptive/normative Ebene vorgenommen. Dies geschieht beispielsweise, wenn aus der Spezialisierung von Gehirnhemisphären bestimmte Maßnahmen zur Aktivierung beider Gehirnhälften (z. B. Verwendung von Bild und Text) empfohlen werden (siehe z. B. Eitel et al. 2019) oder aus dem Vorhandensein von Spiegelneuronen geschlossen wird, dass Unterricht vor allem beziehungsorientiert sein sollte (z. B. Bauer 2017). Derartige ungerechtfertigte Schlüsse tragen auch zum im Folgenden diskutierten Problem bei.

Drittens gab und gibt es populäre, aber sehr zweifelhafte Interpretationen neurowissenschaftlicher Befunde. Beispielsweise wird angenommen, dass wir meist nur 10 % unseres Gehirns nutzen oder dass Schüler*innen besser lernen, wenn sie Informationen in einer Form, die ihrem Lernstil (z. B. visuell oder auditiv) entspricht, erhalten. Derartige Annahmen werden selbst von neurowissenschaftlich orientierten Forscher*innen als „neuromyths“ bezeichnet wurden (z. B. Howard-Jones 2014; OECD 2002). Ziel sollte es sein, die Verbreitung derartigen Mythen einzuschränken und über deren Problematik aufzuklären.

Viertens sind neurowissenschaftliche Empfehlungen (z. B. Vermeidung negativer Emotionen wie Angst oder Lernen durch Anknüpfungen an Vorwissen/Vorerfahrungen) oftmals viel zu allgemein, um einerseits einen theoretischen Beitrag zu leisten und um andererseits konkrete Empfehlungen fürs Handeln im Unterricht zu geben. Schumacher und Stern (2012) exemplifizieren das an den Herausforderungen, vor denen eine Lehrkraft steht, wenn sie Schüler*innen ein Verständnis der newtonschen Gesetze vermitteln will. Allgemeine Empfehlungen der Anknüpfung an Vorwissen der Schüler*innen helfen wenig, wenn es gilt, wie in diesem Fall, die spezifischen anschlussfähigen und nicht anschlussfähigen Schülervorstellungen (z. B. Kräfte wirken nur, wenn es Bewegungen gibt) aufzugreifen, damit die Schüler*innen ihr Wissen so restrukturieren und erweitern, dass ein angemessenes Verständnis der newtonschen Gesetze entsteht – ein Verständnis, das auch fachdidaktischen Kriterien standhält. In Hinblick auf diese Einschränkung ist es wichtig, den Anwendungsbereich neurowissenschaftlicher Befunde angemessen zu konzeptualisieren (siehe dazu Schumacher und Stern 2012).

Die bisherigen Ausführungen mögen ein zu pessimistisches Bild der Relevanz neurowissenschaftlicher Befunde suggerieren. Zweifelsohne sind für einzelne lernbezogene Bereiche neurowissenschaftliche Befunde relevant. Schumacher und Stern (2012) diskutieren hier den Fall von Lernstörungen (in Bezug auf Lesen/Scheiben bzw. Rechnen; siehe auch Hasselhorn 2022). Insgesamt gesehen ist es bislang aber nicht gelungen, neurowissenschaftliche Erkenntnisse so fruchtbar zu machen, dass sie substantiell das theoretische Verständnis von Prozessen des Lernens und der Lernförderung verbessert hätten. Inwiefern in absehbarer Zeit eine sinnvolle und fruchtbare Integration neurowissenschaftlicher, psychologischer und pädagogischer Perspektiven gelingen wird, sei dahingestellt.

4.2 Situierte Perspektive

In den 1990er-Jahren wurden Ansätze der situierten Kognition und des situierten Lernens populär (z. B. Brown et al. 1989; Greeno et al. 1993; Lave und Wenger 1991; Rogoff 1990; Pütz 2010). Diese – keineswegs ganz einheitlichen – Ansätze grenzten sich vom vorherrschenden kognitiven Paradigma insofern ab, als Wissen nicht mehr (nur) als losgelöste Entität in kognitiven Systemen gesehen wurde, sondern deren Gebundenheit an Situationen und soziale Kontexte postuliert wurde. Insofern sind auch Lernprozesse, die zum Aufbau situierten Wissens führen, als situiert anzusehen.

Greeno und Kolleg*innen (z. B. Greeno et al. 1993; Greeno and the Middle School Mathematics Through Applications Project Group 1998) konzipieren diese Situiertheit wie folgt: Es werden in erster Linie Aktivitätsmuster erlernt, die zu den (Lern‑)Situationen mit ihren Handlungseinschränkungen und Handlungsmöglichkeiten passen. Das, was man üblicherweise als Wissen bezeichnet, kann gleichsam in diese Aktivitätsmuster eingewoben sein und wird als „knowing“ bezeichnet. Welche Rolle dabei Wissen („knowledge“) im traditionellen Sinne, also in Form abstrahierter Repräsentation, genau spielt, wäre noch zu klären. Wenn man „knowing“ als Aktivitätsmuster, die zu situationalen Kontexten passen, erlernt, ist anzunehmen, dass z. B. im Schulunterricht nicht nur das fachliche Wissen erworben wird, sondern auch die kontextspezifischen Usancen in die Aktivitätsmuster eingebaut werden (z. B. das „unsinnige“ Lösen von unrealistischen Textaufgaben, wie etwa „Michaels beste 100-Meter-Zeit ist 13 s. Wie lange braucht er für 1000 m?“, Antwort: „130 s.“; Verschaffel et al. 2000). Lernen bedeutet damit auch eine Enkulturation in den jeweiligen sozialen Kontext mit seinen spezifischen Regeln (Brown et al. 1989).

Radikale Vertreter der situierten Perspektive sehen diese als (bessere) Alternative zur kognitiven Perspektive an (z. B. Lave 1988). Andere sehen sie eher als komplementär oder die kognitive Perspektive erweiternd an (z. B. Greeno et al. 1993; Sfard 1998). Dem zweiten Standpunkt folgend werden exemplarisch drei Aspekte skizziert, bzgl. derer die situierte Perspektive das Potenzial hätte, die kognitive Perspektive substantiell voranzubringen.

Integration von behavioralen und situierten Ansätzen

Greeno (z. B. 2015; Greeno and the Middle School Mathematics Through Applications Project Group 1998) formuliert auf der Grundlage seiner Konzeption situierten Lernens und situierter Kognition die Hoffnung, dass die Situiertheitsperspektive, vor allem im Bereich des Lernens und Lehrens, zu einer Integration behavioraler und kognitiver Perspektiven kommen könnte. Der Situiertheitsansatz nimmt, ähnlich wie der behaviorale Ansatz, Aktivitätsmuster und Praktiken in den Fokus, während der kognitive Ansatz die Rolle von Wissen, das Verständnis konstituiert, fokussiert. Nach Greeno sind aus Situiertheitsperspektive sowohl Elemente behavioral inspirierten als auch kognitiv inspirierten Unterrichts wichtige Bestandteile des Lehr-Lern-Geschehens, die zum Erwerb von Aktivitätsmuster einerseits und konzeptuellem Verständnis andererseits beitragen.

Transferfragen

Nicht-trivialen Transfer, beispielweise auf neue Anwendungssituationen, zu erreichen, ist eine große Herausforderung von Unterricht (z. B., Detterman 1993; Day und Goldstone 2012; Renkl 1996). Aus der Sicht der situierten Perspektive erklären sich Transferprobleme daraus, dass die Situationen und Kontexte, in denen gelernt sind, sich stark von denen unterscheiden, in denen das Erlernte angewandt werden soll; die im Lernsetting erworbenen Aktivitätsmuster passen nicht zur Anwendungssituation. Daraus ergibt sich ein möglicher Ansatzpunkt zur Transferförderung: Man situiert Lernen gewissermaßen intentional, d. h. die situationalen Handlungsmöglichkeiten und Handlungseinschränkungen sollten denen in typischen Anwendungssituationen möglichst ähnlich sein.

Implizite Lernprozesse

Wenn, wie die situierte Perspektive annimmt, insbesondere Aktivitätsmuster in Lehr-Lern-Situation erworben werden, dann könnte man sagen, dass implizites Lernen stattfindet. Manche mögen hier vom Erwerb impliziten Wissens sprechen. Allerdings kritisiert Renkl (1996) das Konzept des impliziten Wissens – durchaus in Übereinstimmung mit Annahmen in der Situationsperspektive –, da dieses die Gefahr des zirkulären Gebrauchs beinhaltet. Wird das Konzept des impliziten Wissens gebraucht, ist man als Forscher*in oftmals daran „gescheitert“, das Wissen, von dem man annimmt, dass es ein bestimmtes Verhalten steuert, unabhängig vom zu erklärenden Verhalten zu diagnostizieren. Dies führt jedoch nicht dazu, dass man das Verhalten anders zu erklären versucht. Man hält die „Wissenserklärung“ aufrecht, indem man das Wissen einfach als implizit ansieht und damit weiterhin postuliert, dass das angenommene Wissen das Verhalten determiniert. Eine andere Erklärung, die nicht implizites Wissen annimmt, gibt Greeno (z. B. Greeno et al. 1993), wenn er annimmt, dass Aktivitätsmuster erworben werden, die es Personen erlauben, mit den Handlungsmöglichkeiten und Handlungseinschränkungen in bestimmten Situationen erfolgreich umzugehen.

Nach der situierten Perspektive erwerben Lernende neue Fertigkeiten oder Verhaltensweisen, ohne dass dies (vorwiegend) über explizite Prozesse im Arbeitsgedächtnis vermittelt wird. Diese Art des Lernens wird in prominenten Theorien oder Rahmenmodellen (z. B. Cognitive Load Theory, Angebot-Nutzungs-Modell) kaum beachtet, geschweige denn in seinem Zusammenspiel mit expliziten Lernprozesse konzeptualisiert (siehe aber Wirth et al. 2020; für eine erste Konzeptualisierungsidee für den Bereich des selbstregulierten Lernens). Die situierte Perspektive, insbesondere nach Greeno (z. B. Greeno et al. 1993), würde aber genau diese Synthese einfordern, wenn vorgeschlagen wird, dass das Zusammenspiel des Erwerbs von Aktivitätsmustern und explizitem konzeptuellen Wissen konzeptualisiert werden sollte.

Als Zustandsbeschreibung zum Beginn der 2020er-Jahre muss man jedoch konstatieren, dass die Situtierheitsperspektive es weder geschafft hat, ein zentrales Paradigma im Mainstream der Lehr-Lern-Forschung zu werden, noch hat sie dazu geführt, dass sich die Theoriebildung aus kognitiver Perspektive, etwa in Bezug auf die oben genannten Aspekte, substantiell weiterentwickelt hat.

4.3 Konstruktivistische Perspektive

Wie die situierte Perspektive, wurde auch die konstruktivistische Sichtweise auf Lernen und Lehren ab den 1990er-Jahren sehr populär (z. B. Duffy und Jonassen 1992; Hoops 1998; Tobias und Duffy 2009; Von Glasersfeld 1989). Gleichwohl hat sich schon viel früher in Teilen der Psychologie, der Erziehungswissenschaft oder der Fachdidaktiken konstruktivistisches Gedankengut als wichtige Perspektive etabliert, etwa durch die Forschungstraditionen Piagets (z. B. 1971) und Wygotskys (z. B. 1978). Zentral ist die Annahme, dass verständnisorientiertes Lernen als aktive Wissenskonstruktion der Lernenden zu verstehen ist, die von außen (z. B. durch Lehre) nur begrenzt beeinflusst werden kann. Der Fokus auf verständnisorientiertem Lernen implizit, dass die konstruktivistische Perspektive nicht dafür prädestiniert ist, Lernen etwa im Sinne der Automatisierung von mentalen Vorgehensweisen (Prozeduren) oder aber rein assoziatives Lernen, wie es in der Gedächtnispsychologie vielfach untersucht wird, zu erklären.

Speziell in den behavioral (verhaltenstheoretisch) geprägten Zeiten, vor allem in den mittleren Jahrzehnten des 20. Jahrhunderts, herrschte noch eine sehr optimistische Sichtweise vor, wie stark man Lernprozesse beeinflussen kann. Man denke an das bekannte Zitat von Watson (1924, S. 82), in dem er behauptete, dass er aus jedem gesunden Kind „alles“ machen könne, z. B. einen Arzt, einen Rechtsanwalt oder einen Bettler und Dieb, wenn ihm die Möglichkeit, die Umwelt zu gestalten, gegeben würde. Frühe kognitive Ansätze konzipierten Lernprozesse ebenfalls in einer sehr deterministischen und außengesteuerten Weise, etwa in der bekannten ACT-R-Theorie von Anderson und Kolleg*innen (z. B. Anderson und Lebiere 1998), in der der Erfolg der Anwendung bestimmter mentaler Regeln bzw. die dadurch bewirkte Stärkung derselben als ein zentraler Lernmechanismus angesehen wurde. Ebenso war die ursprüngliche Idee des Instruktionsdesigns eher von einer Vorstellung des Lernen-Induzieren-Könnens geprägt (z. B. Lebow 1993; Merrill et al. 1990).

In Gegensatz zu den eben genannten theoretischen Perspektiven sieht der konstruktivistische Ansatz die Wahrnehmung und Interpretation des Lernangebots als insbesondere vom Vorwissen der Lernenden abhängig, konzipiert den Erwerb (konzeptuellen) Wissens als aktive Konstruktion des jeweiligen Lernenden, verneint die Möglichkeit einer weitgehenden Steuerbarkeit der Wissenskonstruktionsprozesse durch Instruktionsdesign oder Lehrprozesse und sieht Selbstregulation als zentrales Element von Lernprozessen an (z. B. Gerstenmaier und Mandl 1995; Merrill et al. 1990; Palincsar 1998; Yager 1991). In Folge wurden in Lehr-Lern-Situationen statt Strukturen und Prozesse des Lehrens stärker die (verhaltensbezogenen und mentalen) Aktivitäten der Lernenden und Aspekte der Selbstregulation in den Blick genommen. Prototypisch für diesen Fokuswechsel sind beispielsweise die Arbeiten von Barr and Tagg (1995), die das im Bereich der Hochschuldidaktik viel gebrauchte Schlagwort „From teaching to learning“ prägten, oder die Arbeiten aus dem Bereich des Instruktionsdesigns, die sich mit der Konsequenz einer konstruktivistischen Perspektive für ein weniger deterministisch konzipiertes Instruktionsdesign auseinandersetzten (z. B. Jonassen 1990; Lebow 1993).

Da verständnisorientiertes Lernen aus konstruktivistischer Perspektive als aktive Wissenskonstruktion der Lernenden verstanden wurde, gab es zudem unter dem Schlagwort „aktives Lernen“ vielfach die Forderung, dass Lernende aktiv statt passiv sein sollten. Dabei wird Aktivität vielfach als sichtbares Tun (z. B. hands-on-Aktivitäten, Problemlösen, in Kleingruppe diskutieren) verstanden, was insofern eine verzerrte Sichtweise ist, als der Konstruktivismus die mentalen Aktivitäten der Wissenskonstruktion in dem Mittelpunkt stellt (zu einer ausführlichen Diskussion dazu siehe Renkl 2008, 2011). Insofern gab es leider teils ein trivialisierendes Aufgreifen des Konzepts des Konstruktivismus.

Ein positiveres Beispiel ist das in der (deutschen) Unterrichtsforschung viel beachtete Konzept der Kognitiven Aktivierung als zentrales Unterrichtsqualitätsmerkmal (Klieme et al. 2001; Praetorius und Gräsel 2021). Dieses Konzept steht eher in Übereinstimmung mit konstruktivistischen Grundannahmen, da es die Unterrichtsangebote in dem Mittelpunkt stellt, die das Potenzial haben, die Lernenden mental zu aktivieren. Speziell in neueren Arbeiten werden bei der kognitiven Aktivierung Aspekte des Angebots, der Lern-Unterstützung und der Nutzung durch die Schüler*innen differenziert (z. B. Jansen et al. 2022; Kleickmann et al. 2020); gleichwohl muss diese Ausdifferenzierung des Konstrukts noch weiter ausgearbeitet werden.

Im Idealfall hätte es durch den Impuls des Konstruktivismus eine Integration der Perspektiven, die einerseits das Lehren bzw. das Instruktionsdesign fokussieren und die andererseits die Selbstregulation der Lernenden fokussieren, gegeben. Die erstgenannten Theorien haben ihre Schwächen darin, dass sie die Unterschiedlichkeit der kognitiven und motivationalen Reaktionen der Lernenden auf das instruktionale Angebote nicht in differenzierter Weise theoretisch fassen können (z. B. Elen 2020; Gerjets und Scheiter 2003). Die Theorien selbstregulierten Lernens wiederum bieten keine theoretische Konzeptualisierung für die instruktionale Umgebung mit ihren Informationsangeboten und Strukturierungshilfen in Bezug auf das Vorgehen der Einzelnen beim Lernen an; dies ist insofern ein substantielles Defizit, als völlig freie Selbstregulation beim Lernen, insbesondere im Schul- und Hochschulbereich, eher eine seltene Ausnahme ist. Es gibt zwar inzwischen eine Reihe von Arbeiten, die sich mit spezifischen Aspekten der Wechselwirkungen zwischen instruktionalen Vorgaben und Selbstregulation befassen (z. B. Baker et al. 2008; Eitel et al. 2020; Elen 2020; Fischer et al. 2013; Gerjets und Scheiter 2003). Allerdings gibt es keine differenzierten Theorien (jenseits von groben Rahmen-Theorien), die die Wechselwirkungen zwischen instruktionalem Angebot und dessen selbstregulierter Nutzung durch die Lernenden konzeptualisieren. Eine solche (bewährte) Theorie wäre ein substantieller Fortschritt im theoretischen Verständnis des Lernens (de Bruin et al. 2020).

Die konstruktivistische Sichtweise hatte von den drei genannten Perspektiven wohl den größten Einfluss auf den Mainstream in der Lehr-Lern-Forschung. Die meisten Forscher*innen würden wohl sagen, dass sie insofern eine konstruktivistische Perspektive einnehmen, als sie annehmen, dass Lernen letztendlich durch mentale Konstruktionsprozesse der Lernenden erfolgt. Neben diesem allgemeinen Bekenntnis gibt es im Konkreten recht unterschiedliche Interpretationen des Konstruktivismus, die bisweilen auch nicht sinnvoll sind (z. B. viele Konzeptionen aktiven Lernens im Sinne das aktiven Tuns). Das Versprechen, welches beispielsweise im Bereich des Instruktionsdesigns im Raum statt (z. B. Lebow 1993), wurde nicht eingelöst: Eine Theorie, die Instruktionsangebot und selbstregulierte Lernendennutzung integriert.

5 Aktuelle Entwicklungen

Dieser Abschnitt listet aktuelle Trends in der Lehr-Lern-Forschung auf (jenseits von inhaltlichen „Mode-Themen“). Im Folgenden werden diejenigen Trends, die ich persönlich in den letzten Jahren als besonders bedeutsam wahrgenommen habe, aufgeführt (zu einer Auflistung der APA zu aktuellen, auch inhaltlichen Trends in der Psychologie, die als Hub-Science der Lehr-Lern-Forschung verstanden werden kann, siehe https://www.apa.org/monitor/2022/01/special-emerging-trends; heruntergeladen am 01.01.2023):

Open Science

Unter diesem Stichwort werden eine Reihe von Forderungen an gute Forschung (und forschungsbezogene Lehre) zusammengefasst, vor allem Präregistrierung (insbesondere von Hypothesen und Auswertungsstrategien), Studien mit ausreichender Power und Replikation, zugängliche Daten, Materialien sowie Analyse-Codes, Open Access-Publikation und die Information sowie Lehre über das Konzept Open Science (z. B. Crüwell et al. 2019). In Kern geht es darum, Forschung so zu gestalten, dass sie replizierbare und nachvollziehbare Befunde erbringt.

Ethik und Datenschutz

Immer mehr Zeitschriften und Forschungsförderinstitutionen fordern Ethikvoten ein. Ebenfalls haben sich die Ansprüche an Datenschutz erhöht, insbesondere durch die DSGVO und in Folge durch die Datenschutzbeauftragten an Universitäten oder Forschungsinstitutionen. Hier geht es vor allem um die noch weitergehende Einhaltung ethischer und rechtlicher Standards bei der Durchführung von Studien.

Weiterentwicklungen bei statistischen Verfahren

Hier könnte man bayesianische Inferenzstatistik als Alternative zur traditionellen Hypothesentestung (oder als Ergänzung dazu) und Learning Analytics/Big-Data-Techniken/KI-basierte Ansätze als Beispiele nennen. Bessere Analyse-Verfahren erlauben ein Mehr aus den Daten der durchgeführten Studien zu ziehen und ggf. auch Studien gleich so anzulegen, dass diese Verfahren ihr Potenzial voll zur Geltung bringen können (z. B. Vorhandensein genügend großer Datenmengen).

Unterschiedlichere Maße als Indikatoren für Konstrukte

Zum einen ist das Mehr an Maßen dem Einfluss der neurowissenschaftlichen Perspektive geschuldet (z. B. EEG-Maße). Zum anderen wurden bestimmte Erhebungsverfahren, wie etwa Blickbewegungsanalysen, durch den technologischen Fortschritt einerseits leichter finanzierbar und andererseits in ökologisch validen Settings einsetzbar (z. B. Blickbewegungsanalysen im Feld mit sog. Head-Mounted Eye-Trackern). Mit zusätzlichen Maßen bzw. Operationalisierungen können Einschränkungen verbreiteter klassischer Verfahren, wie etwa Fragenbögen, vermieden werden.

All diese Entwicklungen sind positiv zu werten und tragen speziell zu guter wissenschaftlicher Praxis bei. Sie sind aber kein spezifischer Anstoß dazu, die Theorieentwicklung voranzutreiben. Um das Beispiel Open Science aufzugreifen, replizierte und nachvollziehbare Befunde aus Studien mit hoher Test-Power mögen eine gute Grundlage für die Theoriebildung sein. Allein, solide Befunde machen noch keine Theorie (siehe auch Oberauer und Lewandowsky 2019).

6 Ein Wunschzettel für die Zukunft

Mehr Arbeit an Theorien in einen Forschungsbereich anzustoßen, das ist sicherlich eine Mammutaufgabe, zumal dies einen Kulturwechsel erforderte. Dennoch versuche ich mit einem Wunschzettel in drei Teilen einen Denkanstoß in diese Richtung zu geben.

6.1 Mehr Fokus auf Theorie

Meta-Analysen mit theoretischen Erklärungen

Meta-Analyse haben sicherlich eine wichtige Funktion bei der Integration von Forschungsergebnissen. Vielfach geschieht dies aber insofern weitgehend atheoretisch, als verschiedene Moderatoreffekte ad hoc erklärt werden. Wünschenswert wäre es, wenn sich Folgendes als Standard etablieren würde, ähnlich wie bestimmte formale Vorgehensweisen bei der Durchführung und Darstellung von Meta-Analysen (siehe die MARS-Standards der APA; https://wmich.edu/sites/default/files/attachments/u58/2015/MARS.pdf): Die Autor*innen von Meta-Analysen sollten das Muster von Moderationseffekten möglichst kohärent theoretisch erklären oder aber dieses Muster dafür nutzen, um verschiedene theoretische Erklärungen, z. B. für einen Effekt, gegeneinander abzuwägen. Dies würde den theoretischen Gehalt von Meta-Analysen deutlich erhöhen.

Vorstrukturierte Theorieartikel

Fachzeitschriften oder wissenschaftliche Fachverbände könnten für Theorieartikel eine (grob) vorgegebene Struktur etablieren, ähnlich wie es dies bei empirischen Arbeiten oder Meta-Analysen gibt. Solch eine Struktur könnte beispielsweise die folgenden Elemente umfassen:

  1. a)

    Zu erklärende Phänomene;

  2. b)

    Geltungs- bzw. Anwendungsbereich der Theorie in Sinne adressierter Kontexte und gewählter Betrachtungsebenen;

  3. c)

    deskriptiv/erklärend und/oder präskriptiv/normativ;

  4. d)

    nicht-testbare Grundannahmen („Axiome“);

  5. e)

    theoretische Annahmen und daraus ableitbare (neue) Hypothesen, die getestet werden können;

  6. f)

    Fundierung in vorhandener Empirie;

  7. g)

    Bezug zu anderen (einschlägigen) Theorien und Mehrwert der neuen Theorie.

Greene (2022) schlägt das Format eines Theorie-Reviews vor. Darin könnten die Erstellung und Weiterentwicklung einer Theorie oder die Integration multipler verwandter Theorien dokumentiert werden. Damit würde die theoretische Entwicklung in einem Bereich dokumentiert werden und es würde transparent gemacht, wann welche Entscheidungen getroffen und welche Wege nicht beschritten wurden; ggf. könnte man dann auch getroffene Entscheidungen nochmals abwägen.

6.2 Mehr Theorieintegration

Synthese von Theorie-Dubletten

Es könnten künftig vermehrt Symposium, Special Issues oder Bücher entstehen, in denen verschiedene Theorien, die sich mit gleichen oder sehr ähnlichen Phänomene beschäftigen, genauer unter die Lupe genommen werden, u. a. in Hinblick auf folgende Fragen: Treffen sie im Prinzip die gleichen Annahmen, formulieren diese aber ggf. in unterschiedlichen Worten? Ergänzen sie sich teils (z. B. eine Theorie trifft spezifischere Annahmen zu bestimmten Phänomenen als andere)? Widersprechen sie sich in bestimmter Hinsicht? Wie groß sind die Überschneidungen im adressierten Bereich von Phänomen? Dies könnte die Grundlage dafür sein, eine integrative Theorie für einen Bereich zu entwickeln (siehe auch Gigerenzer 2017).

Bei einigen derartigen Projekten könnten die jeweiligen Theorieautor*innen federführend beteiligt sein. Zumindest nach meiner Erfahrung funktionierten derartige oder ähnliche Symposien in der Vergangenheit jedoch nicht immer optimal. Wer tauscht schon gerne seine einige Zahnbürste gegen ein geteiltes „Zahnreinigungs-Werkzeug“ ein? Eine andere Möglichkeit wäre, für solche Projekte in einem Feld etablierte Autor*innen, die jedoch nicht direkt für eine bestimmte Theorie stehen, einzuladen, vorliegende Dubletten-Probleme aufzulösen oder wenigstens zu reduzieren.

Theorien über Schnittstellen synthetisieren

Ähnliche Projekte, wie im vorstehenden Abschnitt beschrieben, könnten anstreben, vorhandene und bewährte Mini-Theorien zu synthetisieren, die eindeutige Schnittstellen aufweisen und die dann in integrierter Form einen umfassenderen Phänomenbereich adressieren könnten (siehe dazu auch Greene 2022). Als Beispiele für möglicherweise zu synthetisierende Theorien könnte man Konzeptionen nennen, die primär motivationale Aspekte (z. B. Wigfield und Eccles 2000) oder aber primär emotionale Aspekte (z. B. Pekrun 2006) beim Lernen thematisieren. Möglich wäre es auch, Theorien aus unterschiedlichen Disziplinen zu synthetisieren. Zu derartigen Arbeiten ruft interessanterweise eine Zeitschrift aus einem der Psychologie benachbarten Bereich explizit auf (Academy of Management Journal; Shaw et al. 2018). Im Bereich von Lernprozessen und deren Förderung könnte man beispielsweise an die Synthese von allgemeinen psychologischen Theorien des Konzeptwechsels (Vosniadou und Skopeliti 2014) mit entsprechenden Modellen aus naturwissenschaftlichen Fachdidaktiken (z. B. Cobern 1996) denken.

6.3 Theorien zu wichtigen inhaltlichen Themen

Welche Themen wären besonders lohnenswert, wenn sich künftige Theorieentwicklungen ihnen annehmen würden? Im Folgenden werden exemplarisch drei übergreifende Themen skizziert, die für viele Einzelbereiche der Forschung (und der Praxis) relevant und damit besonders vielversprechend wären.

Lehren und Lernen zusammendenken

Dieses Thema wurde bereits im Zusammenhang mit der konstruktivistischen Perspektive angesprochen. Individuelle Lernprozesse finden in Kindergarten (z. B. Training phonologischer Bewusstheit), Schule, Hochschule und Erwachsenenbildungsprogrammen immer unter dem Einfluss instruktionaler/didaktischer/unterrichtlicher Vorstrukturierung (Lehre im weiteren Sinne) statt, und die Wirkung von Lehre wird dabei immer von (insbesondere kognitiven und motivationalen) Voraussetzung der individuellen Lernenden moderiert. Bislang werden die Lehrseite (z. B. Unterrichtsqualitätsmodelle, Modelle des Instruktionsdesigns) und die Lernseite (z. B. Modelle selbstregulierten Lernens, Lernstrategiemodelle) nicht völlig, aber weitgehend getrennt theoretisch konzeptualisiert. Insofern als Lernen und Lehren (im weiteren Sinne) in den genannten Institutionen aufs Engste miteinander verflochten sind, wären differenzierte Theorien, die dieser Verflechtung Rechnung tragen, ein wichtiger Fortschritt.

Soziale und individuelle Ebene verbinden

Lernen findet sehr oft im sozialen Kontext statt (z. B. beim Unterrichtsgespräch, bei einer Kleingruppenarbeit, beim Tutoring, in netzbasierten Foren). Im Prinzip geht es hier um „gute, alte“ Konzepte Wygotskys (1978): Die Internalisierung dessen, was auf der sozialen Ebene stattfindet, und die dadurch bewirkte Transformation individueller Konzepte und Vorgehensweisen. Diese Konzepte sind bislang allerdings nicht in differenzierter Weise theoretisch gefasst worden, vor allem darauf hin, was Lernende mit unterschiedlichen Lernvoraussetzungen z. B. aus einer Diskussion in einer Kleingruppe oder aus einem didaktisch strukturierten Unterrichtsgespräch lernen (im letztgenannten Fall ergibt sich eine Überschneidung mit dem vorstehenden Thema des Lehrens, oft auf sozialer Ebene, und des individuellen Lernens). Die Frage nach dem Einfluss der sozialen Ebene auf das individuelle Lernen kann man als eine Art von Umkehrung des Problems sehen, das im Zusammenhang mit der neurowissenschaftlichen Perspektive bereits diskutiert wurde: Wie kann man von weniger komplexen auf komplexere Ebenen schließen? Hier stellt sich gewissermaßen die entgegengesetzte Frage, nämlich wie und unter welchen Bedingungen kann man sinnvollerweise Schlüsse von einer komplexeren Ebene (hier: soziale Ebene) auf eine weniger komplexe Ebene (hier: individuelle Ebene) ziehen.

Kontexte konzeptualisieren und berücksichtigen

Wie bereits diskutiert, sind Effekte, Wirkungen und Zusammenhänge in aller Regel kontextabhängig. Entsprechend werden in Meta-Analysen und bei (direkten) Replikationen (siehe Zwaan et al. 2018) eine Vielzahl von Kontextfaktoren thematisiert. Diese Faktoren können aber weder in einen übergeordneten Rahmen eingeordnet werden, noch können sie in ihrer Wirkung in ausreichendem Maße theoretisch konzeptualisiert werden. Die vorliegende Herausforderung ist damit eine zweifache. Erstens wäre eine Theorie dazu wichtig, was Kontext genau bedeutet und wie er charakterisiert werden kann, jenseits von groben Rahmentheorien (z. B. Bronfenbrenner 1981). Zweitens wird Kaplan et al. (2020) zugestimmt, dass Theorien zu Effekten, Wirkungen und Zusammenhängen in systematischer Weise Annahmen zu Kontextfaktoren beinhalten sollten. Der zweite Aspekt verlangt nicht nach einer separaten Kontext-Theorie, sondern impliziert, dass zu entwickelnde Theorien, etwa zu den beiden bereits skizzierten Themen (Lehren/Lernen; sozial/individuell), Kontextfaktoren mitberücksichtigen sollten.

7 Vom Wunschzettel zum Plan

Die Ausführungen im vorstehenden Abschn. 6 erheben keineswegs den Anspruch auf Vollständigkeit oder „Ausarbeitung auf höchstem Niveau.“ Aus meiner Sicht wäre eine breite Diskussion in unserem Forschungsfeld wünschenswert, wie man Theorie wieder in den Vordergrund rücken könnte. Eine solche Diskussion würde die Grundlage für einen sicherlich viel besseren Plan ergeben als denjenigen, der aus dem vorliegenden Wunschzettel folgt.

Glücklicherweise scheint eine derartige Diskussion gerade insofern Fahrt aufzunehmen, als in den letzten Jahren, neben Arbeiten zur „Theorie-Krise“ in der Psychologie allgemein (z. B. Oberauer und Lewandowsky 2019), auch einige Arbeiten erschienen sind, die sich diesem Defizit in der Pädagogischen Psychologie bzw. in der Lehr-Lern-Forschung widmen (Greene 2022; Wentzel 2021). Ich würde mir natürlich wünschen, dass weitere Diskussionen, auch einige Aspekte meines Wunschzettels aufgreifen würden. Darüber hinaus legt die (vorläufige) Analyse der Ursachen des Theoriedefizits nahe, dass es Änderungen in der universitären Ausbildung bräuchte, um einerseits Theoriearbeit wieder mehr in den Mittelpunkt zu rücken und um andererseits junge Wissenschaftler*innen besser dafür auszubilden. Schließlich wäre es wichtig, in entsprechenden Diskussion Aspekte der Kultur einer Wissenschaftsgemeinschaft kritisch zu hinterfragen und Änderungen zu initiieren (z. B. Welche Art von Beiträgen werden besonders geschätzt? Welche Art von Forschungsanträgen haben gute Chancen? Welche Kriterien werden bei Berufungen besonders gewichtet?). „Schau mer mal“, was die Zukunft bringt.