Zusammenfassung
Das Buch „Visible Learning“ von John Hattie hat im deutschsprachigen Raum breite Resonanz bis in die öffentlichen Medien hinein ausgelöst. Die bildungswissenschaftliche Diskussion darüber hat sich bislang vorrangig mit inhaltlichen und eher globalen methodischen Fragen befasst, eine kritische Betrachtung der Methodik im Detail steht dagegen noch aus. Im vorliegenden Beitrag explizieren wir die methodischen Anforderungen des von Hattie gewählten metaanalytischen Ansatzes und messen daran die verwendete Datengrundlage sowie sein konkretes Vorgehen. Darüber hinaus setzen wir uns kritisch mit der prinzipiellen Angemessenheit von Hatties Ansatz auseinander. Sein Ansatz einer umfassenden Integration empirischer bildungswissenschaftlicher Forschung erweist sich als visionär, aber unter den gegenwärtigen Publikationsbedingungen wissenschaftlich solide nicht durchführbar. Als Konsequenz schlagen wir vor, Methodik und Ergebnisse empirischer Untersuchungen unabhängig von Zeitschriftenpublikationen in einer zentralen Datenbank standardisiert und in metaanalytisch verwertbarer Form zu sammeln und zugänglich zu machen.
Abstract
In German-speaking countries, the book “Visible Learning” by John Hattie has generated broad resonance even in the public media. The discussion in educational research so far has mainly dealt with substantive and rather global methodological issues, whereas a critical appraisal of the methodology in detail is still lacking. In this article, we explicate the methodological requirements of the meta-analytic approach chosen by Hattie and use them to evaluate the underlying database as well as his concrete procedures. In addition, we critically discuss the appropriateness of Hattie’s approach in principle. It turns out that his approach of a comprehensive integration of empirical educational research, albeit visionary, is not feasible in a scientifically sound manner, given current publication practices. As a consequence we propose to collect the methods and results of empirical studies – irrespective of journal publications – and make them available in a central database in a standardized and meta-analytically usable format.
Notes
Im Fall eines 95 %-Konfidenzintervalls:\(SE=\frac{Obergrenze-Untergrenze}{2\cdot1,96}\)
\(\sqrt{\frac{0,59^{2}}{19}}=0,135\)mit 0,59 als Wert für die Standardabweichung und einer Anzahl von 19 Effektstärken (Haas 2005, S. 30, Tabelle 2).
800 Metaanalysen/138 Einflussfaktoren
Die ursprünglich systematisch fehlerhaft berechneten common language effect sizes in Anhang A mit unmöglichen Wahrscheinlichkeiten unter 0 % und über 100 % wurden für die deutsche Übersetzung korrigiert (Beywl und Zierer 2015b, S. XVII).
Literatur
Arnold, I. (2011). John Hattie: Visible Learning: A synthesis of over 800 meta-analyses relating to achievement. International Review of Education, 57, 219–221.
Beywl, W., & Zierer, K. (2015a). Lernen sichtbar machen erweitert: Vorwort zur erweiterten Auflage. In J. Hattie, Lernen sichtbar machen: Überarbeitete deutschsprachige Ausgabe von Visible Learning (S. XXVII–XXIX). Baltmannsweiler: Schneider Hohengehren.
Beywl, W., & Zierer, K. (2015b). Lernen sichtbar machen: Zur deutschsprachigen Ausgabe von „Visible Learning“. In J. Hattie, Lernen sichtbar machen: Überarbeitete deutschsprachige Ausgabe von Visible Learning (S. VI–XXVI). Baltmannsweiler: Schneider Hohengehren.
Borenstein, M., Hedges, L. V., Higgins, J. P. T., & Rothstein, H. R. (2009). Introduction to meta-analysis. Chichester: Wiley.
Bortz, J. (2005). Statistik für Human- und Sozialwissenschaftler (6. Aufl.). Heidelberg: Springer.
Brügelmann, H. (2014). Gilt nach Hattie: Je häufiger, desto besser? Zur Bedeutung von „Evidenzbasierung“ für pädagogisches Handeln vor Ort. In E. Terhart (Hrsg.), Die Hattie-Studie in der Diskussion: Probleme sichtbar machen (S. 38–50). Seelze: Klett Kallmeyer.
Cooper, H., & Koenka, A. C. (2012). The overview of reviews: Unique challenges and opportunities when research syntheses are the principal elements of new integrative scholarship. American Psychologist, 67(6), 446–462.
Dansky, J. L. (1980). Make-believe: A mediator of the relationship between play and associative fluency. Child Development, 51(2), 576–579.
Donovan, J. J., & Radosevich, D. J. (1999). A meta-analytic review of the distribution of practice effect: Now you see it, now you don’t. Journal of Applied Psychology, 84(5), 795–805.
Eisenstaedt, R. S., Barry, W. E., & Glanz, K. (1990). Problem-based learning: Cognitive retention and cohort traits of randomly selected participants and decliners. Academic Medicine, 65(9), S11–S12.
Fisher, E. P. (1992). The impact of play on development: A meta-analysis. Play & Culture, 5, 159–181.
Gijbels, D., Dochy, F., van den Bossche, P., & Segers, M. (2005). Effects of problem-based learning: A meta-analysis from the angle of assessment. Review of Educational Research, 75(1), 27–61.
Haas, M. (2005). Teaching methods for secondary algebra: A meta-analysis of findings. NASSP Bulletin, 89(642), 24–46.
Hattie, J. A. C. (2009). Visible learning: A synthesis of over 800 meta-analyses relating to achievement. London: Routledge.
Hedges, L. V., & Olkin, I. (1985). Statistical methods for meta-analysis. San Diego: Academic Press.
Horton, P. B., McConney, A. A., Gallo, M., Woods, A. L., Senn, G. J., & Hamelin, D. (1993). An investigation of the effectiveness of concept mapping as an instructional tool. Science Education, 77(1), 95–111.
Johnson, D. W., & Johnson, R. T. (1987). Research shows the benefits of adult cooperation. Educational Leadership, 45(3), 27–30.
Klauer, K. J., & Phye, G. D. (2008). Inductive reasoning: A training approach. Review of Educational Research, 78(1), 85–123.
Köller, O. (2012). What works best in school? Hatties Befunde zu Effekten von Schul- und Unterrichtsvariablen auf Schulleistungen. Psychologie in Erziehung und Unterricht, 59(1), 72–78.
Lee, T. D., & Genovese, E. D. (1988). Distribution of practice in motor skill acquisition: Learning and performance effects reconsidered. Research Quarterly for Exercise and Sport, 59(4), 277–287.
Levie, W. H., & Lentz, R. (1982). Effects of text illustrations: A review of research. Educational Communication and Technology Journal, 30(4), 195–232.
Lipsey, M. W., & Wilson, D. B. (1993). The efficacy of psychological, educational, and behavioral treatment: Confirmation from meta-analysis. American Psychologist, 48(12), 1181–1209.
Lipsey, M. W., & Wilson, D. B. (1995). Reply to comments on Lipsey and Wilson (1993). American Psychologist, 50, 113–115.
Nesbit, J. C., & Adesope, O. O. (2006). Learning with concept and knowledge maps: A meta-analysis. Review of Educational Research, 76(3), 413–448.
Olson, T. M., & Wisher, R. A. (2002). The effectiveness of web-based instruction: An initial inquiry. International Review of Research in Open and Distance Learning, 3(2), 1–17.
Pant, H. A. (2014a). Aufbereitung von Evidenz für bildungspolitische und pädagogische Entscheidungen: Metaanalysen in der Bildungsforschung. In R. Bromme & M. Prenzel (Hrsg.), Von der Forschung zur evidenzbasierten Entscheidung: Die Darstellung und das öffentliche Verständnis der empirischen Bildungsforschung (Zeitschrift für Erziehungswissenschaft: Sonderheft 27, S. 79–99). Wiesbaden: Springer VS.
Pant, H. A. (2014b). Visible Evidence? Eine methodisch orientierte Auseinandersetzung mit John Hatties Meta-Metaanalysen. In E. Terhart (Hrsg.), Die Hattie-Studie in der Diskussion: Probleme sichtbar machen (S. 134–146). Seelze: Klett Kallmeyer.
Peterson, R. A. (2001). On the use of college students in social science research: Insights from a second-order meta-analysis. Journal of Consumer Research, 28(3), 450–461.
Renkl, A. (2015). Different roads lead to Rome: The case of principle-based cognitive skills. Learning: Research and Practice, 1(1), 79–90.
Roppelt, A., Plenk, C., Pöhlmann, C., & Pietsch, E. (2013). Der Ländervergleich im Fach Mathematik. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012: Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 123–140). Münster: Waxmann.
Rosenthal, R. (1994). Parametric measures of effect size. In H. Cooper & L. V. Hedges (Hrsg.), The handbook of research synthesis (S. 231–244). New York: Russell Sage Foundation.
Sipe, T. A., & Curlette, W. L. (1997). A meta-synthesis of factors related to educational achievement: A methodological approach to summarizing and synthesizing meta-analyses. International Journal of Educational Research, 25(7), 573–698.
Sitzman, T., Kraiger, K., Stewart, D., & Wisher, R. (2006). The comparative effectiveness of web-based and classroom instruction: A meta-analysis. Personnel Psychology, 59, 623–664.
Snook, I., O’Neill, J., Clark, J., O’Neill, A.-M., & Openshaw, R. (2009). Invisible learnings? A commentary on John Hattie’s book: Visible Learning: A synthesis of over 800 meta-analyses relating to achievement. New Zealand Journal of Educational Studies, 44(1), 93–106.
Sohn, D. (1995). Meta-analysis as a means of discovery. American Psychologist, 50, 108–110.
Spies, C. (1987). Play, problem solving and creativity in young children. Vortrag auf dem Biennial Meeting of the Society for Research in Child Development, Baltimore, 23. - 26. April 1987.
Stanat, P. (2012). Bereitstellung und Nutzung quantitativer Forschungsdaten in der Bildungsforschung: Memorandum des Fachkollegiums „Erziehungswissenschaft“ der DFG. http://www.dfg.de/download/pdf/foerderung/grundlagen_dfg_foerderung/informationen_fachwissenschaften/geisteswissenschaften/forschungsdaten_memorandum_fk_109.pdf. Zugegriffen: 5. Feb. 2015.
Sterne, J. A. C., Jüni, P., Schulz, K. F., Altman, D. G., Bartlett, C., & Egger, M. (2002). Statistical methods for assessing the influence of study characteristics on treatment effects in ‚meta-epidemiological‘ research. Statistics in Medicine, 21(11), 1513–1524.
Tamim, R. M., Bernard, R. M., Borokhovski, E., Abrami, P. C., & Schmid, R. F. (2011). What forty years of research says about the impact of technology on learning: A second-order meta-analysis and validation study. Review of Educational Research, 81(1), 4–28.
Terhart, E. (2011). Has John Hattie really found the holy grail of research on teaching? An extended review of „Visible Learning“. Journal of Curriculum Studies, 43(3), 425–438.
White, W. A. T. (1988). A meta-analysis of the effects of direct instruction in special education. Education and Treatment of Children, 11(4), 364–374.
Wilson, D. B., & Lipsey, M. W. (2001). The role of method in treatment effectiveness research: Evidence from meta-analysis. Psychological Methods, 6(4), 413–429.
Author information
Authors and Affiliations
Corresponding author
Anhang
Anhang
1.1 Beweis für die Äquivalenz einer Metaanalyse überschneidungsfreier Metaanalysen mit der Metaanalyse aller Primärstudien im Rahmen des fixed-effect-Modells
(i) Im fixed-effect-Modell wird die gemeinsame Effektstärke sämtlicher Primärstudien \(d_{\cdot }\) ausgehend von den Effektstärken d i aus k Primärstudien folgendermaßen geschätzt:
(vgl. Borenstein et al. 2009, S. 66, Formel 11.3) mit \(w_{i}=\frac{1}{v_{i}}\) (vgl. Borenstein et al. 2009, S. 63, Formel 11.2) aus der Varianz v i der Effektstärke in der Primärstudie i.
Für die Varianz \(v_{d_{\cdot }}\) dieses Schätzwerts gilt:
(vgl. Borenstein et al. 2009, S. 66, Formel 11.4).
Wenn die k Primärstudien aus m Metaanalysen mit jeweils k j Primärstudien (ohne Überschneidungen zwischen den Metaanalysen) mit den Effektstärken d ji stammen, gilt für den Schätzwert der gemeinsamen Effektstärke aller Primärstudien
mit \(w_{ji}=\frac{1}{v_{ji}}\) aus der Varianz v ji der Effektstärke in der Primärstudie i aus der Metaanalyse j, sowie für dessen Varianz
(ii) In jeder Metaanalyse j wird ausgehend von den Effektstärken d ji und den Gewichten w ji unter Anwendung von (1) auf sämtliche k j in ihr enthaltenen Primärstudien die gemeinsame Effektstärke der Primärstudien
und unter Anwendung von (2) deren Varianz
bestimmt.
(iii) Wenn aus allen m Metaanalysen jeweils ein Schätzwert der gemeinsamen Effektstärke sowie dessen Varianz vorliegt, kann die gemeinsame Effektstärke sämtlicher Primärstudien auch unmittelbar aus den Schätzwerten d j• und den Gewichten w j• aus den m Metaanalysen geschätzt werden:
mit
(wegen (6)).
Setzt man zum Beweis von (7) auf der rechten Seite von (7) für w j• die rechte Seite von (8) und für d j• die rechte Seite von (5) ein, erhält man durch Kürzen innerhalb des Zählers und wegen (3):
Die Varianz des Schätzwerts der gemeinsamen Effektstärke wird folgendermaßen ermittelt:
Setzt man zum Beweis von (9) auf der rechten Seite von (9) für w j• die rechte Seite von (8) ein, erhält man wegen (4):
Somit lässt sich die gemeinsame Effektstärke aller Primärstudien aus m Metaanalysen ohne Überschneidungen in den Primärstudien schätzen, indem man diese Metaanalysen selbst als Primärstudien behandelt und in einer weiteren Metaanalyse gemäß dem fixed-effect-Modell zusammenfasst.
Rights and permissions
About this article
Cite this article
Wecker, C., Vogel, F. & Hetmanek, A. Visionär und imposant – aber auch belastbar?. Z Erziehungswiss 20, 21–40 (2017). https://doi.org/10.1007/s11618-016-0696-0
Published:
Issue Date:
DOI: https://doi.org/10.1007/s11618-016-0696-0