Zeitschrift für Erziehungswissenschaft

, Volume 20, Issue 4, pp 628–650 | Cite as

Datenbasierte Unterrichtsentwicklung und ihr Zusammenhang zur Schülerleistung

  • Sebastian Wurster
  • Dirk Richter
  • Anna Eva Lenski
Allgemeiner Teil
  • 384 Downloads

Zusammenfassung

In Deutschland stehen Lehrkräften mit Ergebnissen aus Vergleichsarbeiten, zentralen Abschlussprüfungen und internen Evaluationen verschiedene Informationen zur Verfügung. Diese Daten können von ihnen dazu verwendet werden, den eigenen Unterricht zu reflektieren und weiterzuentwickeln. Die Studie geht auf Basis des IQB-Ländervergleichs 2012 den Fragen nach, ob und welche Daten von Lehrkräften zur Unterrichtsentwicklung herangezogen werden und ob datenbasierte Unterrichtsentwicklung mit Schülerleistung zusammenhängt. Die Betrachtung mehrerer Evaluationsverfahren ermöglicht eine kontrastierende Analyse und die Untersuchung einer gemeinsamen Verwendung mehrerer Informationsquellen. Die überwiegende Mehrheit der befragten Lehrkräfte berichtet, Evaluationsergebnisse als Ausgangspunkt zur Unterrichtsentwicklung zu verwenden. Allerdings zeigt sich Heterogenität zwischen einzelnen Unterrichtsentwicklungsaktivitäten und Lehrkräften. Zur Initiierung einzelner Entwicklungsaktivitäten werden auch mehrere Datenquellen simultan herangezogen. Ein direkter signifikanter Zusammenhang zwischen datenbasierter Unterrichtsentwicklung und Schülerleistung kann nicht festgestellt werden.

Schlüsselwörter

Interne Evaluation Vergleichsarbeiten Zentrale Abschlussprüfungen Unterrichtsentwicklung Datennutzung 

Teachers’ use of evaluation data to improve instruction and its relationship to student achievement

Abstract

In Germany, teachers can have access to results of state-wide comparison tests, centralized exit examinations and self-evaluations. These data can be used by teachers to reflect on instruction and improve it appropriately. Based on the German National Assessment Study 2012, we examine to what extent teachers use evaluation data, how teachers’ use of different evaluation data sources is interrelated, and the relationship between teachers’ use of evaluation data and student achievement. The consideration of several evaluation methods allows a contrastive analysis and the investigation of the joint use of several information sources. Results show that a substantial proportion of teachers reports using evaluation data for improving their instruction, although the extent to which they use these data varies. Teachers use multiple data sources to initiate classroom activities. Multilevel analyses revealed no significant direct effects of data-based instructional improvement on student achievement.

Keywords

Centralized examinations Data-based decision making Self-evaluation State-wide comparison tests 

Literatur

  1. Altrichter, H. (2010). Schul- und Unterrichtsentwicklung durch Datenrückmeldung. In H. Altrichter & K. Maag Merki (Hrsg.), Handbuch Neue Steuerung im Schulsytem (S. 219–254). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  2. Bach, A., Wurster, S., Thillmann, K., Pant, H. A., & Thiel, F. (2014). Vergleichsarbeiten und schulische Personalentwicklung – Ausmaß und Voraussetzungen der Datennutzung. Zeitschrift für Erziehungswissenschaft, 17(1), 61–84.CrossRefGoogle Scholar
  3. Bastian, J. (2007). Einführung in die Unterrichtsentwicklung. Weinheim: Beltz.Google Scholar
  4. Berkemeyer, N., & Müller, S. (2010). Schulinterne Evaluation – nur ein Instrument zur Selbststeuerung von Schulen? In H. Altrichter & K. Maag Merki (Hrsg.), Handbuch Neue Steuerung im Schulsystem (S. 195–218). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  5. Bischof, L. M., Hochweber, J., Hartig, J., & Klieme, E. (2013). Schulentwicklung im Verlauf eines Jahrzehnts − Erste Ergebnisse des PISA-Schulpanels. In N. Jude & E.Klieme (Hrsg.), PISA 2009 – Impulse für die Schul- und Unterrichtsforschung. (Zeitschrift für Pädagogik: 59. Beiheft, S. 172−199). Weinheim: Beltz.Google Scholar
  6. Block, R., Klein, E. D., van Ackeren, I., & Kühn, S. M. (2011). Leistungseffekte des Zentralabiturs? Eine kritische Auseinandersetzung mit bildungsökonomischen Interpretationen zu den Effekten der Prüfungsorganisation auf der Basis von PISA-E-2003-Daten. bildungsforschung, 8(1), 215–238.Google Scholar
  7. Bonsen, M., & Rolff, H.-G. (2006). Professionelle Lerngemeinschaften von Lehrerinnen und Lehrern. Zeitschrift für Pädagogik, 52(2), 167–184.Google Scholar
  8. Borman, G. D., Hewes, G. M., Overman, L. T., & Brown, S. (2003). Comprehensive school reform and achievement: A meta-analysis. Review of Educational Research, 73(2), 125–230.CrossRefGoogle Scholar
  9. Büchel, F., Jürges, H., & Schneider, K. (2003). Die Auswirkungen zentraler Abschlussprüfungen auf die Schulleitsung. Quasi-experimentelle Befunde aus der deutschen TIMSS-Stichprobe. Vierteljahresheft zur Wirtschaftsforschung, 72(2), 238–251.CrossRefGoogle Scholar
  10. Creemers, B. P. M., & Kyriakides, L. (2008). The dynamics of educational effectiveness: A contribution to policy, practice and theory in contemporary schools. London: Routledge.Google Scholar
  11. von Davier, M., Gonzalez, E., & Mislevy, R. J. (2009). What are plausible values and why are they useful? IERI Monograph Series, 2, 9–36.Google Scholar
  12. Demetriou, D., & Kyriakides, L. (2012). The impact of school self-evaluation upon student achievement: A group randomisation study. Oxford Review of Education, 38(2), 149–170.CrossRefGoogle Scholar
  13. Demski, D., Rosenbusch, C., Van Ackeren, I., Clausen, M., & Schmidt, U. (2012). Steuerung von Schule durch evidenzbasierte Einsicht? Konzeption und erste Befunde des Forschungsverbundes EviS. In S. Hornberg & M. Parreira do Amaral (Hrsg.), Deregulierung im Bildungswesen (S. 131−150). Münster: Waxmann.Google Scholar
  14. Diemer, T., & Kuper, H. (2011). Formen innerschulischer Steuerung mittels zentraler Lernstandserhebungen. Zeitschrift für Pädagogik, 57(4), 554–571.Google Scholar
  15. Ganzeboom, H. B. G., de Graaf, P. M., Treiman, D., & de Leeuw, J. (1992). A standard international socio-economic index of occupational status. Social Science Research, 21, 1–56.CrossRefGoogle Scholar
  16. Gärtner, H. (2010). Das ISQ-Selbstevaluationsportal. Konzepte eines Online-Angebots, um die Selbstevaluation in Schule und Unterricht zu unterstützen. Die Deutsche Schule, 102(2), 163–175.Google Scholar
  17. Gärtner, H. (2013). Wirksamkeit von Schülerfeedback als Verfahren der Selbstevaluation des eigenen Unterrichts. In J. Hense, S. Rädiker, W. Böttcher, & T. Widmer (Hrsg.), Forschung über Evaluation: Bedingungen, Prozesse und Wirkungen (S. 101–118). Münster: Waxmann.Google Scholar
  18. Gärtner, H., & Vogt, A. (2013). Wie Lehrkräfte Ergebnisse eines Schülerfeedbacks verarbeiten und nutzen. Unterrichtswissenschaft, 41(3), 252–267.Google Scholar
  19. Gonzalez, E., & Rutkowski, L. (2010). Principles of multiple matrix booklet designs and parameter recovery in large-scale assessments. In D. Hastedt & M. von Davier (Hrsg.), IERI monograph series: Issues and methodologies in large-scale assessments (Bd. 3, S. 125–156). Princeton: IEA-ETS Research Institute.Google Scholar
  20. Graf, T., Harych, P., Wendt, W., Emmrich, R., & Brunner, M. (2016). Wie gut können VERA-8 Testergebnisse den schulischen Erfolg am Ende der Sekundarstufe I vorhersagen? Zeitschrift für Pädagogische Psychologie, 30, 201–211.CrossRefGoogle Scholar
  21. Groot-Wilken, B. (2011). Evaluation des Schüler-Lehrer-Feedbacksystems (SEfU). journal für schulentwicklung, 15(1), 48–54.Google Scholar
  22. Groß Ophoff, J. (2013). Lernstandserhebungen: Reflexion und Nutzung. Münster: Waxmann.Google Scholar
  23. Hecht, M., Roppelt, A., & Siegle, T. (2013). Testdesign und Auswertung des Ländervergleichs. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 391–402). Münster: Waxmann.Google Scholar
  24. Helmke, A. (2010). Unterrichtsqualität und Lehrerprofessionalität. Diagnose, Evaluation und Verbesserung des Unterrichts. Seelze: Klett-Kallmeyer.Google Scholar
  25. Hofman, R. H., Dijkstra, N. J., & Hofman, W. H. A. (2009). School self-evaluation and student achievement. School Effectiveness and School Improvement, 20(1), 47–68.CrossRefGoogle Scholar
  26. ISQ (2012) = Institut für Schulqualität der Länder Berlin und Brandenburg e.V. (2012). Vergleichsarbeiten der Jahrgangsstufe 8 in Brandenburg als Beitrag zur Schul- und Unterrichtsentwicklung. Berlin: Institut für Schulqualität der Länder Berlin und Brandenburg.Google Scholar
  27. Kemethofer, D., Zuber, J., Helm, C., Demski, D., & Rieß, C. (2015). Effekte von Schulentwicklungsmaßnahmen auf Schülerinnenleistungen im Fach Mathematik. SWS-Rundschau, 55(1), 26–47.Google Scholar
  28. Klein, E. D. (2013). Statewide exit exams, governance, and school development. An international comparison. Münster: Waxmann.Google Scholar
  29. Klein, E. D., Krüger, M., Kühn, S. M., & van Ackeren, I. (2014). Wirkungen zentraler Abschlussprüfungen im Mehrebenensystem Schule. Eine Zwischenbilanz internationaler und nationaler Befunde und Forschungsdesiderata. Zeitschrift für Erziehungswissenschaft, 17(1), 7–33.Google Scholar
  30. KMK (2006) = Kultusministerkonferenz. (2006). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. München: Link Luchterhand.Google Scholar
  31. KMK (2010) = Kultusministerkonferenz. (2010). Konzeption der Kultusministerkonferenz zur Nutzung der Bildungsstandards für die Unterrichtsentwicklung. Köln: Wolters Kluwer.Google Scholar
  32. Köller, O. (2009). Bildungsstandards. In R. Tippelt & B. Schmidt (Hrsg.), Handbuch Bildungsforschung (S. 529–548). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  33. Kühle, B. (2010). Zentrale Lernstandserhebungen – ergebnisorientierte Unterrichtsentwicklung? Schulische Strategien beim Umgang mit Ergebnissen aus den Schulrückmeldungen im Kontext der ersten Lernstandserhebungen 2004/2005 in Nordrhein-Westfalen. Berlin: Köster.Google Scholar
  34. Kühn, S. M. (2013). Vergleichbarkeit beim Mittleren Schulabschluss? Ein Überblick über die Vielfalt schulstrukturell möglicher Bildungswege und Prüfungsverfahren in den deutschen Ländern. Die Deutsche Schule, 105(1), 86–101.Google Scholar
  35. Kyriakides, L., Creemers, B., Antoniou, P., & Demetriou, D. (2010). A synthesis of studies searching for school factors: Implications for theory and research. British Educational Research Journal, 36(5), 807–830.CrossRefGoogle Scholar
  36. Lai, M. K., & Schildkamp, K. (2013). Data-based decision making: An overview. In K. Schildkamp, M. K. Lai, & L. Earl (Hrsg.), Data-based decision making in education. Challenges and opportunities (S. 9–21). Heidelberg: Springer.CrossRefGoogle Scholar
  37. Lersch, R. (2011). Das Schulcurriculum. Der entscheidende Impuls für die Unterrichtsentwicklung. Lernende Schule, 14(54), 9–11.Google Scholar
  38. Maag Merki, K. (2010). Theoretische und empirische Analysen der Effektivität von Bildungsstandards, standardbezogenen Lernstandserhebungen und zentralen Abschlussprüfungen. In H. Altrichter & K. Maag Merki (Hrsg.), Handbuch Neue Steuerung im Schulsystem (S. 145–169). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  39. Maag Merki, K. (2012). Die Leistungen der Gymnasiastinnen und Gymnasiasten in Mathematik und Englisch. In K. Maag Merki (Hrsg.), Zentralabitur (S. 263–292). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  40. Maier, U. (2008a). Rezeption und Nutzung von Vergleichsarbeiten aus der Perspektive von Lehrkräften. Zeitschrift für Pädagogik, 54(1), 95–117.Google Scholar
  41. Maier, U. (2008b). Vergleichsarbeiten im Vergleich – Akzeptanz und wahrgenommener Nutzen standardbasierter Leistungsmessungen in Baden-Württemberg und Thüringen. Zeitschrift für Erziehungswissenschaft, 11(3), 453–474.CrossRefGoogle Scholar
  42. Maier, U., Metz, K., Bohl, T., Kleinknecht, M., & Schymala, M. (2012). Vergleichsarbeiten als Instrument der datenbasierten Schul- und Unterrichtsentwicklung in Gymnasien. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung. Empirische Befunde und forschungsmethodische Implikation (S. 197–224). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  43. MBK (2011) = Ministerium für Bildung und Kultur. (2011). Leitfaden zur Nutzung der Ergebnisse zentraler Prüfungen. Kiel: Ministerium für Bildung und Kultur des Landes Schleswig-Holstein.Google Scholar
  44. Nachtigall, C., & Jantowski, A. (2007). Die Thüringer Kompetenztests unter besonderer Berücksichtigung der Evaluationsergebnisse zum Rezeptionsverhalten. Empirische Pädagogik, 21(4), 401–410.Google Scholar
  45. Pant, H. A. (2013). Wer hat einen Nutzen von Kompetenzmodellen? Zeitschrift für Erziehungswissenschaft, 16(1), 71–79.CrossRefGoogle Scholar
  46. Pant, H. A., Stanat, P., Schroeders, U., Roppelt, A., Siegle, T., & Pöhlmann, C. (2013). IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I. Münster: Waxmann.Google Scholar
  47. Richter, D., Böhme, K., Becker, M., Stanat, P., & Pant, H. A. (2014). Überzeugungen von Lehrkräften zu den Funktionen von Vergleichsarbeiten: Zusammenhänge zu Veränderungen im Unterricht und den Kompetenzen der Schülerinnen und Schüler. Zeitschrift für Pädagogik, 60(2), 225–244.Google Scholar
  48. Roppelt, A., Blum, W., & Pöhlmann, C. (2013). Beschreibung der untersuchten mathematischen Kompetenzen. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 23–37). Münster: Waxmann.Google Scholar
  49. Schildkamp, K., Rekers-Mombarg, L. T. M., & Harms, T. J. (2012). Student group differences in examination results and utilization for policy and school development. School Effectiveness and School Improvement, 23(2), 229–255.CrossRefGoogle Scholar
  50. Schildkamp, K., & Visscher, A. (2009). Factors influencing the utilisation of a school self-evaluation instrument. Studies in Educational Evaluation, 35(4), 150–159.CrossRefGoogle Scholar
  51. Schildkamp, K., Visscher, A., & Luyten, H. (2009). The effects of the use of a school self-evaluation instrument. School Effectiveness and School Improvement, 20(1), 69–88.CrossRefGoogle Scholar
  52. Siegle, T., Schroeders, U., & Roppelt, A. (2013). Anlage und Durchführung des Ländervergleichs. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 101–122). Münster: Waxmann.Google Scholar
  53. Slavin, R. E., Cheung, A., Holmes, G., Madden, N. A., & Chamberlain, A. (2013). Effects of a data-driven district reform model on state assessment outcomes. American Educational Research Journal, 50(2), 371–396.CrossRefGoogle Scholar
  54. Snijders, T. A. B., & Bosker, R. J. (2012). Multilevel analysis: An introduction to basic and advanced multilevel modeling (2. Aufl.). Los Angeles: SAGE.Google Scholar
  55. Thiel, F., & Thillmann, K. (2012). Interne Evaluation als Instrument der Selbststeuerung von Schulen. In A. Wacker, U. Maier & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung. Empirische Befunde und forschungsmethodische Implikation (S. 35–55). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  56. Tymms, P. B. (1995). Influencing educational practice through performance indicators. School Effectiveness and School Improvement, 6(2), 123–145.CrossRefGoogle Scholar
  57. Vanhoof, J., Van Petegem, P., & De Maeyer, S. (2009). Attitudes towards school self-evaluation. Studies In Educational Evaluation, 35(1), 21–28.CrossRefGoogle Scholar
  58. Wacker, A., & Kramer, J. (2012). Vergleichsarbeiten in Baden-Württemberg. Zeitschrift für Erziehungswissenschaft, 15(4), 683–706.CrossRefGoogle Scholar
  59. Wilhelm, O., Schroeders, U., & Schipolowski, S. (2009). BEFKI. Berliner Test zur Erfassung fluider und kristalliner Intelligenz (Unveröffentlichtes Manuskript).Google Scholar
  60. Wößmann, L. (2008). Zentrale Abschlussprüfungen und Schülerleistungen: Individualanalysen anhand von vier internationalen Tests. Zeitschrift für Pädagogik, 54(6), 810–826.Google Scholar
  61. Wurster, S., Richter, D., Schliesing, A., & Pant, H. A. (2013). Nutzung unterschiedlicher Evaluationsdaten an Berliner und Brandenburger Schulen. Rezeption und Nutzung von Ergebnissen aus Schulinspektion, Vergleichsarbeiten und interner Evaluation im Vergleich. In F. Thiel, M. Heinrich, & I. van Ackeren (Hrsg.), Evidenzbasierte Steuerung im Bildungssystem? Befunde aus dem BMBF-Förderschwerpunkt Steuerung im Bildungssystem (SteBis) DDS – Die Deutsche Schule: 12. Beiheft. (S. 19–49). Münster: Waxmann.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2017

Authors and Affiliations

  1. 1.Institut für ErziehungswissenschaftJohannes Gutenberg Universität MainzMainzDeutschland
  2. 2.Department ErziehungswissenschaftUniversität PotsdamPotsdamDeutschland

Personalised recommendations