Mathematikunterricht und Schülerleistung in der Sekundarstufe: Zur Validität von Schülerbefragungen in Schulleistungsstudien

  • Susanne Kuger
  • Eckhard Klieme
  • Oliver Lüdtke
  • Anja Schiepe-Tiska
  • Kristina Reiss
Article

Zusammenfassung

Daten internationaler Schulleistungsstudien werden immer häufiger für Analysen des Unterrichtsgeschehens (auch im Mathematikunterricht) genutzt. Diese Daten erlauben allerdings in der Regel nur begrenzte Interpretationen der Wirksamkeit von Unterricht. Entsprechend untersucht dieser Beitrag, wie groß bei der Nutzung von Daten aus solchen Studien die Gefahr ist, die Bedeutung einzelner Unterrichtsmerkmale zu überschätzen. Zwei Erweiterungen der PISA 2012 Studie in Deutschland – zum einen die Erhebung ganzer Klassenverbände und zum anderen eine follow-up Studie ein Jahr später – wurden genutzt um die Bedeutung von acht Merkmalen der Qualität, der Aktivitäten und der Inhalte des Mathematikunterrichts zu untersuchen. In latenten Mehrebenenstrukturgleichungsmodellen (sog. doubly-latent Modelle) werden querschnittliche Zusammenhänge der Unterrichtsmerkmale mit der Schülerleistung (unter Kontrolle des Schülerhintergrunds und der Rahmenbedingungen der Klasse) gegen längsschnittliche Zusammenhänge unter Kontrolle der Vorleistung verglichen. Die Analysen zeigen, dass querschnittliche Analysen die Stärke der Bedeutung einzelner Unterrichtsmerkmale überschätzen, dass jedoch drei der vier querschnittlich bedeutsam mit Schülerleistung assoziierten Merkmale auch im Längsschnitt noch die Schülerleistung vorhersagen. Dies unterstützt die Bedeutung früherer, ausschließlich querschnittlicher Analysen unter der Voraussetzung einer adäquaten Modellierung der zu Grunde liegenden Daten.

Schlüsselwörter

Unterrichtsqualität Lehr- und Lernforschung Unterrichtsaktivitäten Unterrichtsinhalt Large-Scale Assessment 

Student learning in secondary school mathematics classrooms: On the validity of student reports in international large-scale studies

Abstract

Public availability, high data quality, and sample characteristics make data from international large-scale assessments (ILSA) attractive for secondary analyses, and more and more researcher use them to analyze teaching and learning in students’ classrooms. However, for several reasons ILSA data is limited in its scope, and conclusions on educational effectiveness are restricted. This study specifically intends to evaluate the potential danger of overestimating the effectiveness of indicators of teaching and learning based on ILSA data. We take advantage of two extensions to the German sample for the Programme for International Student Assessment (PISA) 2012 study: The sample was enhanced a) by adding students from entire 9th grade classrooms and b) by a repeated measurement, re-testing all participants one year later in 10th grade. This study analyzed eight indicators of students’ reports on teaching and learning in their mathematics classrooms. Regression analyses in multi-level structural equation models (doubly-latent models) compared results of cross-sectional analyses (controlling for individual background and classroom level characteristics) with a longitudinal extension (controlling for prior achievement). Results only partially confirm common practice to use ILSA data to study educational effectiveness of classroom level processes. Cross-sectional analyses overestimate effectiveness results, but three out of four indicators that are cross-sectionally related to student achievement are also related to students’ achievement development in grade 10. Assuming that previous studies modeled and interpreted the data correctly, the importance of their results in debates on educational effectiveness is thus underlined.

Keywords

Teaching quality Teaching practices Mathematics teaching Teaching Effectiveness Large-scale assessment 

Literatur

  1. Baumert, J., Blum, W., Brunner, M., Dubberke, T., Jordan, A., Klusmann, U., Krauss, S., Kunter, M., Löwen, K., Neubrand, M., & Tsai, Y.-M. (2009). Professionswissen von Lehrkräften, kognitiv aktivierender Mathematikunterricht und die Entwicklung von mathematischer Kompetenz (COACTIV): Dokumentation der Erhebungsinstrumente (Materialien aus der Bildungsforschung Nr. 83). Berlin: Max-Planck-Institut für Bildungsforschung.Google Scholar
  2. Baumert, J., Kunter, M., Blum, W., Brunner, M., Voss, T., Jordan, A., Klusmann, U., Krauss, S., Neubrand, M., & Tsai, Y.-M. (2010). Teachers’ mathematical knowledge, cognitive activation in the classroom, and student progress. American Educational Research Journal, 47(1), 133–180.CrossRefGoogle Scholar
  3. Baumert, J., & Schümer, G. (2001). Familiäre Lebensverhältnisse, Bildungsbeteiligung und Kompetenzerwerb. In J. Baumert, E. Klieme, M. Neubrand, M. Prenzel, U. Schiefele, W. Schneider, P. Stanat, K.-J. Tillmann & M. Weiß (Hrsg.), PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich (S. 323–407). Opladen: Leske + Budrich.Google Scholar
  4. Berliner, D. C. (2005). The near impossibility of testing for teacher quality. Journal of Teacher Education, 56, 205–213. doi:10.1177/0022487105275904.CrossRefGoogle Scholar
  5. Blömeke, S. (2009). Allgemeine Didaktik ohne empirische Lernforschung? Perspektiven einer reflexiven Bildungsforschung. In K.-H. Arnold, S. Blömeke, R. Messner & J. Schlömerkemper (Hrsg.), Allgemeine Didaktik und Lehr-Lernforschung. Kontroversen und Entwicklungsperspektiven einer Wissenschaft vom Unterricht (S. 13–25). Bad Heilbrunn: Klinkhardt.Google Scholar
  6. Bonsen, M., Gröhlich, C., & Bos, W. (2009). Differentielle Lern- und Entwicklungsmilieus in der Hamburger Beobachtungsstufe? In W. Bos, M. Bonsen, C. Gröhlich, K. Guill, P. May, A. Rau, T. Stubbe, U. Vieluf & H. Wocken (Hrsg.), KESS 7 – Kompetenzen und Einstellungen von Schülerinnen und Schülern – Jahrgangsstufe 7 (S. 113–122). Münster: Waxmann.Google Scholar
  7. Bromme, R., Seeger, F., & Steinbring, H. (1990). Aufgaben als Anforderungen an Lehrer und Schüler. Köln: Aulis.Google Scholar
  8. Brophy, J. (2000). Teaching. Educational practices series. 1. Geneva: IBE.Google Scholar
  9. Bülter, H., & Meyer, H. (2004). Was ist ein lernförderliches Klima? Voraussetzungen und Wirkungen. Pädagogik, 11, 31–36.Google Scholar
  10. Cappella, E., Aber, J. L., & Kim, H. K. (2016). Teaching beyond achievement tests: Perspectives from developmental an educational science. In D. Gitomer & C. Bell (Hrsg.), Handbook of research on teaching (S. 249–348). Washington DC: American Educational Research Association.CrossRefGoogle Scholar
  11. Carnoy, M., Khavenson, T., Loyalka, P., Schmidt, W. H., & Zakharov, A. (2016). Revisiting the relationship between international assessment outcomes and educational production: evidence from a longitudinal PISA-TIMSS sample. American Educational Research Journal, 53(4), 1054–1085. doi:10.3102/0002831216653180.CrossRefGoogle Scholar
  12. Caro, D. H., Lenkeit, J., & Kyriakides, L. (2016). Teaching strategies and differential effectiveness across learning contexts: evidence from 5PISA6 2012. Studies in Educational Evaluation, 49, 30–41. doi:10.1016/j.stueduc.2016.03.005.CrossRefGoogle Scholar
  13. Christiansen, B., & Walther, G. (1986). Task and activity. In A. B. Christiansen, G. Howson & M. Otte (Hrsg.), Perspectives on mathematics education (S. 243–307). Dordrecht: Reidel.CrossRefGoogle Scholar
  14. Creemers, B., & Kyriakides, L. (2010). School factors explaining achievement on cognitive and affective outcomes: establishing a dynamic model of educational effectiveness. Scandinavian Journal of Educational Research, 54(3), 263–294.CrossRefGoogle Scholar
  15. Decristan, J., Klieme, E., Kunter, M., Hochweber, J., Büttner, G., Fauth, B., Hondrich, A. L., Rieser, S., Hertel, S., & Hardy, I. (2015). Embedded formative assessment and classroom process quality: How do they interact in promoting students’ science understanding? American Educational Research Journal, 52(6), 1133–1159.CrossRefGoogle Scholar
  16. Drollinger-Vetter, B. (2006). Kognitiver Anspruchsgehalt der Aufgabenstellung. In E. Klieme, C. Pauli & K. Reusser (Hrsg.), Dokumentation der Erhebungs- und Auswertungsinstrumente zur schweizerisch-deutschen Videostudie „Unterrichtsqualität, Lernverhalten und mathematisches Verständnis“. 3. Videoanalysen Materialien zur Bildungsforschung, 15. (S. 148–164). Frankfurt am Main: GFPF.Google Scholar
  17. Dumont, H., Neumann, M., Maaz, K., & Trautwein, U. (2013). Die Zusammensetzung der Schülerschaft als Einflussfaktor für Schulleistungen. Internationale und nationale Befunde. Psychologie in Erziehung und Unterricht, 60, 163–183.CrossRefGoogle Scholar
  18. Einsiedler, W., & Hardy, I. (2010). Kognitive Strukturierung im Unterricht: Einführung und Begriffsklärungen. Unterrichtswissenschaft, 38(3), 194–209.Google Scholar
  19. Emmer, E. T., & Stough, L. M. (2001). Classroom management: a critical part of educational psychology, with implications for teacher education. Educational Psychologist, 36, 103–112.CrossRefGoogle Scholar
  20. Fauth, B., Decristan, J., Rieser, S., Klieme, E., & Büttner, G. (2014). Student ratings of teaching quality in primary school: dimensions and prediction of student outcomes. Learning and Instruction, 29, 1–9.CrossRefGoogle Scholar
  21. Gärtner, H. (2015). Zusammenhang von Schul- und Unterrichtsqualität und schulischen Rahmenbedingungen. In M. Pietsch, B. Scholand & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (S. 273–294). Münster: Waxmann.Google Scholar
  22. Gitomer, D., & Bell, C. (Hrsg.). (2016). Handbook of research on teaching. Washington DC: American Educational Research Association.Google Scholar
  23. Givvin, K. B., Hiebert, J., Jacobs, J. K., Hollingsworth, H., & Gallimore, R. (2005). Are there national patterns of teaching? Evidence from the TIMSS 1999 Video Study. Comparative Education Review, 49(3), 311–343.CrossRefGoogle Scholar
  24. Good, T. L., Wiley, C. R. H., & Florez, I. R. (2009). Effective teaching: an emerging synthesis. In L. J. Saha & A. G. Dworkin (Hrsg.), International handbook of research on teachers and teaching (S. 803–816). Boston: Springer US.CrossRefGoogle Scholar
  25. Greving, B. (2009). Messen und Skalieren von Sachverhalten. In S. Albers, D. Klapper, U. Konradt, A. Walter & J. Wolf (Hrsg.), Methodik der empirischen Forschung (S. 65–78). Wiesbaden: Gabler.CrossRefGoogle Scholar
  26. Hardy, I., Decristan, J. & Klieme, E. (eingereicht). Adaptive Teaching as a Core Construct of Instruction. Journal of Educational Research Online. Google Scholar
  27. Hattie, J. (2009). Visible learning: a synthesis of over 800 meta-analyses relating to achievement. London: Routledge, Taylor & Francis.Google Scholar
  28. Heine, J. H., Nagy, G., Meinck, S., Zühlke, O., Mang, J. (2017). Empirische Grundlage, Stichprobenausfall und Adjustierung im PISA-Längsschnitt 2012–2013. Zeitschrift für Erziehungswissenschaft. doi:10.1007/s11618-017-0756-0.
  29. Helmke, A. (2014). Unterrichtsqualität und Lehrerprofessionalität. Diagnose, Evaluation und Verbesserung des Unterrichts (5. Aufl.). Wiesbaden: Klett Kallmeyer.Google Scholar
  30. Helmke, A., & Schrader, F.-W. (2009). Qualitätsmerkmale „guten Unterrichts“. In S. Hellekamps, W. Plöger & W. Wittenbruch (Hrsg.), Schule Handbuch für Erziehungswissenschaft, (Bd. II/1, S. 701–712). Paderborn: Schöningh.Google Scholar
  31. Hiebert, J., Gallimore, R., Garnier, H., Givvin, K. B., Hollingsworth, H., Jacobs, J. K., Wearne, D., Smith, M., Kersting, N., & Stigler, J. (2003). Teaching mathematics in seven countries: results from the TIMSS 1999 video study. Washington, DC: U.S. Department of Education, National Center for Educational Statistics.Google Scholar
  32. Hochweber, J., Hosenfeld, I., & Klieme, E. (2014). Classroom composition, classroom management, and the relationship between student attributes and grades. Journal of Educational Psychology, 106(1), 289–300.CrossRefGoogle Scholar
  33. Hoover, M., Mullis, I. V. S., & Martin, M. O. (2013). TIMSS 2015 context questionnaire framework. In I. V. S. Mullis & M. O. Martin (Hrsg.), TIMSS 2015 assessment frameworks (S. 61–83). Chestnut Hill: Boston College. http://timssandpirls.bc.edu/timss2015/downloads/T15_FW_Chap3.pdf.Google Scholar
  34. Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: conventional criteria versus new alternatives. Structural Equation Modeling: A Multidisciplinary Journal, 6(1), 1–55. doi:10.1080/10705519909540118.CrossRefGoogle Scholar
  35. Hugener, I. (2008). Inszenierungsmuster im Unterricht und Lernqualität. Sichtstrukturen schweizerischen und deutschen Mathematikunterrichts in seiner Beziehung zur Schülerwahrnehmung und Lernleistung – eine Videoanalyse. Münster: Waxmann.Google Scholar
  36. Janík, T., & Seidel, T. (2009). The power of video studies in investigating teaching and learning in the classroom. Münster: Waxmann.Google Scholar
  37. Jordan, A., Ross, N., Krauss, S., Baumert, J., Blum, W., Neubrand, M., Löwen, K., Brunner, M., & Kunter, M. (2006). Klassifikationsschema für Mathematikaufgaben. Dokumentation der Aufgabenkategorisierung im COACTIV-Projekt. Berlin: Max-Planck-Institut für Bildungsforschung.Google Scholar
  38. Klieme, E. (2006). Empirische Unterrichtsforschung: aktuelle Entwicklungen, theoretische Grundlagen und fachspezifische Befunde. Einführung in den Thementeil. Zeitschrift für Pädagogik, 52(6), 765–773.Google Scholar
  39. Klieme, E. (2012). The role of lage-scale assessments in research on educational effectiveness and school development. In M. von Davier, E. Gonzalez, I. Kirsch & K. Yamamoto (Hrsg.), The role of international large-scale assessments: perspectives from technology, economy, and educational research (S. 115–148). Heidelberg: Springer.Google Scholar
  40. Klieme, E., Backhoff, E., Blum, W., Hong, Y., Kaplan, D., Levin, H., Scheerens, J., Schmidt, W., van de Vijver, A. J. R., & Vieluf, S. (2013). PISA 2012 context questionnaire framework. In OECD (Hrsg.), PISA 2012 assessment and analytical framework (S. 167–208). Paris: OECD.Google Scholar
  41. Klieme, E., & Kuger, S. (2016). PISA 2015 context questionnaires framework: monitoring opportunities and outcomes, policies and practices modelling patterns and relations, impacts and trends in education. In Organisation for economic co-operation and development (OECD) (Hrsg.), PISA 2015 assessment and analytical framework (S. 101–127). Paris: OECD Publishing..Google Scholar
  42. Klieme, E., & Rakoczy, K. (2003). Unterrichtsqualität aus Schülerperspektive: Kulturspezifische Profile, regionale Unterschiede und Zusammenhänge mit Effekten von Unterricht. In J. Baumert, C. Artelt, E. Klieme, M. Neubrand, M. Prenzel, U. Schiefele, W. Schneider & K.-J. Tillmann (Hrsg.), PISA 2000. Ein differenzierter Blick auf die Länder der Bundesrepublik Deutschland (S. 334–359). Opladen: Leske + Budrich.Google Scholar
  43. Klieme, E., Pauli, C., & Reusser, K. (2005). Dokumentation der Erhebungs- und Auswertungsinstrumente zur schweizerisch-deutschen Videostudie „Unterrichtsqualität, Lernverhalten und mathematisches Verständnis“. Frankfurt am Main: GFPF.Google Scholar
  44. Klieme, E., Pauli, C., & Reusser, K. (2009). The Pythagoras study: investigating effects of teaching and learning in Swiss and German mathematics classrooms. In T. Janik & T. Seidel (Hrsg.), The power of video studies in investigating teaching and learning in the classroom (S. 137–160). Münster: Waxmann.Google Scholar
  45. Klieme, E., Schümer, G., & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung. In E. Klieme & J. Baumert (Hrsg.), TIMSS – Impulse für Schule und Unterricht. Forschungsbefunde, Reforminitiativen, Praxisberichte und Video-Dokumente (S. 43–58). Bonn: Bundesministerium für Bildung und Forschung (BMBF).Google Scholar
  46. Klieme, E., Steinert, B., & Hochweber, J. (2010). Zur Bedeutung der Schulqualität für Unterricht und Lernergebnisse. In W. Bos, E. Klieme & O. Köller (Hrsg.), Schulische Lerngelegenheiten und Kompetenzentwicklung. Festschrift für Jürgen Baumer (S. 231–255). Münster: Waxmann.Google Scholar
  47. Klieme, E., & Vieluf, S. (2013). Schulische Bildung im internationalen Vergleich: Ein Rahmenmodell für Kontextanalysen in PISA. Zeitschrift Für Pädagogik Beiheft, 59, 229–246.Google Scholar
  48. Knoll, S. (2003). Verwendung von Aufgaben in Einführungsphasen des Mathematikunterrichtes. Edition Wissenschaftliche Reihe Pädagogik, Bd. 66. Marburg: Tectum.Google Scholar
  49. Kounin, J. S. (1970). Discipline and group management in classrooms. Huntington: R. E. Krieger.Google Scholar
  50. Kuger, S., & Klieme, E. (2016). Dimensions of context assessment. In S. Kuger, E. Klieme & D. Kaplan (Hrsg.), Assessing contexts of learning: an international perspective (S. 3–38). Dortrecht: Springer.CrossRefGoogle Scholar
  51. Kunter, M., & Voss, T. (2011). Das Modell der Unterrichtsqualität in COACTIV: Eine multikriteriale Analyse. In M. Kunter, J. Baumert, W. Blum, U. Klusmann, S. Krauss & M. Neubrand (Hrsg.), Professionelle Kompetenz von Lehrkräften – Ergebnisse des Forschungsprogramms COACTIV (S. 85–113). Münster: Waxmann.Google Scholar
  52. Kunter, M., & Ewald, S. (2016). Bedingungen und Effekte guten Unterrichts: Aktuelle Forschungsperspektiven aus der pädagogischen Psychologie. In N. McElvany, W. Bos, H. G. Holtappels, M. M. Gebauer & F. Schwabe (Hrsg.), Bedingungen und Effekte guten Unterrichts Dortmunder Symposium der Empirischen Bildungsforschung, (Bd. 1, S. 9–32). Münster: Waxmann.Google Scholar
  53. Kunter, M., & Trautwein, U. (2013). Psychologie des Unterrichts. Paderborn: UTB.Google Scholar
  54. Kunter, M., Dubberke, T., Baumert, J., Blum, W., Brunner, M., Jordan, A., Klusmann, U., Krauss, S., Löwen, K., Neubrand, M. & Tsai, Y.-M. (2006). Mathematikunterricht in den PISA-Klassen 2004: Rahmenbedingungen, Formen und Lehr-Lernprozesse. In M. Prenzel, J. Baumert, W. Blum, R. Lehmann, D. Leutner, M. Neubrand, R. Pekrun, J. Rost & U. Schiefele (Hrsg.). PISA 2003. Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres (S. 161-193). Münster: Waxmann.Google Scholar
  55. Kyriakides, L., Creemers, B., Antoniou, P., & Demetriou, D. (2010). A synthesis of studies searching for school factors: implications for theory and research. British Educational Research Journal, 36(5), 807–830.CrossRefGoogle Scholar
  56. LessonLab Inc. (ohne Jahr). TIMSS-R Video Math Coding Manual. Abgerufen am 1. Apr. 2016 von http://timssvideo.com/sites/default/files/Math%20Coding%20Manual.pdf.
  57. Little, T. D., Rhemtulla, M., Gibson, K., & Schoemann, A. M. (2013). Why the items versus parcels controversy needn’t be one. Psychological Methods, 18(3), 285–300. doi:10.1037/a0033266.CrossRefGoogle Scholar
  58. Lipowsky, F., Rakoczy, K., Pauli, C., Drollinger-Vetter, B., Klieme, E., & Reusser, K. (2009). Quality of geometry instruction and its short-term impact on students’ understanding of the pythagorean theorem. Learning and Instruction, 19(6), 527–537.CrossRefGoogle Scholar
  59. Lipowsky, F. (2015). Unterricht. In E. Wild & J. Möller (Hrsg.), Pädagogische Psychologie (2. Aufl. S. 69–105). Heidelberg: Springer.Google Scholar
  60. Loveless, T. (2008). The misplaced math student. Lost in eight-grade algebra. Washington: Brookings.Google Scholar
  61. Lüdtke, O., Robitzsch, A., Trautwein, U., & Kunter, M. (2009). Assessing the impact of learning environments: how to use student ratings of classroom or school characteristics in multilevel modeling. Contemporary Educational Psychology, 34, 120–131.CrossRefGoogle Scholar
  62. Marsh, H. W., Hau, K.-T., & Wen, Z. (2004). In search of golden rules: comment on hypothesis-testing approaches to setting cutoff values for fit indexes and dangers in overgeneralizing Hu and Bentler’s (1999) findings. Structural Equation Modeling: A Multidisciplinary Journal, 11(3), 320–341. doi:10.1207/s15328007sem1103_2.CrossRefGoogle Scholar
  63. Marsh, H. W., Lüdtke, O., Nagengast, B., Trautwein, U., Morin, A. J. S., Abduljabbar, A. S., & Köller, O. (2012). Classroom climate and contextual effects: conceptual and methodological issues in the evaluation of group-level effects. Educational Psychologist, 47(2), 106–124. doi:10.1080/00461520.2012.670488.CrossRefGoogle Scholar
  64. Marsh, H. W., Lüdtke, O., Robitzsch, A., Trautwein, U., Asparouhov, T., Muthén, B. O., & Nagengast, B. (2009). Doubly-latent models of school contextual effects: integrating multilevel and structural equation approaches to control measurement and sampling error. Multivariate Behavioral Research, 44, 764–802.CrossRefGoogle Scholar
  65. Mayer, R. E. (2004). Should there be a three-strikes rule against pure discovery learning? Thecase for guided methods of instruction. American Psychologist, 59(1), 14–19.CrossRefGoogle Scholar
  66. McElvany, N., Bos, W., Holtappels, H. G., Gebauer, M. M., & Schwabe, F. (2016). Bedingungen und Effekte guten Unterrichts. Münster: Waxmann.Google Scholar
  67. Meyer, H. (1987). Unterrichtsmethoden. Bd. I. Frankfurt: Scriptor.Google Scholar
  68. Meyer, H. (2004). Was ist guter Unterricht? Berlin: Cornelsen Scriptor.Google Scholar
  69. Meyer, M. A., Prenzel, M., & Hellekamps, S. (2008). Perspektiven der Didaktik. Zeitschrift für Erziehungswissenschaft, Sonderheft 9. Berlin: VS.Google Scholar
  70. Mitchell, M. M., & Bradshaw, C. P. (2013). Examining classroom influences on student perceptions of school climate: the role of classroom management and exclusionary discipline strategies. Journal of School Psychology, 51(5), 599–610. doi:10.1016/j.jsp.2013.05.005.CrossRefGoogle Scholar
  71. Morin, A. J. S., Marsh, H. W., Nagengast, B., & Scalas, L. F. (2014). Doubly latent multilevel analyses of classroom climate: an illustration. The Journal of Experimental Education, 82(2), 143–167. doi:10.1080/00220973.2013.769412.CrossRefGoogle Scholar
  72. Müller, K., Prenzel, M., Seidel, T., Schiepe-Tiska, A., & Kjærnsli, M. (2016). Science teaching and learning in schools: theoretical and empirical foundations for investigating classroom-level processes. In S. Kuger, E. Klieme, N. Jude & D. Kaplan (Hrsg.), Assessing contexts of learning: an international perspective. Dordrecht: Springer.Google Scholar
  73. Mullis, I. V. S., & Martin, M. O. (Hrsg.). (2013). TIMSS 2015 assessment frameworks. Chestnut Hill: TIMSS & PIRLS International Study Center, Boston College.Google Scholar
  74. Mullis, I. V. S., Martin, M. O., Goh, S., & Cotter, K. (Hrsg.). (2016). TIMSS 2015 Encyclopedia: Education Policy and Curriculum in Mathematics and Science. Abgerufen von Boston College, TIMSS & PIRLS International Study Center website. http://timssandpirls.bc.edu/timss2015/encyclopedia/. Zugegriffen: 02. Mai 2017.Google Scholar
  75. Nagy, G., Lüdtke, O., Heine, J.-H. & Köller, O. (2017). IRT-Skalierung der Tests im PISA-Längsschnitt 2012/2013: Auswirkungen von Testkontexteffekten auf die Zuwachsschätzung. Zeitschrift für Erziehungswissenschaft. doi:10.1007/s11618-017-0749-z.Google Scholar
  76. Neubrand, J. (2002). Eine Klassifikation mathematischer Aufgaben zur Analyse von Unterrichtssituationen – Selbsttätiges Arbeiten in Schülerarbeitsphasen in den Stunden der TIMSS-Video-Studie. Hildesheim: Franzbecker.Google Scholar
  77. Nilsen, T. & Gustafsson, J.-E. (Hrsg.). (2016). Teacher Quality, Instructional Quality and Student Outcome. Relationships Across Countries, Cohorts and Time. Cham: Springer International Publishing. doi:10.1007/978-3-319-41252-8.
  78. Opdenakker, M.-C., & Van Damme, J. (2007). Do school context, student composition and school leadership affect school practice and outcomes in secondary education? British Educational Research Journal, 33, 179–206.CrossRefGoogle Scholar
  79. OECD (2013a). PISA 2012 Results: What Makes Schools Successful? Resources, Policies and Practices (Volume IV). Paris: OECD Publishing. doi:10.1787/9789264201156-en.
  80. OECD (2013b). Teaching and learning international survey TALIS 2013: conceptual framework. Paris: OECD Publishing. http://www.oecd.org/edu/school/TALIS%20Conceptual%20Framework_FINAL.pdf.Google Scholar
  81. OECD (2013c). PISA 2012 Assessment and Analytical Framework: Mathematics, Reading, Science, Problem Solving and Financial Literacy. Paris: OECD Publishing. doi:10.1787/9789264190511-en.
  82. OECD (2014). Technical report PISA 2012. Paris: OECD.Google Scholar
  83. Oser, F., & Baerswyl, F. J. (2001). Choreographies of teaching: bridging instruction and learning. In V. Richardson (Hrsg.), Handbook of research on teaching (4. Aufl. S. 1031–1065). Washington: American Educational Research Association.Google Scholar
  84. Pianta, R. C. & Hamre, B. K. (2009). Conceptualization, measurement, and improvement of classroom processes: Standardized observation can leverage capacity. Educational researcher, 38(2), 109–119. doi:10.3102/0013189X09332374.
  85. Pinger, P., Rakoczy, K., Besser, M. & Klieme, E. (eingereicht). The Interplay of Formative Assessment and Instructional Quality – Interactive Effects on Students’ Mathematics Achievement. Learning Environments Research.Google Scholar
  86. Praetorius, A.-K., Pauli, C., Reusser, K., Rakoczy, K., & Klieme, E. (2014). One lesson is all you need? Stability of instructional quality across lessons. Learning and Instruction, 31, 2–12.CrossRefGoogle Scholar
  87. Prenzel, M., Baumert, J., Blum, W., Lehmann, R., Leutner, D., Neubrand, M., Pekrun, R., Rost, J. & Schiefele, U. (Hrsg.). (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster: Waxmann.Google Scholar
  88. Rakoczy, K., Klieme, E., Lipowsky, F., & Drollinger-Vetter, B. (2010). Strukturierung, kognitive Aktivität und Leistungsentwicklung im Mathematikunterricht. Unterrichtswissenschaft, 38(3), 229–246.Google Scholar
  89. Retelsdorf, J., & Möller, J. (2008). Entwicklungen von Lesekompetenz und Lesemotivation Schereneffekte in der Sekundarstufe? Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie, 40(4), 179–188. doi:10.1026/0049-8637.40.4.179.CrossRefGoogle Scholar
  90. Rubin, D. B. (1987). Multiple imputation for nonresponse in surveys. New York: Wiley & Sons.CrossRefGoogle Scholar
  91. Rutkowski, L. (2016). Introduction to special issue on quasi-causal methods. Large-scale Assessments in Education, 4(1), 8. doi:10.1186/s40536-016-0023-5.CrossRefGoogle Scholar
  92. Rutkowski, D., & Delandshere, G. (2016). Causal inferences with large scale assessment data: using a validity framework. Large-scale Assessments in Education, 4(1), 6. doi:10.1186/s40536-016-0019-1.CrossRefGoogle Scholar
  93. Ryan, R. M., & Deci, E. L. (2000). Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist, 55(1), 68–78.CrossRefGoogle Scholar
  94. Schiepe-Tiska, A., Heine, J.-H., Lüdtke, O., Seidel, T., & Prenzel, M. (2016). Mehrdimensionale Bildungsziele im Mathematikunterricht und ihr Zusammenhang mit den Basisdimensionen der Unterrichtsqualität. Unterrichtswissenschaft, 44(3), 211–225.Google Scholar
  95. Schiepe-Tiska, A., & Schmidtner, S. (2013). Mathematikbezogene emotionale und motivationale Orientierungen, Einstellungen und Verhaltensweisen von Jugendlichen in PISA 2012. In M. Prenzel, C. Sälzer, E. Klieme & O. Köller (Hrsg.), PISA 2012. Fortschritte und Herausforderungen in Deutschland (S. 99–122). Münster: Waxmann.Google Scholar
  96. Scheerens, J., & Bosker, R. J. (1997). The foundations of educational effectiveness. Oxford: Elsevier Science Ltd..Google Scholar
  97. Schmidt, W. H., Burroughs, N. A., Zoido, P., & Houang, R. T. (2015). The role of schooling in perpetuating educational inequality: an international perspective. Educational Researcher, 44(7), 371–386. doi:10.3102/0013189x15603982.CrossRefGoogle Scholar
  98. Schmidt, W. H., McKnight, C. C., Houang, R. T., Wang, H., Wiley, D. E., Cogan, L. S., & Wolfe, R. G. (2001). Why schools matter: a cross-national comparison of curriculum and learning. San Francisco: Jossey-Bass.Google Scholar
  99. Seidel, S. (2003). Kapitel 6. Sichtstrukturen – Organisation unterrichtlicher Aktivitäten. In T. Seidel, M. Prenzel, R. Duit & M. Lehrke (Hrsg.), Technischer Bericht zur Videostudie „Lehr-Lern-Prozesse im Physikunterricht“ (S. 113–128). Kiel: IPN. ftp://ftp.rz.uni-kiel.de/pub/ipn/misc/TechnBerichtVideostudie-VH.pdf.Google Scholar
  100. Seidel, T. (2009). Klassenführung. In E. Wild & J. Möller (Hrsg.), Pädagogische Psychologie (S. 135–148). Berlin: Springer.CrossRefGoogle Scholar
  101. Seidel, T., & Shavelson, R. J. (2007). Teaching effectiveness research in the past decade: role of theory and research design in disentangling meta-analysis results. Review of Educational Research, 77, 454–499.CrossRefGoogle Scholar
  102. Sprick, R. S. (2013). Discipline in the secondary classroom: a positive approach to behavior management (3. Aufl.). San Francisco: Jossey-Bass.Google Scholar
  103. Terhart, E. (2002). Fremde Schwestern. Zeitschrift für Pädagogische Psychologie, 16(2), 77–86. doi:10.1024//1010-0652.16.2.77.CrossRefGoogle Scholar
  104. Terhart, E. (2013). Erziehungswissenschaft und Lehrerbildung. Münster: Waxmann.Google Scholar
  105. Vieluf, S., Hochweber, J., Klieme, E., & Kunter, M. (2015). Who has a good relationship with the teachers? A comparison of comprehensive education systems with education systems using between-school tracking. Oxford Review of Education, 41(1), 3–25.CrossRefGoogle Scholar
  106. Vieluf, S., Kaplan, D., Klieme, E., & Bayer, S. (2012). Teaching practices and pedagogical innovations: evidence from TALIS. Paris: OECD.CrossRefGoogle Scholar
  107. Wang, M. C., Haertel, G. D., & Walberg, H. J. (1993). Toward a knowledge base for school learning. Review of Educational Research, 63(3), 249–294. doi:10.3102/00346543063003249.CrossRefGoogle Scholar
  108. Walther, G. (1985). Zur Rolle von Aufgaben im Mathematikunterricht. In GDM (Hrsg.), Beiträge zum Mathematikunterricht 1985 (S. 28–42). Bad Salzdetfurth: Franzbecker.Google Scholar
  109. Wittmann, E. C. (1981). Grundfragen des Mathematikunterrichts (6. Aufl.). Braunschweig Wiesbaden: Vieweg.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2017

Authors and Affiliations

  • Susanne Kuger
    • 1
  • Eckhard Klieme
    • 1
  • Oliver Lüdtke
    • 2
  • Anja Schiepe-Tiska
    • 3
  • Kristina Reiss
    • 3
  1. 1.Abteilung Bildungsqualität und EvaluationDeutsches Institut für Internationale Pädagogische Forschung (DIPF)FrankfurtDeutschland
  2. 2.Leibniz Institut für die Pädagogik der Naturwissenschaften und MathematikKielDeutschland
  3. 3.TUM School of EducationMünchenDeutschland

Personalised recommendations