Advertisement

Theoretische und empirische Analysen der Effektivität von Bildungsstandards, standardbezogenen Lernstandserhebungen und zentralen Abschlussprüfungen

  • Katharina Maag MerkiEmail author
Chapter
Part of the Educational Governance book series (EDUGOV, volume 7)

Zusammenfassung

Die Entwicklung und Implementation von Bildungsstandards, die Einführung von standardbezogenen Lernstandserhebungen sowie von zentralen Abschlussprüfungen sind Kernbereiche der in den letzten Jahren in vielen Ländern implementierten Output-Steuerung. In diesem Artikel erfolgen zunächst eine Klärung der Konzepte sowie die Darstellung der entsprechenden Verfahren in den deutschsprachigen Ländern. Danach wird die Wirkungslogik der Verfahren theoretisch dargestellt. Im dritten Teil werden auf Grundlage empirischer Studien in den USA und in Deutschland Effekte zentraler Abschlussprüfungen auf das Lernen der Schüler/innen, die Lehrpersonen, den Unterricht und die Schule präsentiert. In der Bilanz werden die dargelegten Wirkungshoffnungen an den präsentierten empirischen Ergebnissen gemessen. Die Analysen verweisen neben positiven Effekten auf eine Diskrepanz zwischen dem, was beabsichtigt und theoretisch erwartet wird, und dem, was konkret in der Umsetzung beobachtet werden kann. Vorschläge für ein lernförderliches Monitoringsystem werden diskutiert.

Schlüsselwörter

Output-Steuerung zentrale Abschlussprüfungen Zentralabitur No child left behind (NCLB) Bildungsstandards Evaluation Low-stakes und high-stakes Testsystem Schul- und Unterrichtsentwicklung 

Literatur

  1. Abbott, D. V. (2008). A functionality framework for educational organizations: Achieving accountability at scale. In E. B. Mandinach & M. Honey (Hrsg.), Data-Driven school improvement (S. 257–276). New York: Teachers College PressGoogle Scholar
  2. Abrams, L.M. (2007). Implications of high-stakes testing for the use of formative classroom assessment. In J. H. McMillan (Hrsg.), Formative classroom assessment (S. 79–98). New York: Teachers College Press.Google Scholar
  3. Abrams, L. M., & Madaus, G. F. (2003). The lessons of high-stakes testing. Educational Leadership, 61(3), 31–35.Google Scholar
  4. Abs, H. J., Maag Merki, K., & Klieme, E. (2006). Grundlegende Gütekriterien für Schulevaluation. In W. Böttcher, H. G. Holtappels, & M. Brohm (Hrsg.), Evaluation im Bildungswesen (S. 97–108). Weinheim: Juventa.Google Scholar
  5. Ackeren, I. v., & Bellenberg, G. (2004). Parallelarbeiten, Vergleichsarbeiten und Zentrale Abschlussprüfungen. In H. G. Holtappels, K. Klemm, H. Pfeiffer, H.-G. Rolff, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung. (Bd. 13, S. 125–159). Weinheim: Juventa.Google Scholar
  6. AERA (American Educational Research Association) (2000). AERA Position statement on high-stakes testing in Pre-K – 12 Education. Washington, DC: AERA. http://www.aera.net/AboutAERA/AERARulesPolicies/AERAPolicyStatements/PositionStatementonHighStakesTesting/tabid/11083/Default.aspx. Zugegriffen: 02. Juli 2014.
  7. Altrichter, H. (2000). Wie können Schulen lernen? In U. P. Trier (Hrsg.), Bildungswirksamkeit zwischen Forschung und Politik (S. 71–90). Chur: Rüegger.Google Scholar
  8. Altrichter, H., & Heinrich, M. (2005). Schulprofilierung und Transformation schulischer Governance. In X. Büeler, A. Buholzer, & M. Roos (Hrsg.), Schulen mit Profil (S. 125–140). Innsbruck: Studien Verlag.Google Scholar
  9. Altrichter, H., & Heinrich, M. (2007). Kategorien der Governance-Analyse und Transformationen der Systemsteuerung in Österreich. In H. Altrichter, T. Brüsemeister, & J. Wissinger (Hrsg.), Educational governance (S. 55–103). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  10. Altrichter, H., Messner, E., & Posch, P. (2006). Schulen evaluieren sich selbst. Seelze: Klett.Google Scholar
  11. Amrein, A. L., & Berliner, D. C. (2002). High-stakes testing, uncertainty, and student learning. Education Policy Analysis Archives, 10 (18). http://epaa.asu.edu/ojs/article/viewFile/297/423. Zugegriffen: 02. Juli 2014.
  12. Appius, S., & Holmeier, M. (2012). Beurteilung der Abituraufgaben und Korrekturhinweise. In K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen zentraler Abiturprüfungen in Deutschland (S. 353–381). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  13. Au, W. (2007). High-stakes testing and curricular control: A qualitative metasynthesis. Educational Researcher, 36(5), 258–267.CrossRefGoogle Scholar
  14. Baumert, J., & Watermann, R. (2000). Institutionelle und regionale Variabilität und die Sicherung gemeinsamer Standards in der gymnasialen Oberstufe. In J. Baumert, W. Bos, & R. Lehmann (Hrsg.), TIMSS/III. Dritte Internationale Mathematik- und Naturwissenschaftsstudie – Mathematische und naturwissenschaftliche Bildung am Ende der Schullaufbahn (Bd. 2). Mathematische und physikalische Kompetenzen am Ende der gymnasialen Oberstufe (S. 317–372). Opladen: Leske + Budrich.CrossRefGoogle Scholar
  15. Becker, R., & Lauterbach, W. (2007). Bildung als Privileg – Ursachen, Mechanismen, Prozesse und Wirkungen. In R. Becker & W. Lauterbach (Hrsg.), Bildung als Privileg. Erklärungen und Befunde zu den Ursachen der Bildungsungleichheit. 2., aktualisierte Auflage (S. 9–42). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  16. Birenbaum, M., Breuer, K., Cascallar, E., Dochy, F., Dori, Y., Ridgway, J., Wiesemes, R., & Nickmans, G (2006). A learning integrated assessment system. Position paper. Educational Research Review, 1, 61–67.CrossRefGoogle Scholar
  17. Birkenfeld, F., & Hanafy, S. (2008). Was macht eine zentrale Abschlussprüfung aus? Leading House Working Paper (Nr. 33). Zürich: Swiss Leading House.Google Scholar
  18. Bishop, J. H. (1999). Are national exit examinations important for educational efficiency? Swedish Economic Policy Review, 6, 349–398.Google Scholar
  19. Böttger-Beer, M., & Koch, E. (2008). Externe Schulevaluation in Sachsen – ein Dialog zwischen Wissenschaft und Praxis. In W. Böttcher, W. Bos, H. Döbert, & H.G. Holtappels (Hrsg.), Bildungsmonitoring und Bildungscontrolling in nationaler und internationaler Perspektive (S. 253–264). Münster: Waxmann.Google Scholar
  20. Brozo, W. G., & Hargis, C. (2003). Using low-stakes reading assessment. Educational Leadership, 61(3), 60–64.Google Scholar
  21. Büchel, F., Jürges, H., & Schneider, K. (2004). Leistungs- und Signaleffekte zentraler Abschlussprüfungen – Eine TIMSS-Auswertung bei deutschen Haupt- und Realschülern. In U. Backes-Gellner & P. Moog (Hrsg.), Ökonomie der Evaluation von Schulen und Hochschulen. Schriften des Vereins für Socialpolitik, Neue Folge (S. 53–73). Berlin: Duncker & Humboldt.Google Scholar
  22. Campbell, D. T. (1975). Assessing the impact of planned social change. In G. M. Lyons (Hrsg.), Social research and public policies (S. 3–45). Hanover: Dartmouth College, The Public Affairs Center.Google Scholar
  23. Carnoy, M., & Loeb, S. (2004). Does external accountability affect student outcomes? In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 189–219). New York: Teachers College Press.Google Scholar
  24. Clarke, M., Haney, W., & Madaus, G. (2000). High stakes testing and high school completion. NBETPP statements, 1(3), 1–12.Google Scholar
  25. Clarke, M., Shore, A., Rhoades, K., Abrams, L. M., Miao, J., & Li, J. (2003). Perceived effects of state-mandated testing programs on teaching and learning. Chestnut Hill: Boston College, National Board on Educational Testing and Public Policy.Google Scholar
  26. Criblez, L., & Huber, C. (2008). Bildungsstandards – ein Innovationsprogramm aus historischer Perspektive. Beiträge zur Lehrerbildung, 26, 279–291.Google Scholar
  27. EACEA/Eurydice. (2009). National testing of pupils in Europe: Objectives, organisation and use of results. Brüssel: Eurydice.Google Scholar
  28. Ebers, M., & Gotsch, W. (2002). Institutionenökonomische Theorien der Organisation. In A. Kieser (Hrsg.), Organisationstheorien. (5. Aufl., S. 199–252). Stuttgart: Kohlhammer.Google Scholar
  29. EDK (Erziehungsdirektorenkonferenz) (2004). HARMOS. Zielsetzungen und Konzeption. Bern: EDK.Google Scholar
  30. EDK (Erziehungsdirektorenkonferenz) (2012). Gymnasiale Maturität – langfristige Sicherung des prüfungsfreien Hochschulzugangs. Beschluss Plenarversammlung vom 22. März 2012. Bern: EDK.Google Scholar
  31. Fend, H. (1986). Gute Schulen – Schlechte Schulen. Die Deutsche Schule, 78, 275–293.Google Scholar
  32. Fend, H. (2005). Systemsteuerung im Bildungswesen. In K. Maag Merki, A. Sandmeier, P. Schuler, & H. Fend (Hrsg.), Schule wohin? Schulentwicklung und Qualitätsmanagement im 21. Jahrhundert (S. 15–27). Zürich: Universität Zürich, Forschungsbereich Schulqualität & Schulentwicklung.Google Scholar
  33. Fend, H. (2006). Neue Theorie der Schule. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  34. Fend, H. (2008). Schule gestalten. Systemsteuerung, Schulentwicklung und Unterrichtsqualität. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  35. Hamilton, L. S., Stecher, B. M., & Klein, S. P. (Hrsg.). (2002). Making sense of test-based accountability in education. Santa Monica: Rand.Google Scholar
  36. Hamilton, L. S., Stecher, B. M., Marsh, J. A., McCombs, J. S., Robyn, A., Russell, J. L., Naftel, S., & Barney, H. (2007). Standards-based accountability under No Child Left Behind. Experiences of teachers and administrators in three states. Santa Monica: Rand.CrossRefGoogle Scholar
  37. Hamilton, L. S., Stecher, B. M., Russell, J. L., Marsh, J. A., & Miles, J. (2008). Accountability and teaching practices: School-level actions and teacher responses. In B. Fuller, M. K. Henne, & E. Hannum (Hrsg.), Strong stakes, weak schools: The benefits and dilemmas of centralized accountability (S. 31–66). Bingley: Emerald.CrossRefGoogle Scholar
  38. Helmke, A., & Schrader, F.-W. (2006). Determinanten der Schulleistung. In D. H. Rost (Hrsg.), Handwörterbuch Pädagogische Psychologie (3. Ausgabe, S. 83–94). Weinheim: Beltz.Google Scholar
  39. Herman, J. L. (2004). The effects of testing on instruction. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 141–166). New York: Teachers College Press.Google Scholar
  40. Heubert, J. P. (2004). High-stakes testing in a changing environment: Disparate impact, opportunity to learn, and current legal protections. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 220–242). New York: Teachers College Press.Google Scholar
  41. Holcombe, R., Jennings, J. L., & Koretz, D. (2013). The roots of score inflation: An examination of opportunities in two states’ tests. In G. L. Sunderman (Hrsg.), Charting reform, achieving equity in a diverse nation. Greenwich: Information Age Publishing.Google Scholar
  42. Holme, J. J. (2008). High stakes diplomas: Organizational responses to California’s High School exit exam. In B. Fuller, M. K. Henne, & E. Hannum (Hrsg.), Strong stakes, weak schools: The benefits and dilemmas of centralized accountability (S. 157–188). Bingley: Emerald.CrossRefGoogle Scholar
  43. Holmeier, M. (2013). Leistungsbeurteilung im Zentralabitur. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  44. Holmeier, M., & Maag Merki, K. (2012). Unterstützung im Unterricht im Kontext der Einführung zentraler Abiturprüfungen. In: K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland (S. 155–178). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  45. Horn, R. A. (2004). Standards. New York: Peter Lang.Google Scholar
  46. Hosenfeld, I., & Groß Ophoff, J. (2007). Nutzung und Nutzen von Evaluationsstudien in Schule und Unterricht. Empirische Pädagogik, 21, 352–367.Google Scholar
  47. IRDP (Institut de recherche et de documentation pédagogique) (2012). Pratiques cantonales concernant l’organisation d’épreuves, d’examens, de tests ainsi que l’obtention de certificats ou diplômes. Enseignements primaire, secondaire premier cycle. Suisse romande. Neuchâtel: IRDP.Google Scholar
  48. Jäger, D. J. (2012). Herausforderung Zentralabitur: Unterschiede variieren und an Prüfungsthemen anpassen. In K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen zentraler Abiturprüfungen in Deutschland (S. 179–205). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  49. Jürges, H., & Schneider, K. (2010). Central exit examinations increase performance, but take the fun out of mathematics. Journal of Population Economics, 23, 497–517.CrossRefGoogle Scholar
  50. Jürges, H., Schneider, K., & Büchel, F. (2005). The effect of central exit examinations on student achievement: Quasi-experimental evidence from TIMSS Germany. Journal of European Economic Association, 3(5), 1134–1155.CrossRefGoogle Scholar
  51. Jürges, H., Schneider, K., Senkbeil, M., & Carstensen, C. H. (2012). Assessment drives learning: The effect of central exit exams on curricular knowledge and mathematical literacy. Economics of Education Review, 31, 56–65.CrossRefGoogle Scholar
  52. Klein, S. P., Hamilton, L. S., McCaffrey, D., & Stecher, B. M. (2000). What do test scores in Texas tell us? Issue Paper IP-202. Santa Monica: Rand.Google Scholar
  53. Klein, E. D., Kühn, S. M., Ackeren, I. v., & Block, R. (2009). Wie zentral sind zentrale Prüfungen? – Abschlussprüfungen am Ende der Sekundarstufe II im nationalen und internationalen Vergleich. Zeitschrift für Pädagogik, 55, 596–621.Google Scholar
  54. Klieme, E. (2000). Fachleistungen im voruniversitären Mathematik- und Physikunterricht: Theoretische Grundlagen, Kompetenzstufen und Unterrichtsschwerpunkte. In J. Baumert, W. Bos, & R. Lehmann (Hrsg.), TIMSS/III. Dritte Internationale Mathematik- und Naturwissenschaftsstudie. Mathematische und naturwissenschaftliche Bildung am Ende der Schullaufbahn (Bd. 2): Mathematische und physikalische Kompetenzen am Ende der gymnasialen Oberstufe (S. 57–128). Opladen: Leske + Budrich.Google Scholar
  55. Klieme, E. (2003). Benotungsmaßstäbe an Schulen: Pädagogische Praxis und institutionelle Bedingung. In H. Döbert, B. v. Kopp, R. Martini, & M. Weiß (Hrsg.), Bildung vor neuen Herausforderungen (S. 195–210). Neuwied: Luchterhand.Google Scholar
  56. Klieme, E. (2004). Begründung, Implementation und Wirkung von Bildungsstandards. Zeitschrift für Pädagogik, 50, 625–634.Google Scholar
  57. Klieme, E. (2005). Bildungsstandards – Kompetenzmodelle – Notengebung und Unterricht. Referat bei der AEPF-Tagung am 21. September 2005 in Salzburg.Google Scholar
  58. Klieme, E. (2006). Empirische Unterrichtsforschung: Aktuelle Entwicklungen, theoretische Grundlagen und fachspezifische Befunde. Einführung in den Thementeil. Zeitschrift für Pädagogik, 52(6), 765–773.Google Scholar
  59. Klieme, E., Avenarius, H., Blum, W., Döbrich, P., Gruber, H., Prenzel, M., Reiss, K., Riquarts, K., Rost, J., Tenorth, H.-E., & Vollmer, H. J. (2003). Zur Entwicklung nationaler Bildungsstandards. Eine Expertise. Bonn: Bundesministerium für Bildung und Forschung.Google Scholar
  60. Klieme, E., Eichler, W., Helmke, A., Lehmann, R. H., Nold, G., Rolff, H.-G., Schröder, K., Thomé, G., & Willenberg, H. (2006). Unterricht und Kompetenzerwerb in Deutsch und Englisch. Zentrale Befunde der Studie Deutsch-Englisch-Schülerleistungen-International (DESI). Weinheim: Beltz.Google Scholar
  61. Köller, O., Baumert, J., & Schnabel, K. (1999). Wege zur Hochschulreife: Offenheit des Systems und Sicherung vergleichender Standards. Zeitschrift für Erziehungswissenschaft, 2, 385–422.Google Scholar
  62. Köller, O., Baumert, J., Cortina, K. S., Trautwein, U., & Watermann, R. (2004). Öffnung von Bildungswegen in der Sekundarstufe II und die Wahrung von Standards. Zeitschrift für Pädagogik, 50, 679–700.Google Scholar
  63. Koretz, D. (2002). Limitations in the use of achievement tests as measures of educators’ productivity. Journal of Human Resources, 37, 752–777.CrossRefGoogle Scholar
  64. Koretz, D. (2008). Test-based educational accountability. Research evidence and implications. Zeitschrift für Pädagogik, 54, 777–790.Google Scholar
  65. Koretz, D., & Barron, S. I. (1998). The validity of gains on the Kentucky Instructional Results Information System (KIRIS). MR-1014-EDU. Santa Monica: Rand.Google Scholar
  66. Koretz, D., McCaffrey, D., & Hamilton, L. S. (2001). Toward a framework for validating gains under high-stakes conditions. CSE technical report 551. Los Angeles: National Center for Research on Evaluation, Standards, and Student Testing.Google Scholar
  67. Kuper, H., & Schneewind, J. (Hrsg.). (2006). Rückmeldung und Rezeption von Forschungsergebnissen. Münster: Waxmann.Google Scholar
  68. Linn, R. L. (2004). Accountability models. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 73–95). New York: Teachers College Press.Google Scholar
  69. Longchamp, A-L. (2010). Épreuve cantonales de référence de mathématiques en 6e année. Point de vue d’enseignants sur l’utilisation du dispositif. Lausanne: Département de la formation, de la jeunesse et de la culture du Canton de Vaud, Unité de recherche pour le pilotage des systèmes pédagogiques (URSP).Google Scholar
  70. Maag Merki, K. (2008). Die Architektur einer Theorie der Schulentwicklung. Journal für Schulentwicklung, 12(2), 22–30.Google Scholar
  71. Maag Merki, K. (2011). Effects of the implementation of state-wide exit exams on students’ self-regulated learning. Studies in Educational Evaluation, 37, 196–205.CrossRefGoogle Scholar
  72. Maag Merki, K. (Hrsg.). (2012a). Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  73. Maag Merki, K. (2012b). Forschungsfragen und theoretisches Rahmenmodell. In: K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland (S. 11–25). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  74. Maag Merki, K. (2012c). Die Leistungen der Gymnasiastinnen und Gymnasiasten in Mathematik und Englisch. In: K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland (S. 263–292). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  75. Maag Merki, K., & Holmeier, M. (2008). Die Implementation zentraler Abiturprüfungen. In E.-M. Lankes (Hrsg.), Pädagogische Professionalität als Gegenstand empirischer Forschung (S. 233–244). Münster: Waxmann.Google Scholar
  76. Maag Merki, K., & Holmeier, M. (2012). Selbstreguliertes Lernen der Schülerinnen und Schüler im Lichte der Einführung zentraler Abiturprüfungen. In: K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland (S. 325–352). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  77. Maag Merki, K., & Holmeier, M. (2015). Comparability of semester and exit exams grades: Long-term effect of the implementation of state-wide exit exams. School Effectiveness and School Improvement, 26(1), 57–74.CrossRefGoogle Scholar
  78. Maag Merki, K., & Oerke, B. (under review). Long-term effects of the implementation of state-wide exit exams: A multilevel regression analysis of mediation effects of teacher behaviour on students’ motivation. Educational Assessment, Evaluation and Accountability.Google Scholar
  79. Maag Merki, K., & Schwippert, K. (2008). Systeme der Rechenschaftslegung und Schulentwicklung: Editorial. Zeitschrift für Pädagogik, 54, 773–776.Google Scholar
  80. Maag Merki, K., Klieme, E., & Holmeier, M. (2008). Unterrichtsgestaltung unter den Bedingungen zentraler Abiturprüfungen. Zeitschrift für Pädagogik, 54, 791–809.Google Scholar
  81. Maag Merki, K., Holmeier, M., Jäger, D. J., & Oerke, B. (2010). Die Effekte der Einführung zentraler Abiturprüfungen auf die Unterrichtsgestaltung in Leistungskursen in der gymnasialen Oberstufe. Unterrichtswissenschaft, 34(2), 173–192.Google Scholar
  82. Madaus, G., & Russell, M. (2009). The paradoxes of high stakes testing. How they affect students, their parents, teachers, principals, schools, and society. Charlotte: Information Age.Google Scholar
  83. Marc, V., Wirthner, M., & Uldry, S. (2013). Développement d’un modèle d’évaluation adapté au PER. Rapport scientifique du project d’épreuves romandes communes. Neuchâtel: IRDP.Google Scholar
  84. Maué, E. (2013). Vergleichbarkeit von Abiturnoten – eine Fiktion? Längerfristige Effekte der Implementation zentraler Abiturprüfungen in Bremen. In J. Asdonk, S. U. Kuhnen, & P. Bornkessel (Hrsg.), Von der Schule zur Hochschule. Analysen, Konzeptionen und Gestaltungsperspektiven des Übergangs (S. 114–128). Münster: WaxmannGoogle Scholar
  85. Maué, E., Maag Merki, K., & Oerke, B. (2012). Emotionales Erleben des Zentralabiturs von Lehrpersonen in Bremen. Längerfristige Effekte der Implementation zentraler Abiturprüfungen. In S. Hornberg & M. Parreira do Amaral (Hrsg.), Deregulierung im Bildungswesen (S. 109–130). Münster: Waxmann.Google Scholar
  86. McCaffrey, D., Lockwood, J. R., Koretz, D., & Hamilton, L. S. (2003). Evaluating value-added models for teacher accountability. Santa Monica: Rand.CrossRefGoogle Scholar
  87. Miao, J., & Haney, W. (2004). High school graduation rates: Alternative methods and implications. Boston: Boston College.Google Scholar
  88. Neumann, M., Nagy, G., Trautwein, U., & Lüdtke, O. (2009). Vergleichbarkeit von Abiturleistungen. Leistungs- und Bewertungsunterschiede zwischen Hamburger und Baden-Württemberger Abiturienten und die Rolle zentraler Abiturprüfungen. Zeitschrift für Erziehungswissenschaft, 12(4), 691–714.CrossRefGoogle Scholar
  89. Neumann, M., Trautwein, U., & Nagy, G. (2011). Do central examinations lead to greater grading comparability? A study of frame-of-references effects on the university entrance qualification in Germany. Studies in Educational Evaluation, 37, 206–217.CrossRefGoogle Scholar
  90. Nichols, S. L., & Berliner, D. C. (2007). Collateral damage. How high-stakes testing corrupts America’s schools. Cambridge: Harvard Education Press.Google Scholar
  91. O’Day, J. A. (2004). Complexity, accountability, and school improvement. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 15–43). New York: Teachers College Press.Google Scholar
  92. Oelkers, J., & Reusser, K. (2008). Qualität entwickeln – Standards sichern – mit Differenz umgehen. Berlin: Bundesministerium für Bildung und Forschung.Google Scholar
  93. Oerke, B. (2012). Emotionaler Umgang von Lehrkräften und Schüler/-innen mit dem Zentralabitur: Unsicherheit, Leistungsdruck und Leistungsattribution. In K. Maag Merki (Hrsg.), Zentralabitur. Die längsschnittliche Analyse der Wirkungen der Einführung zentraler Abiturprüfungen in Deutschland (S. 119–153). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  94. Oerke, B., & Maag Merki, K. (2009). Einfluss der Implementation zentraler Abiturprüfungen auf die leistungsbezogenen Attributionen von Schülerinnen und Schülern vor dem Abitur. In W. Böttcher, J. N. Dicke, & H. Ziegler (Hrsg.), Evidenzbasierte Bildung. Wirkungsevaluation in Bildungspolitik und pädagogischer Praxis (S. 171–179). Münster: Waxmann.Google Scholar
  95. Oerke, B., Maag Merki, K., Holmeier, M., & Jäger, D. J. (2011). Changes in student attributions due to the implementation of central exit exams. Educational Assessment, Evaluation and Accountability, 23(3), 223–241.CrossRefGoogle Scholar
  96. Oerke, B., Maag Merki, K., Maué, E., & Jäger, D. J. (2013). Zentralabitur und Themenvarianz. Lohnt sich teaching-to-the-test? In D. Bosse, F. Eberle, & B. Schneider-Taylor (Hrsg.), Standardisierung in der gymnasialen Oberstufe (S. 27–50). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  97. O’Neil, H. F., Abedi, J., Miyoshi, J., & Mastergeorge, A. (2003). Monetary incentives for low-stakes tests. In T. Fitzner (Hrsg.), Bildungsstandards. Internationale Erfahrungen – Schulentwicklung – Bildungsreform (S. 164–201). Bad Boll: Edition Akademie.Google Scholar
  98. Pedulla, J., Abrams, L. M., Madaus, G., Russell, M., Ramos, M., & Miao, J. (2003). Perceived effects of state-mandated testing programs on teaching and learning. Chestnut Hill: Boston College.Google Scholar
  99. Perna, L. W., & Thomas, S. L. (2009). Barriers to college opportunity. The unintended consequences of state-mandated testing. Educational Policy, 23, 451–479.CrossRefGoogle Scholar
  100. Ravitch, D. (1995). National standards in American education. A citizen’s guide. Washington, DC: Brookings Institution Press.Google Scholar
  101. Rhodes, R. A. W. (1991). The new public management. Public Administration, 69, 1–2.CrossRefGoogle Scholar
  102. Rice, J. K., & Roellke, C. (2009). Conclusion: Linking high-stakes accountability and capacity. In J. K. Rice & C. Roellke (Hrsg.), High stakes accountability. Implications for resources and capacity (S. 251–257). Charlotte: Information Age.Google Scholar
  103. Rolff, H.-G. (1993). Wandel durch Selbstorganisation. Weinheim: Juventa.Google Scholar
  104. Ryan, K. E., Ryan, A. M., Arbuthnot, K., & Samuels, M. (2007). Students’ motivation for standardized math exams. Educational Researcher, 36(1), 5–13.CrossRefGoogle Scholar
  105. Schedler, K. (2007). Public management und public governance. In A. Benz, S. Lütz, U. Schimank, & G. Simonis (Hrsg.), Handbuch governance (S. 253–268). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  106. Scheerens, J. (2003). The formative implications of standards. In T. Fitzner (Hrsg.), Bildungsstandards. Internationale Erfahrungen – Schulentwicklung – Bildungsreform (S. 202–212). Bad Boll: Edition Akademie.Google Scholar
  107. Schneewind, J. (2007). Erfahrungen mit Ergebnisrückmeldungen im Projekt BeLesen – Ergebnisse der Interviewstudie. Empirische Pädagogik, 21, 368–382.Google Scholar
  108. Schwartz Chrismer, S., Hodge, S. T., & Saintil, D. (Hrsg.). (2006). Assessing NCLB. Perspectives and prescriptions. Harvard Educational Review. Cambridge: Harvard Graduate School of Education.Google Scholar
  109. Stecher, B. M. (2002). Consequences of large-scale, high-stakes testing on school and classroom practice. In L. S. Hamilton, B. M. Stecher, & S. P. Klein (Hrsg.), Making sense of test-based accountability in education (S. 79–100). Santa Monica: Rand.Google Scholar
  110. Stecher, B. M., Vernez, G., & Steinberg, P. (2010). Reauthorizing No Child Left Behind. Facts and recommendations. Santa Monica: RAND.CrossRefGoogle Scholar
  111. Steffens, U. (2007). Schulqualitätsdiskussion in Deutschland – Ihre Entwicklung im Überblick. In J. v. Buer & C. Wagner (Hrsg.), Qualität von Schule (S. 21–51). Frankfurt a. M.: Peter Lang.Google Scholar
  112. Swanson, C. B., & Stevenson, D. L. (2002). Standards-based reform in practice. Educational Evaluation and Policy Analysis, 24, 1–27.CrossRefGoogle Scholar
  113. Tresch, S. (2007). Potenzial Leistungstest. Wie Lehrerinnen und Lehrer Ergebnisrückmeldungen zur Sicherung und Steigerung ihrer Unterrichtsqualität nutzen. Bern: h.e.p.Google Scholar
  114. Valli, L., Croninger, R. G., Chambliss, M. J., Graeber, A. O., & Buese, D. (2008). Test driven. High-stakes accountability in elementary schools. New York: Teacher College Press.Google Scholar
  115. Warren, J. R., Jenkins, K. N., & Kulick, R. B. (2006). High school exit examinations and state-level completion and GED rates, 1975 through 2002. Educational Evaluation and Policy Analysis, 28, 131–152.CrossRefGoogle Scholar
  116. Wiener, N. (1948). Cybernatics: Control and communication in the animal and the machine. Cambridge: MIT Press.Google Scholar
  117. Wössmann, L. (2003a). Central exit exams and student achievement: International evidence. In P. E. Peterson & M. R. West (Hrsg.), No Child Left Behind? (S. 292–323). Washington, DC: Brookings Institution Press.Google Scholar
  118. Wössmann, L. (2003b). Zentrale Prüfungen als „Währung“ des Bildungssystems: Zur Komplementarität von Schulautonomie und Zentralprüfungen. Vierteljahrshefte zur Wirtschaftsforschung, 72(2), 220–237.CrossRefGoogle Scholar
  119. Wössmann, L. (2005). The effect heterogeneity of central examinations: Evidence from TIMSS, TIMSS-Repeat and PISA. Education Economics, 13, 143–169.CrossRefGoogle Scholar
  120. Wössmann, L. (2008). Zentrale Abschlussprüfungen und Schülerleistungen. Zeitschrift für Pädagogik, 54, 810–826.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Institut für ErziehungswissenschaftUniversität Zürich, Philosophische FakultätZürichSchweiz

Personalised recommendations