Zusammenfassung
Pädagogische Evidenz soll valide Hinweise für effektivere Unterrichtsmethoden und Schulstrukturen und damit für besseres Lernverhalten der Schülerinnen und Schüler geben. In der Pädagogik gibt es erste Versuche, wobei aber kontrovers diskutiert wird, welche Rolle empirische Evidenz bei der Verbesserung von Unterricht und Schulstruktur spielen soll und spielen kann (Brügelmann 2005; Bohl/Kiper 2009; Böttcher/Dicke/Hogreber 2011). Prinzipiell kann sehr Verschiedenes als Evidenz angesehen werden: Schulbeteiligung, Wiederholerraten, Übertritt in weiterführende Schulen, Schulzufriedenheit und vieles andere mehr. Wegen medialer Großereignisse wie TIMSS, PISA, VERA & Co. fokussiert die Debatte über pädagogische Evidenz heute aber fast ausschließlich auf vergleichende Tests. Die Kritik an Evidenz als Grundlage pädagogischen Handelns (data-driven education) bezieht ihre Argumente zum Großteil, wenn nicht ausschließlich aus der weitgehend berechtigten Kritik an Vergleichstests (Kohn 2000; Jahnke/Meyerhöfer 2007; Hopmann/Brinek/ Retzl 2007), mit Ausnahme von vergleichenden Noten, die nach wie vor den Schulalltag dominieren und aus ähnlichen Gründen kritisch diskutiert werden (Kohn 1999; Leppert 2010). Dabei werden andere Formen der Evaluation weitgehend ignoriert.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Literatur
Allerup, P. (2007): Identification of group differences using PISA scales – considering effects of inhomogeneous items. In: Hopmann, S. T./Brinek, G./Retzl, M. (Hrsg): PISA zufolge PISA. Wien/Berlin: LIT, S. 175–202.
Amrein, A./Berliner, D. C. (2002): High-stakes testing, uncertainty, and student learning. In: Education Policy Analysis, 10. Jg., H. 18. URL: www.epaa.asu.edu/epaa/v10n18/ (Stand: 20.02.2011).
Barber, L. W. (1999): Self-assessment. In: Millman, J./Darling-Hammond, L. (Hrsg.): The new handbook of teacher evaluation. Assessing elementary and secondary school teachers. Newbury Park: Sage, S. 216–227.
Belley, P./Lochner, L. (2008): The changing role of family income and ability in determining educational achievement. URL: www.economics.uwo.ca/faculty/lochner/papers/thechangingrole.pdf (Stand: 20.02.2011).
Berliner, D. C./Biddle, B. J. (1995): The manufactured crisis. Myths, fraud, and the attack on America's public schools. Reading, MA: Addison-Wesley.
Bohl, T./Kiper, H., (Hrsg.) (2009): Lernen aus Evaluationsergebnissen – Verbesserungen planen und implementieren. Bad Heilbrunn: Klinkhardt.
Borman, G.D./Slavin, R.E./Cheung, A./Chamberlain, A.M./Madden, N.A/Chambers, B. (2005): Success for All: First-year results from the national randomized field trial. In: Educational Evaluation and Policy Analysis, 27. Jg., H. 1, S. 1–22.
Böttcher, W./Dicke, J. N./Hogreber, N. (Hrsg.) (2011): Evaluation, Bildung und Gesellschaft. Steuerungsinstrumente zwischen Anspruch und Wirklichkeit. Münster: Waxmann.
Bracey, G. W. (2002): The war against America's public schools. Privatizing schools, commercializing education. Boston: Alyn & Bacon.
Bracey, G. W. (2005): No child left behind: Where does the money go? Tempe, AZ: Arizona State University, Education Policy Studies Laboratory. URL: www.nepc.colorado.edu/files/EPSL-0506-114-EPRU.pdf (Stand: 20.02.2011).
Bracey, G. W. (2007): The First Time ‚Everything Changed‘. The 17th Bracey Report on the Condition of Public Education. In: Phi Delta Kappan, 89. Jg., H. 2, S. 119–136.
Brügelmann, H. (2005): Schule verstehen und gestalten. Lengwil: Libelle.
Campbell, D. T. (1969): Reforms as experiments. In: American Psychologist, 24. Jg., S. 409–429.
Campbell, D. T. (1975): Assessing the Impact of Planned Social Change. In: Lyons, G. M. (Hrsg.): Social Research and Public Policies. The Dartmouth/OECD Conference. Hanover, New Hampshire: Dartmouth College, The Public Affairs Center, S. 3–45.
Carver, R. P. (1993): The case against statistical significance testing, revisited. In: Journal of Experimental Education, 61. Jg., H. 4, S. 287–292.
Center for Data-Driven Reform in Education (CDDRE) (2004ff.): Best Evidence Encyclopedia. Empowering Educators with Evidence on Proven Programs. URL: www.bestevidence.org/ (Stand: 20.02.2011).
Chamberlin, D./Chamberlin, E. S./Drought, N. E./Scott, W. E. (1942): Did they succeed in college? The follow-up study of the graduates of the thirty schools. New York: Harper & Brothers.
Cohen, P./Kulik, J./Kulik, C. (1982): Educational outcomes of tutoring: A meta-analysis of findings. In: American Educational Research Journal, 19. Jg., S. 237–248.
Cronbach, L. (1960): Essentials of psychological testing. London: Harper.
Cunningham, W. G./Sanzo, T. D. (2002): Is high-stakes testing harming lower socioeconomic status schools? In: NASSP Bulletin, 86. Jg., H. 631, S. 62–75.
Dubs, R. (2005): Metaevaluation – Anforderungen an Schulaufsicht und Schulleitung. In: Bartz, A. u. a. (Hrsg.): PraxisWissen SchulLeitung. Neuwied: Luchterhand, Kapitel 22.15.
Fisher, G. M. (1928): Foreword. In: Hartshorne, H./May, M. A. (Hrsg.): Studies in the nature of character. Vol. I: Studies in deceit, Book one and two. New York: Macmillan , S. V–VII.
Fraser, B. J./Walberg, H. J./Welch, W. W./Hattie, J. A. (1987): Syntheses of educational productivity research. In: International Journal of Educational Research, 11. Jg., S. 145–252.
Fuller, R./Gerloff, P. A. (2008): Dignity for All: How to Create a World Without Rankism. San Francisco: Berret-Koehler Publishers.
Glaser, R. (1963): Instructional technology and the measurement of learning outcomes: some questions. In: American Psychologist, 18. Jg., S. 519–521.
Hagemeister, V. (1999): Was wurde bei TIMSS erhoben? Eine Analyse der empirischen Basis von TIMSS. In: Die Deutsche Schule, 91. Jg., S. 160–177.
Hartshorne, H./May, M. A. (1928): Studies in the nature of character. Vol. I: Studies in deceit, Book one and two. New York: Macmillan.
Heidbrink, H. (2010): Moral judgment competence and political learning. In: Lind, G./Hartmann, H.A./Wakenhut, R. (Hrsg.): Moral judgment and social education. Edison: Transaction Publishing, S. 259–271.
Hopmann, S. T./Brinek, G./Retzl, M. (2007): PISA zufolge PISA. Berlin: LIT.
Jablonka, E. (2006): Mathematical literacy: Die Verflüchtigung eines ambitionierten Testkonstrukts in bedeutungslosen PISA-Punkten. In: Jahnke. T./Meyerhöfer, W. (Hrsg.): Pisa & Co. Kritik eines Programms. Hildesheim: Franzbecker, S. 155–186.
Jahnke, J./Meyerhöfer, W. (Hrsg.) (2007): Pisa & Co. Kritik eines Programms. 2., erweiterte Auflage. Hildesheim: Franzbecker.
Klein, H. P. (2010): Die neue Kompetenzorientierung: Exzellenz oder Nivellierung? In: Zeitschrift für Didaktik der Biowissenschaften, 1. Jg., S. 15–26.
Kohn, A. (1999): Punished by rewards. The trouble with gold stars, incentive plans, A's, praise, and other bribes. Boston: Houghton Miflin.
Kohn, A. (2000): The case against standardized testing. Raising the scores, ruining the schools. Portsmouth: Heinemann.
Koretz, D. (2009): What educational testing really tells us. Cambridge: Harvard University Press.
Kozol, J. (1992): Savage inequalities. Children in America's schools. New York: Harper.
Kreitzer, A. E./Madaus, G. F./Haney, W. M. (1989): Competency testing and dropouts. In: Weis, L./Farrar, E./Petrie, H. G. (Hrsg.): Dropouts from school. Issues, dilemmas, and solutions. Albany: SUNY Press, S. 129–152.
Leppert, U. (2010): Ich habe eine Eins! Und Du? Von der Notenlüge zur Praxis einer besseren Lernkultur. München: Libres.
Lind, G. (2000): Moral regression in medical students and their learning environment. In: Revista Brasileira de Educacao Médica, 24. Jg., H. 3, S. 24–33.
Lind, G. (2004): Jenseits von PISA – Für eine neue Evaluationskultur. In: Institut für Schulentwicklung Pädagogische Hochschule Schwäbisch Gmünd (Hrsg.): Standards, Evaluation und neue Methoden. Reaktionen auf die PISA-Studie. Baltmannsweiler: Schneider Verlag Hohengehren, S. 1–7.
Lind, G. (2008): The meaning and measurement of moral judgment competence revisited – A dualaspect model. In: Fasko, D./Willis, W. (Hrsg.): Contemporary Philosophical and Psychological Perspectives on Moral Development and Education. Cresskill: Hampton Press, S. 185–220.
Lind, G. (2009a): Amerika als Vorbild? Erwünschte und unerwünschte Folgen aus Evaluationen. In: Bohl, T./Kiper, H. (Hrsg.): Lernen aus Evaluationsergebnissen – Verbesserungen planen und implementieren. Bad Heilbrunn: Klinkhardt, S. 61–79.
Lind, G. (2009b): Favorable learning environments for moral development – A multiple intervention study with nearly 3.000 students in a higher education context. Paper presented at the annual meeting of AERA in San Diego, April 13 - 17, 2009. URL: www.uni-konstanz.de/agmoral/pdf/Lind-2009_Favorable_learning.pdf (Stand: 20.02.2011).
Lind, G. (2009c): Moral ist lehrbar. Ein Handbuch zur moralischen und demokratischen Bildung. München: Oldenbourg.
Lind, G. (o. J.): ITSE-Project: Improvement of Teaching Through Self-monitored Scientific Evaluation. URL: www.uni-konstanz.de/itse-projekt/itse_home.htm (Stand: 20.02.2011).
Lipsey, M. W./Wilson, D. B. (1993): The efficacy of psychological, educational and behavioral treatment. Confirmation from meta-analysis. In: American Psychologist, 48. Jg., S. 1181–1209.
Lohner, S. (2008): Kompetenzmessung in der PISA-Studie. Eine Analyse von Biologie-Aufgaben. Examensarbeit im Fach Pädagogik, Universität Konstanz.
Lupu, I. (2009): Moral, Lernumwelt und Religiosität. Die Entwicklung moralischer Urteilsfähigkeit bei Studierenden in Rumänien in Abhängigkeit von Verantwortungsübernahme und Religiosität. Dissertation, Fachbereich Psychologie, Universität Konstanz. KOPS. URL: www.kops.ub.unikonstanz.de/volltexte/2009/9586/pdf/Diss_Lupu.pdf (Stand: 20.02.2011).
Madaus, G./Clarke, M. (2001): The adverse impact of high stakes testing on minority students: Evidence from one hundred years of test data. In: Orfiled, G./Kornhaber, M. L. (Hrsg.): Raising standards or raising barriers? Inequality and high-stakes testing in public education. New York: Century Foundation Press.
Meyerhöfer, W. (2007): Testfähigkeit – Was ist das? In: Hopmann, S. T./Brinek, G./Retzl, M. (Hrsg.): PISA zufolge PISA. Berlin: LIT, S. 57–92.
Neuweg, G. H. (2004): Könnerschaft und implizites Wissen. Zur lehr-lerntheoretischen Bedeutung der Erkenntnis- und Wissenstheorie Michael Polanyis. 3. Auflage. Münster: Waxmann.
Nichols, S. L./Glass, G. V./ Berliner, D. C. (2006): High-stakes testing and student achievement: Does accountability pressure increase student learning? In: Education Policy Anlysis Archives, 14. Jg., H. 1. URL: www.epaa.asu.edu/ojs/article/view/72/198 (Stand: 20.02.2011).
Nichols, S. L./Berliner, D. C. (2005): The Inevitable Corruption of Indicators and Educators Through High-Stakes Testing. East Lansing: Great Lakes Centre for Education Research & Practice. URL: www.greatlakescenter.org/docs/early_research/g_l_new_doc/EPSL-0503-101-EPRU.pdf (Stand: 20. 02.2011).
Nichols, S. L./Berliner, D. C. (2006): Collateral damage: How high-stakes testing corrupts schools. Cambridge: Harvard Education Press.
Peschel, F. (2002): Offener Unterricht – Idee, Realität, Perspektive und ein praxiserprobtes Konzept zur Diskussion. Hohengehren: Baltmannsweiler.
Popham, W. J. (1999): Why standardized tests don't measure educational quality. In: Educational Leadership, 56. Jg., H. 6, S. 8–15.
Popper, K. (1968): The logic of scientific discovery. London: Hutchinson.
Poynor, L./Wolfe, P. M. (Hrsg.) (2005): Marketing fear in America's public schools. The real war on literacy. Mahwah: Lawrence Erlbaum Associates.
Rhoades, K./Madaus, G. (2003): Errors in standardized tests: a systemic problem. National Board on Educational Testing and Public Policy. Lynch School of Education. Boston College.
Rosenthal, R. (1986): Meta-analytic procedures for combining studies with multiple effect sizes. In: Psychological Bulletin, 99. Jg., S. 400–406.
Rothstein, J. (2011): Review of “Learning About Teaching: Initial Findings from the Measures of Effective Teaching Project”. Boulder, CO: National Education Policy Center. URL: www.nepc.colorado.edu/files/TTR-MET-Rothstein.pdf (Stand: 20.02.2011).
Sacks, P. (1999): Standardized minds. The high prize of America's testing culture and what we can do to change it. Cambridge: Perseus Publishing.
Saeidi-Parvaneh, S. (2011): Moral, Bildung und Religion im Iran – Zur Bedeutung universitärer Bildung für die Entwicklung moralischer Urteils- und Diskursfähigkeit in einem religiös geprägten Land. Dissertation, FB Psychologie, Universität Konstanz. URL: www.kops.ub.uni-kon-stanz.de/volltexte/2011/13107/pdf/Soudabeh_Saeidi_Dissertation.pdf (Stand: 03.03.2011).
Sanders, J. R. (1994): The program evaluation standards. How to assess evaluations of educational programs. 2. Auflage. Thousand Oaks: Sage.
Schillinger, M. (2006): Learning environments and moral development: How university education fosters moral judgment competence in Brazil and two German-speaking countries. Aachen: Shaker.
Schoenfeld, A. H. (1999): Looking toward the 21th century: Challenges of educational theory and practice. In: Educational Researcher, 28. Jg., S. 4–14.
Schoenfeld, A. H. (2006): What doesn't work: The challenge and failure of the What Works Clearinghouse to conduct meaningful reviews of studies of mathematics. In: Educational Researcher, 35. Jg., H. 2, S. 13–21.
Schümer, G. (2006): Zur bildungspolitischen Bedeutung internationaler Schulleistungsstudien. In: Brinkmann, C./Koch, S./Mendius, H. G. (Hrsg.): Wirkungsforschung und Politikberatung – eine Gratwanderung? Nürnberg: Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit, S. 245–273.
Schweinhardt, L. J./Weikart, D. P. (1988): Education for young children living in poverty: childinitiated learning or teacher-directed instruction? In: The Elementary School Journal, 89. Jg., H. 2, S. 213–225.
Sedlmeier, P./Köhlers, D. (2001): Wahrscheinlichkeiten im Alltag. Statistik ohne Formeln. Braunschweig: Westermann.
Wilson, M. (2005): Constructing measures. An item response modeling approach. Mawah: Erlbaum Associates Publishers.
Wittmann, E. (2010): Offener Brief betreffs „Lernstandserhebung VerA 3 Mathematik /2010“ an die Kultusminister der deutschen Bundesländer vom 31.5.2010. URL: www.mathematik.unidortmund.de/ieem/mathe2000/pdf/vera3/KM%2005-10.pdf (Stand: 20.02.2011).
Wuttke, J. (2006): Fehler, Verzerrungen, Unsicherheiten in der PISA-Auswertung. In: Jahnke, T./Meyerhöfer, W. (Hrsg.): Pisa & Co. Kritik eines Programms. Hildesheim: Franzbecker, S. 101–154.
Wuttke, J. (2007): Die Insignifikanz signifikanter Unterschiede. In: Jahne, T./Meyerhöfer, W. (Hrsg.): Pisa & Co. Kritik eines Programm 2., erweiterte Auflage. Hildesheim: Franzbecker, S. 99–246.
Wuttke, J. (2009): PISA: Nachträge zu einer nicht geführten Debatte. In: Mitteilungen der Gesellschaft für Didaktik der Mathematik, 87. Jg., August 2009, S. 22–34.
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2011 VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH
About this chapter
Cite this chapter
Lind, G. (2011). Verbesserung des Unterrichts durch Selbstevaluation. In: Bellmann, J., Müller, T. (eds) Wissen, was wirkt. VS Verlag für Sozialwissenschaften. https://doi.org/10.1007/978-3-531-93296-5_7
Download citation
DOI: https://doi.org/10.1007/978-3-531-93296-5_7
Publisher Name: VS Verlag für Sozialwissenschaften
Print ISBN: 978-3-531-17688-8
Online ISBN: 978-3-531-93296-5
eBook Packages: Humanities, Social Science (German Language)