Advertisement

Zeitschrift für Erziehungswissenschaft

, Volume 17, Issue 1, pp 61–84 | Cite as

Vergleichsarbeiten und schulische Personalentwicklung – Ausmaß und Voraussetzungen der Datennutzung

  • Anabel BachEmail author
  • Sebastian Wurster
  • Katja Thillmann
  • Hans Anand Pant
  • Felicitas Thiel
Schwerpunkt

Zusammenfassung

Mit der Einführung von Vergleichsarbeiten (VERA) im Rahmen eines Low-Stakes-Systems ist die Erwartung verbunden, dass die den Schulen zurückgemeldeten Daten Unterrichts- und Schulentwicklung anstoßen. Im Unterschied zur Nutzung der Daten für Unterrichtsentwicklung wurde die Nutzung für Personalentwicklung in Deutschland bislang nicht untersucht. Auf Grundlage einer Online-Befragung von Schulleitungen und einer Paper-Pencil-Befragung von Lehrkräften wird erstmals der Frage nachgegangen, in welchem Umfang VERA-Daten von Schulleitungen für Personalentwicklung sowie in Fachkonferenzen für Fortbildungsplanung genutzt werden und welche Faktoren die Nutzung beeinflussen. Von den untersuchten schulleiterspezifischen Merkmalen (Einstellung im Sinne der wahrgenommenen Nützlichkeit der Daten, Qualifikation, Organisation und Alter der Schulleitung) hat ausschließlich die Nützlichkeit einen positiven Einfluss auf die Datennutzung. Die Nutzung der VERA-Daten für Fortbildungsplanung in den Fachkonferenzen wird entscheidend durch data-wise leadership der Schulleitung sowie durch die kollaborative Auswertung der Ergebnisse positiv beeinflusst.

Schlüsselwörter

Vergleichsarbeiten Personalentwicklung Datenbasierte Schulentwicklung Fortbildungsplanung 

Comparative tests and teacher development: extent of data use and requirements for this use

Abstract

The introduction of comparative tests in a low-stakes system was carried out in the expectation that the data feedback to schools would act as a stimulus for the development of the schools and the standard of classroom teaching. By contrast with the use of data to develop teaching, the use of data for personnel development has not yet been studied in Germany. On the basis of an on-line survey of head teachers and a paper-and-pencil survey of teaching staff, the study examines for the first time the extent to which comparative test data is used by head teachers for personnel development and as a means to plan in-service training in subject conferences, and what factors influence whether the data is used in this way. Of the head teacher characteristics which were studied (attitude in relation to the perceived usefulness of the data, qualifications, organisation and age of the head teacher), usefulness is the only characteristic which has a positive effect on the use of the data. The use of comparative test data to plan in-service training in subject conferences is positively influenced by data-wise leadership by the head teacher and by collaborative evaluation.

Keywords

Comparative tests Data-based school development Personnel development Planning of in-service training 

Literatur

  1. Altrichter, H. (2010). Schul- und Unterrichtsentwicklung durch Datenrückmeldung. In H. Altrichter & K. Maag Merki (Hrsg.), Handbuch Neue Steuerung im Schulsystem (S. 219–254). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  2. Altrichter, H., & Kanape-Willingshofer, A. (2012). Bildungsstandards und externe Überprüfung von Schülerkompetenzen: Mögliche Beiträge externer Messungen zur Erreichung der Qualitätsziele der Schule. In B. Herzog-Punzenberger (Hrsg.), Nationaler Bildungsbericht Österreich 2012. Bd. 2: Fokussierte Analysen bildungspolitischer Schwerpunktthemen (S. 355–394). Graz: Leykam.Google Scholar
  3. Altrichter, H., & Maag Merki K. (2010). Handbuch Neue Steuerung im Schulsystem. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  4. Amt für Statistik Berlin-Brandenburg. (2013a). Allgemeinbildende Schulen im Land Brandenburg Schuljahr 2012/2013. https://www.statistik-berlin-brandenburg.de/Publikationen/Stat_Berichte/2013/SB_B01-01-00_2012j01_BB.pdf. Zugegriffen: 01. Dez. 2013.
  5. Amt für Statistik Berlin-Brandenburg. (2013b). Bildung in Berlin und Brandenburg 2012. Ein indikatorengestützter Bericht zur Bildung im Lebenslauf. https://www.statistik-berlin-brandenburg.de/home/pdf/RBB2012-VSB2012.pdf. Zugegriffen: 01. Dez. 2013.
  6. Anderson, S., Leithwood, K., & Strauss, T. (2010). Leading data use in schools: Organizational conditions and practices at the school and district level. Leadership and Policy in Schools, 9(3), 292–327.CrossRefGoogle Scholar
  7. Appius, S., Steger Vogt, E., Kansteiner-Schänzlin, K., & Bach-Blattner, T. (2012). Personalentwicklung an Schulen – Eine Bestandsaufnahme aus Sicht deutscher und schweizerischer Schulleitungen. Empirische Pädagogik, 26(1), 123–141.Google Scholar
  8. Bergkvist, L., & Rossiter, J. R. (2007). The predictive validity of multiple-item versus single-item measures of the same constructs. Journal of Marketing Research, 44(2), 175–184.CrossRefGoogle Scholar
  9. Böckelmann, Ch., & Mäder, K. (2007). Fokus Personalentwicklung. Konzepte und ihre Anwendung im Schulfeld. Zürich: Pestalozzianum.Google Scholar
  10. Bonsen, M. (2009). Führung, Delegation und ‚distributed leadership‘ – Unterrichtswirksame Schulleitung in Zeiten der datengestützten Schulentwicklung. In T. Bohl & H. Kiper (Hrsg.), Lernen aus Evaluationsergebnissen – Verbesserungen planen und implementieren (S. 263–278). Bad Heilbrunn: Klinkhardt.Google Scholar
  11. Bonsen, M., Büchter, A., & Peek, R. (2006). Datengestützte Schul- und Unterrichtsentwicklung – Bewertungen der Lernstandserhebungen in NRW durch Lehrerinnen und Lehrer. In W. Bos, H. G. Holtappels, H. Pfeiffer, H.-G. Rolff & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung (S. 125–148). Weinheim: Juventa.Google Scholar
  12. Boudett, K. P., & Steele, J. L. (2007). Data wise in action: Stories of schools using data to improve teaching and learning. Harvard Education Press.Google Scholar
  13. Brauckmann, S. (2012). Schulleitungshandeln zwischen deconcentration, devolution und delegation (3D) – empirische Annäherungen aus internationaler Perspektive. Empirische Pädagogik, 26(1), 78–102.Google Scholar
  14. Breiter, A., & Light, D. (2006). Data for school improvement: Factors for designing effective information systems to support decision-making in schools. IEEE Educational Technology & Society, 9(3), 206–217.Google Scholar
  15. Brunner, C., Fasca, C., Heinze, J., Honey, M., Light, D., Mandinach, E., & Wexler, D. (2005). Linking data and learning: The grow network study. Journal of Education for Students Placed At Risk, 10(3), 241–267.CrossRefGoogle Scholar
  16. Buhren, C. G., & Rolff, H. G. (2009). Personalmanagement für die Schule: Ein Handbuch für Schulleitung und Kollegium (2. Aufl.). Weinheim: Beltz.Google Scholar
  17. Carlson, D., Borman, G., & Robinson, M. (2011). A multistate district-level cluster randomized trial of the impact of data-driven reform on reading and mathematics achievement. Educational Evaluation and Policy Analysis, 33(3), 378–398.CrossRefGoogle Scholar
  18. Conger, A. J. (1974). A revised definition for suppressor variables: A guide to their identification and interpretation. Educational and Psychological Measurement, 34, 35–46.CrossRefGoogle Scholar
  19. Darling-Hammond, L., & Sykes, G. (Hrsg.). (1999). Teaching as the learning profession: Handbook of policy and practice. San Francisco: Jossey Bass.Google Scholar
  20. Datnow, A., Park, V., & Wohlstetter, P. (2007). Achieving with data: How high-performing school systems use data to improve instruction for elementary students. Los Angeles: USC Center on Educational Governance. http://www.newschools.org/files/AchievingWithData.pdf. Zugegriffen: 01. Dez. 2013.
  21. Dweck, C. S., & Leggett, E. L. (1988). A social-cognitive approach to motivation and personality. Psychological Review, 95(2), 256–273.CrossRefGoogle Scholar
  22. Earl, L., & Katz, S. (2006). Leading schools in a data-rich world: Harnessing data for school improvement. Thousand Oaks: Corwin.Google Scholar
  23. Farley-Ripple, E. N., & Buttram, J. L. (in Druck). Developing collaborative data use through professional learning communities: Early lessons from Delaware. Studies in Educational Evaluation.  http://dx.doi.org/10.1016/j.stueduc.2013.09.006. Zugegriffen: 01. Dez. 2013.
  24. Fishman, B. J., Marx, R. W., Best, S., & Tal, R. T. (2003). Linking teacher and student learning to improve professional development in systemic reform. Teaching and Teacher Education, 19(6), 643–658.CrossRefGoogle Scholar
  25. Gräsel, C., Fußangel, K., & Pröbstel, C. (2006). Lehrkräfte zur Kooperation anregen – eine Aufgabe für Sisyphos? Zeitschrift für Pädagogik, 52(2), 205–219.Google Scholar
  26. Groß Ophoff, J. (2013). Lernstandserhebungen: Reflexion und Nutzung. Münster: Waxmann.Google Scholar
  27. Groß Ophoff, J., Koch, U., Hosenfeld, I., & Helmke, A. (2006). Ergebnisrückmeldungen und ihre Rezeption im Projekt VERA. In H. Kuper & J. Schneewind (Hrsg.), Rückmeldung und Rezeption von Forschungsergebnissen – Zur Verwendung wissenschaftlichen Wissens im Bildungssystem (S. 19–40). Münster: Waxmann.Google Scholar
  28. Groß Ophoff, J., Hosenfeld, I., & Koch, U. (2007). Formen der Ergebnisrezeption und damit verbundene Schul- und Unterrichtsentwicklung. Empirische Pädagogik, 21(4), 411–427.Google Scholar
  29. Hartung-Beck, V. (2009). Schulische Organisationsentwicklung und Professionalisierung. Folgen von Lernstandserhebungen an Gesamtschulen. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  30. Hellrung, K., & Hartig, J. (2013). Understanding and using feedback – A review of empirical studies concerning feedback from external evaluations to teachers. Educational Research Review, 9, 174–190.CrossRefGoogle Scholar
  31. Helmke, A., & Hosenfeld, I. (2005). Standardbasierte Unterrichtsevaluation. In G. Brägger, B. Bucher & N. Landwehr (Hrsg.), Schlüsselfragen zur externen Schulevaluation (S. 127–151). Bern: h.e.p.-Verlag.Google Scholar
  32. Hosenfeld, A. (2010). Führt Unterrichtsrückmeldung zu Unterrichtsentwicklung? Die Wirkung videographischer und schriftlicher Rückmeldungen bei Lehrkräften der vierten Jahrgangsstufe (Empirische Erziehungswissenschaft, Vol. 22). Münster: Waxmann.Google Scholar
  33. Ikemoto, G. S., & Marsh, J. (2007). Cutting through the „data-driven“ mantra: Different concep-tions of data-driven decision making. Yearbook of the National Society for the Study of Education, 106(1), 105–131.CrossRefGoogle Scholar
  34. Jak, S., Oort, F. J., & Dolan, C.V. (2013). A test for cluster bias: Detecting violations of measurement invariance across clusters in multilevel data. Structural Equation Modeling, 20, 265–282.CrossRefGoogle Scholar
  35. Kerr, K. A., Marsh, J. A., Ikemoto, G. S., Darilek, H., & Barney, H. (2006). Strategies to promote data use for instructional improvement: Actions, outcomes, and lessons from three urban districts. American Journal of Education, 112(4), 496–520.CrossRefGoogle Scholar
  36. Klieme, E. (2004). Was sind Kompetenzen und wie lassen sie sich messen? Pädagogik, 56(6), 10–13.Google Scholar
  37. Klieme, E., Avenarius, H., Blum, W., Döbrich, P., Gruber, H., Prenzel, M., Reiss, K., Riquarts, K., Rost, J., Tenorth, H. E., & Vollmer, H. J. (2003). Zur Entwicklung nationaler Bildungsstandards: Eine Expertise. Berlin: Bundesministerium für Bildung und Forschung.Google Scholar
  38. KMK (2004) = Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2004). Bildungsstandards der Kultusministerkonferenz Erläuterungen zur Konzeption und Entwicklung. http://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2004/2004_12_16-Bildungsstandards-Konzeption-Entwicklung.pdf. Zugegriffen: 01. Dez. 2013.
  39. KMK (2010) = Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2010). Konzeption der Kultusministerkonferenz zur Nutzung der Bildungsstandards für die Unterrichtsentwicklung. Köln: Carl Link. http://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2010/2010_00_00-Konzeption-Bildungsstandards.pdf. Zugegriffen: 01. Dez. 2013.
  40. KMK (2012) = Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2012). Vereinbarung zur Weiterentwicklung von VERA (Beschluss der Kultusministerkonferenz vom 08.03.2012). http://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2012/2012_03_08_Weiterentwicklung-VERA.pdf. Zugegriffen: 01. Dez. 2013.
  41. Knapp, M. S., & Copland, M. A., & Swinnerton, J. A. (2007). Data-informed leadership: Insights from current research, theory, and practice. In P. Moss (Hrsg.), Evidence and decision making – the 106th yearbook of the national society for the study of education (S.74–104). Chicago: University of Chicago Press.Google Scholar
  42. Koch, U. (2011). Verstehen Lehrkräfte Rückmeldungen aus Vergleichsarbeiten? Datenkompetenz von Lehrkräften und die Nutzung von Ergebnisrückmeldungen aus Vergleichsarbeiten. Münster: Waxmann.Google Scholar
  43. Koch, U., Groß Ophoff, J., Hosenfeld, I., & Helmke, A. (2006). Von der Evaluation zur Schul- und Unterrichtsentwicklung – Ergebnisse der Lehrerbefragungen zur Auseinandersetzung mit den VERA-Rückmeldungen. In F. Eder, A. Gastager & F. Hofmann (Hrsg.), Qualität durch Standards? Beiträge zur 67. Tagung der Arbeitsgruppe der Empirischen Bildungsforschung (AEPF), Salzburg (S. 187–199). Münster: Waxmann.Google Scholar
  44. Kühle, B. (2010). Zentrale Lernstandserhebungen – Ergebnisorientierte Unterrrichtsentwicklung? Schulische Strategien beim Umgang mit Ergebnissen aus den Schulrückmeldungen im Kontext der ersten Lernstandserhebungen 2004/2005 in Nordrhein-Westfalen. Berlin: Köster.Google Scholar
  45. Kühle, B., & Peek, R. (2007). Lernstandserhebungen in Nordrhein-Westfalen. Evaluationsbefunde zur Rezeption und zum Umgang mit Ergebnisrückmeldungen in Schulen. Empirische Pädagogik, 21(4), 428–447.Google Scholar
  46. Kühle, B., & van Ackeren, I. (2012). Wirkungen externer Evaluationsformen für eine evidenzbasierte Schul- und Unterrichtsentwicklung. In M. Ratermann & S. Stöbe-Blossey (Hrsg.), Governance von Schul- und Elementarbildung (S. 45–62). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  47. Kuper, H., & Hartung, V. (2007). Überzeugungen zur Verwendung des Wissens aus Lernstandserhebungen. Zeitschrift für Erziehungswissenschaft, 10(2), 214–229.CrossRefGoogle Scholar
  48. Lachat, M. A., & Smith, S. (2005). Practices that support data use in urban high schools. Journal of Education for Students Placed at Risk, 10(3), 333–349.Google Scholar
  49. Le Breton, J. M., & Senter, J. L. (2008). Answers to 20 Questions About Interrater Reliability and interrater agreement. Organizational Research Methods, 11(4), 815–852.CrossRefGoogle Scholar
  50. Levin, J., & Datnow, A. (2012). The principal as agent of mediated educational reform: Dynamic models of case studies of data driven decision making. School Effectiveness and School Improve-ment, 23(2), 179–201.CrossRefGoogle Scholar
  51. LPA Learning Points Associate. (2004). Guide to using data in school improvement efforts: A compilation of knowledge from data retreats and data use at Learning Points Associates. http://www.learningpt.org/pdfs/datause/guidebook.pdf. Zugegriffen: 01. Dez. 2013.
  52. Lüdtke, O., Trautwein, U., Kunter, M., & Baumert, J. (2006). Analyse von Lernumwelten: Ansätze zur Bestimmung der Reliabilität und Übereinstimmung von Schülerwahrnehmungen. Zeitschrift für Pädagogische Psychologie, 20, 85–96.CrossRefGoogle Scholar
  53. Lüdtke, O., Robitzsch, A., Trautwein, U., & Kunter, M. (2009). Assessing the impact of learning environments: How to use student ratings in multilevel modelling. Contemporary Educational Psychology, 34, 120–131.CrossRefGoogle Scholar
  54. Maier, U. (2008). Rezeption und Nutzung von Vergleichsarbeiten – Rezeption und Nutzung von Vergleichsarbeiten aus der Perspektive von Lehrkräften. Zeitschrift für Pädagogik, 54(1), 95–117.Google Scholar
  55. Maier, U. (2010). Effekte testbasierter Rechenschaftslegung auf Schule und Unterricht: Ist die internationale Befundlage auf Vergleichsarbeiten im deutschsprachigen Raum übertragbar? Zeitschrift für Pädagogik, 56(1), 112–128.Google Scholar
  56. Maier, U., & Kuper, H. (2012). Vergleichsarbeiten als Instrumente der Qualitätsentwicklung an Schulen. Überblick zum Forschungsstand. Die Deutsche Schule, 104(1), 88–99.Google Scholar
  57. Maier, U., Bohl, T., Kleinknecht, M., & Metz, K. (2011). Einflüsse von Merkmalen des Testsystems und Schulkontextfaktoren auf die Akzeptanz und Rezeption von zentralen Testrückmeldungen durch Lehrkräfte. Journal for Educational Research Online/Journal für Bildungsforschung Online, 3(2), 62–93.Google Scholar
  58. Maier, U., Metz, K., Bohl, T., Kleinknecht, M., & Schymala, M. (2012). Vergleichsarbeiten als Instrument der datenbasierten Schul- und Unterrichtsentwicklung in Gymnasien. In A. Wacker, U. Maier & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung. Empirische Befunde und forschungsmethodische Implikationen (S. 197–224). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  59. Mandinach, E. B., & Honey, M. (Hrsg.). (2008). Data driven school improvement: Linking data and learning. New York: Teachers College Press.Google Scholar
  60. Mason, S. (2002). Turning data into knowledge: Lessons from six milwaukee public schools. Madison: Wisconsin Center for Education Research.Google Scholar
  61. Mayntz, R. (1980). Implementation politischer Programme. Empirische Forschungsberichte. Königstein: Athenäum.Google Scholar
  62. McNaughton, S., Lai, M., & Hsiao, S. (2012). Testing the effectiveness of an intervention model based on data use: A replication series across clusters of schools. School Effectiveness and School Improvement, 23(2), 203–228.Google Scholar
  63. Meetz, F. (2007). Personalentwicklung als Element der Schulentwicklung. Bestandsaufnahme und Perspektiven. Bad Heilbrunn: Klinkhardt.Google Scholar
  64. Mieles, T., & Foley, E. (2005). Data warehousing: Preliminary findings from a study of implementing districts. Philadelphia: Annenberg Institute for School Reform.Google Scholar
  65. Mingchu, L. (2008). Structural equation modeling for high school principals’ data-driven decision making: An analysis of information use environments. Educational Administration Quarterly, 44(5), 603–634.CrossRefGoogle Scholar
  66. Ministerium für Arbeit, Soziales, Frauen und Familie. (2011). Gleichstellungspolitisches Rah-menprogramm für das Land Brandenburg 2011–2014. http://www.esf.brandenburg.de/media_fast/667/gleichstellungspolitisches_rahmenprogramm.pdf. Zugegriffen: 01. Dez. 2013.
  67. Ministerium für Bildung, Jugend und Sport. (2012). Verwaltungsvorschriften über die Führung eines Leistungs- und Entwicklungsgesprächs mit Lehrkräften an öffentlichen Schulen (VV – Leistungs- und Entwicklungsgespräch-Lehrkräfte – VVLEG-L). In Amtsblatt des Ministeriums für Bildung, Jugend und Sport, 21. Jahrgang, Nr. 7., S. 286–290. http://www.brandenburg.de/media/1172/mitarbeitergespraech.pdf. Zugegriffen: 01. Dez. 2013.
  68. Nachtigall, C., & Jantowski, A. (2007). Die Thüringer Kompetenztests unter besonderer Berücksichtigung der Evaluationsergebnisse zum Rezeptionsverhalten. Empirische Pädagogik, 21(4), 401–410.Google Scholar
  69. NSDC National Staff Development Council. (2001). NSDC standards for staff development. http://www.maine.gov/education/achievingresults/mpdm/docu-ments/NSDC.pdf. Zugegriffen: 01. Dez. 2013.
  70. O’Day, J. A. (2002). Complexity, accountability, and school improvement. Harvard Educational Review, 72(3), 293–329.Google Scholar
  71. O’Day, J. A. (2004). Complexity, accountability, and school improvement. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 15–43). New York: Teachers College Press.Google Scholar
  72. Peek, R. (2004). Qualitätsuntersuchung an Schulen zum Unterricht in Mathematik (QuaSUM) –Klassenbezogene Ergebnisrückmeldungen und ihre Rezeption in Brandenburger Schulen. Empirische Pädagogik, 18(1), 82–114.Google Scholar
  73. Peek, R. (2006). Dateninduzierte Schulentwicklung. In H. Buchen & H.-G. Rolff (Hrsg.), Professionswissen Schulleitung. Weinheim: Beltz.Google Scholar
  74. Pfitzner-Eden, F., Thiel, F., & Horsley, J. (in Begutachtung). A new measure of teacher self-efficacy: Exploring its validity across two countries.Google Scholar
  75. Rolff, H.-G. (2007). Studien zu einer Theorie der Schulentwicklung. Weinheim: Beltz.Google Scholar
  76. Sarstedt, M., & Wilczynski, P. (2009). More for less? A comparison of single-item and multi-item measures. Die Betriebswirtschaft, 69(2), 211–227.Google Scholar
  77. Schildkamp, K., & Kuiper, W. (2010). Data-informed curriculum reform: Which data, what purposes, and promoting and hindering factors. Teaching and Teacher Education, 26(3), 482–496.CrossRefGoogle Scholar
  78. Schildkamp, K., Ehren, M., & Lai, M. K. (2012). Editorial article for the special issue on data-based decision making around the world: From policy to practice to results. School Effectiveness and School Improvement, 23(2), 123–131.CrossRefGoogle Scholar
  79. Schneewind, J., & Kuper, H. (2009). Rückmeldeformate und Verwendungsmöglichkeiten der Ergebnisse aus zentralen Lernstandserhebungen. In T. Bohl & H. Kiper (Hrsg.), Lernen aus Evaluationsergebnissen. Verbesserungen planen und implementieren (S. 113–129). Bad Heilbrunn: Verlag Julius Klinkhardt.Google Scholar
  80. Schrader, F. W., & Helmke, A. (2004). Von der Evaluation zur Innovation? Die Rezeptionsstudie WALZER: Ergebnisse der Lehrerbefragung. Empirische Pädagogik, 18(1), 140–161.Google Scholar
  81. Streifer, P. A., & Schumann, J. A. (2005). Using data mining to identify actionable information: Breaking new ground in data-driven decision-making. Journal of Education for Students Placed At Risk, 10(3), 281–293.CrossRefGoogle Scholar
  82. Sutherland, S. (2004). Creating a culture of data use for continuous improvement: A case study of an Edison Project school. The American Journal of Evaluation, 25(3), 277–293.CrossRefGoogle Scholar
  83. Thillmann, K., Bach, A., Gerl, C., & Thiel, F. (2013). Schulische Selbststeuerung durch interne Evaluation. Eine Analyse von Evaluationsprogrammen Berliner und Brandenburger Gymnasien. In I. van Ackeren, M. Heinrich & F. Thiel (Hrsg.), Evidenzbasierte Steuerung im Bildungssystem? Befunde aus dem BMBF-SteBis-Verbund (Die Deutsche Schule, 12. Beiheft, S. 197–225). Münster: Waxmann.Google Scholar
  84. Timperley, H., & Parr, J. (2009). Chain of influence from policy to practice in the new zealand literacy strategy. Research Papers in Education, 24(2), 135–154.CrossRefGoogle Scholar
  85. Torgesen, J., Meadows, J. G., & Howard, P. (o. D.). Using student outcome data to help guide professional development and teacher support: Issues for reading first and K–12 reading plans. A report from the Florida Center for Reading Research. http://www.fcrr.org/assessment/pdf/Prof_dev_guided.pdf. Zugegriffen: 01. Dez. 2013.
  86. vbw Vereinigung der Bayerischen Wirtschaft e. V. (2010). Bildungsautonomie: Zwischen Regulierung und Eigenverantwortung – die Bundesländer im Vergleich. Expertenrating der Schul- und Hochschulgesetze der Länder zum Jahresgutachten 2010. München: VS Verlag für Sozialwissenschaften.Google Scholar
  87. Wang, M. C., & Gennari, P. (1983). Analysis of the design, implementation and effects of a data-based staff development program. Teacher Education and Special Education, 6(4), 211–224.CrossRefGoogle Scholar
  88. Wayman, J. C., Midgley, S., & Stringfield, S. (2006). Leadership for data-based decision-making: Collaborative data teams. In A. Danzig, K. Borman, B. Jones & B. Wright (Hrsg.), New models of professional development for learner centered leadership (S. 189–206). Mahwah: Erlbaum.Google Scholar
  89. Wayman, J. C., Cho, V., & Johnston, M. T. (2007). The data informed district: A district-wide evaluation of data use in the Natrona county school district. Austin: The University of Texas.Google Scholar
  90. Wohlstetter, P., Datnow, A., & Park, V. (2008). Creating a system for data-driven decision-making: Applying the principal-agent framework. School Effectiveness and School Improvement, 19(3), 239–259.CrossRefGoogle Scholar
  91. Young, V. M. (2006). Teachers’ use of data: Loose coupling, agenda setting, and team norms. American Journal of Education, 112(4), 521–548.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2014

Authors and Affiliations

  • Anabel Bach
    • 1
    Email author
  • Sebastian Wurster
    • 2
  • Katja Thillmann
    • 1
  • Hans Anand Pant
    • 2
  • Felicitas Thiel
    • 1
  1. 1.AB Schulpädagogik/SchulentwicklungsforschungFreie Universität BerlinBerlinDeutschland
  2. 2.Institut zur Qualitätsentwicklung im Bildungswesen (IQB)Humboldt-Universität zu BerlinBerlinDeutschland

Personalised recommendations