Advertisement

Zeitschrift für Didaktik der Naturwissenschaften

, Volume 21, Issue 1, pp 111–126 | Cite as

Physik erklären – Messung der Erklärensfähigkeit angehender Physiklehrkräfte in einer simulierten Unterrichtssituation

  • Christoph KulgemeyerEmail author
  • Elisabeth Tomczyszyn
Original Paper

Zusammenfassung

Gut erklären zu können wird als wichtige Eigenschaft von Lehrkräften oft genannt, aber nur selten erforscht. In diesem Beitrag wird zunächst der theoretische Hintergrund von Unterrichtserklärungen herausgearbeitet, um diese von wissenschaftlichen Erklärungen abzugrenzen und spezifisch zu modellieren. Anschließend wird eine Methode vorgestellt, mit der es auf Basis dieses Modells gelingen kann, aus Videos von Erklärungen auf die Ausprägung der Erklärensfähigkeit der Erklärenden zurückzuschließen. Dazu wird eine standardisierte Erhebungsmethode verwendet, die möglichst real eine Erklärenssituation nachstellt: die Experten-Novizen-Dialogmethode. Dabei erklärt eine angehende Physiklehrkraft einer Schülerin ein physikalisches Phänomen. Die Schülerin darauf wurde trainiert, in jeder Erklärenssituation vergleichbare Fragen zu stellen bzw. Prompts zu geben. Die Situationen werden gefilmt und kategorienbasiert ausgewertet. Die Kategorien, aus denen sich das Maß für Erklärensfähigkeit zusammensetzt, werden präsentiert (z. B. Umschreibung von Fachbegriffen in Alltagssprache). Aus dem Auftreten der Kategorien in den Erklärungen wird ein quantitatives Maß entwickelt, das die Ausprägung von Erklärensfähigkeit repräsentieren soll. Dazu wurde eine Expertenbefragung durchgeführt, um die Validität des Testverfahrens überprüfen zu können. Die Ergebnisse zeigen, dass das Maß in der Lage ist, die Expertenentscheidung bei Paarvergleichen über den besseren von zwei Erklärern vorherzusagen (κ= 0,750), es ist zudem ausreichend reliabel (α = 0,772). Auch bei einem zweiten Erhebungszeitpunkt derselben Erklärer mit anderen Themen und Adressaten der Erklärung zeigen sich weitgehend stabile Urteile über den besseren Erklärer (Übereinstimmung des Urteils in zwei Messzeitpunkten: κ = 0,600).

Schlüsselwörter

Erklären Unterrichtserklärung professionelle Handlungskompetenz Performanztest 

Explaining physics: assessing physics explaining competence with a teaching performance test

Abstract

Explaining is often regarded as an integral part of science teachers’ professional competence. In this paper we present a way to measure explaining competence. As a theoretical framework we use a model on science teaching explanations. We adopt an assessment method for science communication competence that is close to real teaching situations. This method is based on an expert-novice dialogue: A teacher trainee (expert) explains a physics phenomenon to a high-school student (novice) in a controlled test setting which is standardized by topic, duration (10 min) and especially by standardized prompts given by the high-school student (e.g., “Can you give me another example?”). We videotape this dialogue. To measure explaining competence we firstly analyse the videos qualitatively. Categories and indicators for the quality of explaining were derived inductively from the reactions to these prompts, and deductively from the theory of explaining. These categories were used to develop am initial quantitative measure for explaining skills. In a successive process of improving the reliability of the measure and its validity by comparing it with what the experts regard as good explaining, we reduced the number of categories needed to identify the level of explaining skills.

Keywords

Explaining Science teaching explanation Professional competence Performance test 

Literatur

  1. Aufschnaiter, C. v., & Blömeke, S. (2010). Professionelle Kompetenz von (angehenden) Lehrkräften erfassen – Desiderata. Zeitschrift für Didaktik der Naturwissenschaften, 16, 361–367.Google Scholar
  2. Bartelborth, T. (2007). Erklären. Berlin: De Gruyter.CrossRefGoogle Scholar
  3. Berland, L. K., & McNeill, K. L. (2012). For whom is argument and explanation a necessary distinction? A response to Osborne and Patterson. Science Education, 96(5), 808–813.CrossRefGoogle Scholar
  4. Brewer, W., Chinn, C., & Samarapungavan, A. (2000). Explanation in scientists and children. In F. Keil & R. Wilson (Hrsg.), Explanation and cognition (S. 279–298). Cambridge: The MIT Press.Google Scholar
  5. Brown, G. (2006). Explaining. In O. Hargie (Hrsg.), The handbook of communication skills (S. 195–228). East Sussex: Taylor & Francis.Google Scholar
  6. Clark, H., & Brennan, S. (1991). Grounding in communication. In L. Resnick, J. Levine, & S. Teasley (Hrsg.), Perspectives on socially shared cognition (S. 127–149). Washington: American Psychological Association.CrossRefGoogle Scholar
  7. Felchow, S. (2013). Validierung einer qualitativen Methode zur Diagnostik von Erklärungswissen bei Physikstudierenden. Unveröffentlichte Masterarbeit Universität Bremen. (Auf Anfrage erhältlich).Google Scholar
  8. Fleischhauer, J. (2013). Wissenschaftliches Argumentieren und Entwicklung von Konzepten beim Lernen von Physik. Berlin: Logos.Google Scholar
  9. Gage, N. (1968). The microcriterion of effectiveness in explaining. In N. Gage (Hrsg.), Explorations of the teacher’s effectiveness in explaining, Technical Report No. 4 (S. 1–8). Stanford Center for Research and Developement in Teaching.Google Scholar
  10. Geelan, D. (2012). Teacher explanations. In B. Fraser, K. Tobin, & C. McRobbie (Hrsg.), Second international handbook of science education (S. 987–999). Dordrecht: Springer.CrossRefGoogle Scholar
  11. Großmann, S., & Hertel, I. (Hrsg.). (2014). Zur fachlichen und fachdidaktischen Ausbildung für das Lehramt Physik. Bad Honnef: DPG.Google Scholar
  12. Hempel, C., & Oppenheim, P. (1948). Studies in the logic of explanation. Philosophy of Science, 15(2), 135–175.CrossRefGoogle Scholar
  13. Jenßen, L., Dunekacke, S., & Blömeke, S. (2015). Qualitätssicherung in der Kompetenzforschung: Empfehlungen für den Nachweis von Validität in Testentwicklung und Veröffentlichungspraxis. In Blömeke, S. & Zlatkin-Troitschanskaia, O. (Hrsg.), Kompetenzen von Studierenden: 61. Beiheft der Zeitschrift für Pädagogik (S. 11–31). Weinheim: Beltz.Google Scholar
  14. Kiel, E. (1999). Erklären als didaktisches Handeln. Würzburg: Ergon.Google Scholar
  15. Kitcher, P. (1981). Explanatory unification. Philosophy of Science, 48(4), 507–531.CrossRefGoogle Scholar
  16. Kulgemeyer, C. (2010). Physikalische Kommunikationskompetenz. Modellierung und Diagnostik. Berlin: Logos.Google Scholar
  17. Kulgemeyer, C. (2013). Gelingensbedingungen physikalischer Erklärungen. Zu einer konstruktivistischen Auffassung des Erklärens. PhyDid B – Didaktik der Physik.Google Scholar
  18. Kulgemeyer, C., & Schecker, H. (2009a). Kommunikationskompetenz in der Physik: Zur Entwicklung eines domänenspezifischen Kompetenzbegriffs. Zeitschrift für Didaktik der Naturwissenschaften, 15, 131–153.Google Scholar
  19. Kulgemeyer, C., & Schecker, H. (2009b). Physikalische Darstellungsformen. Ein Beitrag zur Klärung von Kommunikationskompetenz. Der mathematische und naturwissenschaftliche Unterricht 62(6), 331–336.Google Scholar
  20. Kulgemeyer, C., & Schecker, H. (2012). Physikalische Kommunikationskompetenz – Empirische Validierung eines normativen Modells. Zeitschrift für Didaktik der Naturwissenschaften, 18, 29–54.Google Scholar
  21. Kulgemeyer, C., & Schecker, H. (2013). Students explaining science – assessment of science communication competence. Research in Science Education, 43, 2235–2256.CrossRefGoogle Scholar
  22. Kulgemeyer, C., & Starauschek, E. (2014). Analyse der Verständlichkeit naturwissenschaftlicher Fachtexte. In D. Krüger, I. Parchmann, & H. Schecker (Hrsg.), Methoden in der naturwissenschaftsdidaktischen Forschung (S. 241–253). Heidelberg: Springer.CrossRefGoogle Scholar
  23. Kulgemeyer, C., Borowski, A., Fischer, H., Gramzow, Y., Reinhold, P., Riese, J., Schecker, H., Tomczyszyn, E., & Walzer, M. (2012). ProfiLe-P – Professionswissen in der Lehramtsausbildung Physik. PhyDid B – Didaktik der Physik – Beiträge zur DPG-Frühjahrstagung.Google Scholar
  24. Krey, O. (2012). Zur Rolle der Mathematik in der Physik. Wissenschaftstheoretische Aspekte und Vorstellungen Physiklernender. Berlin: Logos.Google Scholar
  25. Langer, I., & Schulz von Thun, F. (2007). Messung komplexer Merkmale in Psychologie und Pädagogik. Münster: Waxmann.Google Scholar
  26. Liebold, R., & Trinczek, R. (2009). Experteninterviews. In: S. Kühl, P. Strodtholz, & A. Taffertshofer (Hrsg.), Handbuch Methoden der Organidationsforschung: quantitative und qualitative Methoden (S. 32–56). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  27. Mayring, P. (2003). Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim: Beltz.Google Scholar
  28. Merzyn, G. (2005). Junge Lehrer im Referendariat. Der mathematische und naturwissenschaftliche Unterricht, 58(1), 4–7.Google Scholar
  29. Miller, G. E. (1990). The assessment of clinical skills/competence/performance. Academic medicine. Journal of the Association of American Medical Colleges, 65, 63–67.Google Scholar
  30. Nagel, E. (1961). The strcuture of science: Problems in the logic of scientific explanation. New York: Harcourt, Brace & World.Google Scholar
  31. Norris, S. P., Guilbert, S. M., Smith, M. L., Hakimelahi, S., & Phillips, L. M. (2005). A theoretical framework for narrative explanation in science. Science Education, 89(4), 535–563.CrossRefGoogle Scholar
  32. Ogborn, J., Kress, G., Martins, I., & McGillicuddy, K. (1996). Explaining science in the classroom. Buckingham: Open University Press.Google Scholar
  33. Ohle, A., Fischer, H. E., & Kauertz, A. (2011). Der Einfluss des physikalischen Fachwissens von Primarstufenlehrkräften auf Unterrichtsgestaltung und Schülerleistung. Zeitschrift für Didaktik der Naturwissenschaften, 17, 357–390.Google Scholar
  34. Olszewski, J. (2010). The impact of physics teachers’ pedagogical content knowledge on teacher action and student outcomes. Berlin: Logos.Google Scholar
  35. Osborne, J. F., & Patterson, A. (2011). Scientific argument and explanation: A necessary distinction? Science Education, 95(4), 627–638.CrossRefGoogle Scholar
  36. Rescher, N. (1962). The stochastic revolution and the nature of scientific explanation. Synthese, 14, 200–215.CrossRefGoogle Scholar
  37. Riese, J., Kulgemeyer, C., Borowski, A., Fischer, H, Gigl, F., Gramzow, Y., Schecker, H., Tomczaszyn, E., & Zander, S. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik. In Blömeke, S. & Zlatkin-Troitschanskaia, O. (Hrsg.), Kompetenzen von Studierenden: 61. Beiheft der Zeitschrift für Pädagogik (S. 55–79). Weinheim: Beltz.Google Scholar
  38. Rusch, G. (1999). Eine Kommunikationstheorie für kognitive Systeme. In G. Rusch & S. Schmidt (Hrsg.), Konstruktivismus in der Medien- und Kommunikationswissenschaft (S. 150–184). Frankfurt a. M.: Suhrkamp.Google Scholar
  39. Schreiber, N. (2012). Diagnostik experimenteller Kompetenz. Berlin: Logos.Google Scholar
  40. Sevian, H., & Gonsalves, L. (2008). Analysing how scientists explain their research: A rubric for measuring the effectiveness of scientific explanations. International Journal of Science Education, 30(11), 1441–1467.CrossRefGoogle Scholar
  41. Shulman, L. (1987). Knowledge and teaching: Foundations of the new reform. Harvard Education Review, 57(1), 1–22.CrossRefGoogle Scholar
  42. Sumfleth, E., & Gnoyke, A. (1995). Die Bedeutung bildlicher Symbolsysteme für Theoriebildungen in der Chemie. Der mathematische und naturwissenschaftliche Unterricht, 48(1), 14–21.Google Scholar
  43. Tomas, L., & Ritchie, S. (2014). The challenge of evaluating students’ scientific literacy in a writing-to-learn contruct. Research in Science Education. doi:10.1007/s11165-014-9412-3.Google Scholar
  44. Toulmin, S. (1958). The uses of argument. Cambridge: Cambridge University Press.Google Scholar
  45. Treagust, D., & Harrison, A. (1999). The genesis of effective science explanations for the classroom. In J. Loughran (Hrsg.), Researching teaching: Methodologies and practices for understanding pedagogy (S. 28–43). Abingdon: Routledge.Google Scholar
  46. Vogelsang, C. (2014). Validierung eines Instruments zur Erfassung der professionellen Handlungskompetenz von (angehenden) Physiklehrkräften – Zusammenhangsanalysen zwischen Lehrerkompetenz und Lehrerperformanz. Berlin: Logos.Google Scholar
  47. Vogelsang, C., & Reinhold, P. (2013). Zur Handlungsvalidität von Tests zum professionellen Wissen von Lehrkräften. Zeitschrift für Didaktik der Naturwissenschaften, 19, 129–157.Google Scholar
  48. Wellenreuther, M. (2005). Lehren und Lernen – aber wie? Empirisch-experimentelle Forschung zum Lehren und Lernen im Unterricht. Hohengehren: Schneider.Google Scholar
  49. Wilson, H., & Mant, J. (2011a). What makes an exemplary teacher of science? The pupils’ perspective. School Science Review, 93(342), 121–125.Google Scholar
  50. Wilson, H., & Mant, J. (2011b). What makes an exemplary teacher of science? The teachers’ perspective. School Science Review, 93(343), 115–119.Google Scholar
  51. Wirtz, M., & Caspar, F. (2002). Beurteilübereinstimmung und Beurteilerreliabilität. Göttingen: Hogrefe.Google Scholar

Copyright information

© Gesellschaft für Didaktik der Physik und Chemie (GDCP); Fachsektion Didaktik der Biologie im VBIO (FDdB im VBIO) and Springer-Verlag GmbH Berlin Heidelberg 2015

Authors and Affiliations

  1. 1.Institut für Didaktik der Naturwissenschaften, Abt. PhysikdidaktikUniversität BremenBremenDeutschland

Personalised recommendations