Advertisement

Ein Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern

  • Roland BergerEmail author
  • Christoph Kulgemeyer
  • Philipp Lensing
Original Paper

Zusammenfassung

Ein konzeptuelles Verständnis der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern ist ein wichtiges Ziel des Physikunterrichts der Oberstufe. Allerdings fehlt im deutschsprachigen Raum dazu bisher ein geeignetes Testinstrument, mit dem Lernziele überprüft werden können. Im Beitrag wird die Entwicklung eines Multiple-Choice-Tests beschrieben, um entsprechenden Unterricht zu evaluieren. In drei Studien wurden Argumente gesammelt, die für die Validität einer solchen Interpretation der Testwerte sprechen. In Studie 1 wurden die Leistungen von 283 Schülerinnen und Schülern erfasst und mittels einer Raschanalyse gezeigt, dass die beiden fokussierten Dimensionen (Verständnis der Bewegung von Ladungsträgern im elektrischen bzw. magnetischen Feld) statistisch getrennt werden können. Dies kann vor allem als Argument für die strukturelle Validität aufgefasst werden. Im Rahmen von Studie 2 wurde die kognitive Validität mit einer Teilstichprobe von 18 Schülerinnen und Schülern aus Studie 1 untersucht. Die Ergebnisse dienten dazu, den Test entsprechend zu modifizieren. In Studie 3 wurden 55 Schülerinnen und Schüler mittels eines einschlägigen, computerbasierten Lernspiels instruiert. Der hohe Zuwachs in den Testscores ist ein Indiz für die Instruktionssensitivität des Tests, einer wichtigen Voraussetzung für konsequentielle Validität. Der Test wird als Onlinematerial zur Nutzung zur Verfügung gestellt.

Schlüsselwörter

Physikunterricht Elektrodynamik Test Validität 

A Multiple-choice-test on the Conceptual Understanding of the Effect of Forces in Static Electric and Magnetic Fields

Abstract

Conceptual understanding of mobile charge carriers in electric and magnetic fields is an essential goal of upper secondary physics instruction. However, it lacks test instruments available in the German language to evaluate whether this goal is achieved. We present such an instrument and discuss evidence concerning significant aspects of validity from three different studies. In the first study, the test instrument has been administered to 283 students from upper secondary physics courses. A Rasch analysis supports the assumption that the two major dimensions (understanding of mobile charge carriers in an electric/a magnetic field) can be differentiated. That result is an argument for structural validity. In a second study, 18 students have been researched using the think-aloud-method; the results support cognitive validity. In the third study, 55 students from four different courses have been tested in a pre- and post-test with an intervention based on a computer game that fosters conceptual understanding. The results support instructional sensitivity, an important prerequisite of consequential validity. The test instrument is available online.

Keywords

Physics instruction Electrodynamics Test instrument Validity 

Notes

Danksagung

Wir danken C. Gellermann, V. Groth und J.-E. Kilimann für Masterarbeiten, in denen Teile der hier publizierten Studie entwickelt und evaluiert wurden. Dies betrifft insbesondere die Entwicklung und Evaluation des Computerspiels sowie die Analysen des Lauten Denkens.

Supplementary material

40573_2019_99_MOESM1_ESM.docx (2.9 mb)
Onlinematerial. Vollständiger Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern

Literatur

  1. American Educational Research Association [AERA], American Psychological Association [APA], & National Council on Measurement in Education [NCME] (2014). Standards for educational and psychological testing. Washington, DC: AERA.Google Scholar
  2. Bond, T., & Fox, C. (2007). Applying the Rasch model: fundamental measurement in the human sciences. Mahwah: LEA.Google Scholar
  3. Clark, L. A., & Watson, D. (1995). Constructing validity: basic issues in objective scale development. Psychological Assessment, 7, 309–319.CrossRefGoogle Scholar
  4. Dickmann, M. (2016). Messung von Experimentierfähigkeiten. Validierungsstudien zur Qualität eines computerbasierten Testverfahrens. Berlin: Logos.Google Scholar
  5. Ding, L., Chabay, R., Sherwood, B., & Beichner, R. (2006). Evaluating an electricity and magnetism assessment tool: brief electricity and magnetism assessment. Physical Review Special Topics—Physics Education Research, 2(1), 1–7.Google Scholar
  6. Dirksen, D. J. (2014). Student assessment. Fast, frequent, formative. Lanham: Rowman & Littlefield Education.Google Scholar
  7. Gadermann, A. M., Guhn, M., & Zumbo, B. D. (2012). Estimating ordinal reliability for Likert-type and ordinal item response data: a conceptual, empirical, and practical guide. Practical Assessment, Research & Evaluation, 17(3), 1–13.Google Scholar
  8. Gellermann, C. (2018). Evaluation eines Computer-Lernspiels zur Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Osnabrück: Universität Osnabrück. Unveröffentlichte MasterarbeitGoogle Scholar
  9. Gog, T., & Sweller, J. (2015). Not new, but nearly forgotten: the testing effect decreases or even disappears as the complexity of learning materials increases. Educational Psychology Review, 27, 247–264.CrossRefGoogle Scholar
  10. Grehn, J., & Krause, J. (2015). Metzler Physik. Gesamtband SII Grundkurs Ausgabe Nordrhein-Westfalen. Braunschweig: Schroedel.Google Scholar
  11. Groth, V. (2016). Analyse von Schülerinterviews zur kognitiven Validierung von Multiple-Choice-Aufgaben sowie zur Identifizierung von Schülervorstellungen zu der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Unveröffentlichte Masterarbeit. Osnabrück: Universität Osnabrück.Google Scholar
  12. Hadenfeldt, J. C., & Neumann, K. (2012). Die Erfassung des Verständnisses von Materie durch Ordered Multiple Choice Aufgaben. Zeitschrift für Didaktik der Naturwissenschaften, 18, 317–338.Google Scholar
  13. Hadenfeldt, J. C., Repenning, B., & Neumann, K. (2014). Die kognitive Validität von Ordered Multiple Choice Aufgaben zur Erfassung des Verständnisses von Materie. Zeitschrift für Didaktik der Naturwissenschaften, 20, 57–68.CrossRefGoogle Scholar
  14. Haladyna, T. M., Downing, S. M., & Rodriguez, M. C. (2002). A review of multiple-choice item-writing guidelines for classroom assessment. Applied Measurement in Education, 15, 309–334.CrossRefGoogle Scholar
  15. Hartig, J., Frey, A., & Jude, N. (2012). Validität. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 143–171). Berlin: Springer.CrossRefGoogle Scholar
  16. Hopf, M., & Wilhelm, T. (2018). Schülervorstellungen zu Feldern und Wellen. In H. Schecker, T. Wilhelm, M. Hopf & R. Duit (Hrsg.), Schülervorstellungen und Physikunterricht (S. 186–208). Berlin: Springer Spektrum.Google Scholar
  17. Kane, M. T. (1992). An argument-based approach to validity. Psychological Bulletin, 112, 527–535.CrossRefGoogle Scholar
  18. Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50, 1–73.CrossRefGoogle Scholar
  19. Kauertz, A. (2008). Schwierigkeitserzeugende Merkmale physikalischer Leistungstestaufgaben. Berlin: Logos.Google Scholar
  20. Landau, L. D., & Lifschitz, E. M. (1977). Theoretische Physik kurzgefaßt – Band 1 Mechanik, Elektrodynamik. München: Carl Hanser.Google Scholar
  21. Lienert, G. A., & Raatz, U. (1998). Testaufbau und Testanalyse. Weinheim: Beltz.Google Scholar
  22. Maloney, D. P., O’Kuma, T. L., Hieggelke, C. J., & Van Heuvelen, A. (2001). Surveying students’ conceptual knowledge of electricity and magnetism. American Journal of Physics, 69(7 Supp1), 12–23.  https://doi.org/10.1119/1.1371296.CrossRefGoogle Scholar
  23. Meinhardt, C., Rabe, T., & Krey, O. (2018). Formulierung eines evidenzbasierten Validitätsarguments am Beispiel der Erfassung physikdidaktischer Selbstwirksamkeitserwartungen mit einem neu entwickelten Instrument. Zeitschrift für Didaktik der Naturwissenschaften, 24, 131–150.CrossRefGoogle Scholar
  24. Messick, S. (1994). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. Research Report RR-94-45. Princeton: Educational Testing Service.Google Scholar
  25. Messick, S. (1995). Validity of psychological assessment. Validation of inferences from persons’ responses as scientific inquiry into score meaning. American Psychologist, 50, 741–749.CrossRefGoogle Scholar
  26. Naumann, A., Hochweber, J., & Hartig, J. (2014). Modeling instructional sensitivity using a longitudinal multilevel differential item functioning approach. Journal of Educational Measurement, 51, 381–399.CrossRefGoogle Scholar
  27. Naumann, A., Musow, S., Aichele, C., Hochweber, J., & Hartig, J. (2019). Instruktionssensitivität von Tests und Items. Zeitschrift für Erziehungswissenschaft, 22, 181–202.CrossRefGoogle Scholar
  28. Niedersächsisches Kultusministerium (2017). Kerncurriculum für das Gymnasium – gymnasiale Oberstufe Physik. db2.nibis.de/1db/cuvo/datei/ph_go_kc_druck_2017.pdf. Zugegriffen: 29. Aug. 2018.Google Scholar
  29. Polikoff, M. S. (2010). Instructional sensitivity as a psychometric property of assessments. Educational Measurement: Issues and Practice, 29, 3–14.CrossRefGoogle Scholar
  30. Riese, J., Kulgemeyer, C., Borowski, A., Fischer, H., Schecker, H., Reinhold, P., Tomczyszyn, E., Gramzow, Y., & Zander, S. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik. 61. Beiheft der Zeitschrift für Pädagogik. (S. 55–79).Google Scholar
  31. Sandmann, A. (2014). Lautes Denken – die Analyse von Denk‑, Lern, und Problemlöseprozessen. In D. Krüger, I. Parchmann & H. Schecker (Hrsg.), Methoden in der naturwissenschaftsdidaktischen Forschung (S. 179–188). Berlin Heidelberg: Springer.CrossRefGoogle Scholar
  32. Schaper, N. (2014). Validitätsaspekte von Kompetenzmodellen und -tests für hochschulische Kompetenzdomänen. In F. Musekamp & G. Spöttl (Hrsg.), Kompetenz im Studium und in der Arbeitswelt. Nationale und internationale Ansätze zur Erfassung von Ingenieurkompetenzen (S. 21–48). Frankfurt, Main: Peter Lang.Google Scholar
  33. Schecker, H., Fischer, H. E., & Wiesner, H. (2004). Physikunterricht in der gymnasialen Oberstufe. In H.-E. Tenorth (Hrsg.), Kerncurriculum Oberstufe II (S. 148–234). Weinheim: Beltz.Google Scholar
  34. Sommerfeld, A. (2001). Elektrodynamik. Frankfurt a. M.: Harri Deutsch.Google Scholar
  35. Treagust, D. F. (1988). Development and use of diagnostic tests to evaluate students’ misconceptions in science. International Journal of Science Education, 10, 159–169.CrossRefGoogle Scholar
  36. Ziegler, E., & Stern, E. (2016). Consistent advantages of contrasted comparisons: Algebra learning under direct instruction. Learning and Instruction, 41, 41–51.  https://doi.org/10.1016/j.learninstruc.2015.09.006.CrossRefGoogle Scholar

Copyright information

© Gesellschaft für Didaktik der Physik und Chemie (GDCP), Fachsektion Didaktik der Biologie im VBIO (FDdB im VBIO) und Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Arbeitsgruppe Physikdidaktik, Fachbereich 4Universität OsnabrückOsnabrückDeutschland
  2. 2.Institut für Didaktik der Naturwissenschaften, Abteilung PhysikdidaktikUniversität BremenBremenDeutschland
  3. 3.Arbeitsgruppe Computeranimation und Spieleprogrammierung, Fakultät für Ingenieurwissenschaften und InformatikHochschule OsnabrückOsnabrückDeutschland

Personalised recommendations