Advertisement

Erfassung von fachspezifischen Problemlöseprozessen mit Sortieraufgaben in Biologie und Physik

  • Torsten BinderEmail author
  • Philipp Schmiemann
  • Heike Theyßen
Original Paper
  • 66 Downloads

Zusammenfassung

Zu den grundlegenden Standards, die sich deutsche Hochschulen in den naturwissenschaftlichen Fächern setzen, zählt die Ausbildung fachspezifischer Problemlösefähigkeiten von Studierenden. Diese können durch Problemlöseaufgaben erfasst werden. Das Lösen solcher Aufgaben ist allerdings äußerst zeitintensiv. Hinweise auf eine zeitökonomischere Methode bietet die Experten-Novizen-Forschung durch sogenannte Sortieraufgaben. Die vorliegende Studie stellt ein auf Sortieraufgaben basierendes Testverfahren vor. Für die Fächer Biologie und Physik wurden zwei Testinstrumente entwickelt, mit denen sich initiale Problemlöseprozesse bei Studierenden im Anfangsstudium praktikabel erfassen lassen. Die Validität der Testscore-Interpretationen wird mit Hilfe eines Argument-Based Approach for Validation nach Kane geprüft. Dazu werden a priori Annahmen über die Übersetzung der Zieldomäne in Aufgaben, der Aufgaben in Performanz und der Performanz in Testwerte getroffen (Interpretations-Nutzungs-Argumentation) und diese in einer Validitätsargumentation (VA) geprüft. Tiefenmerkmale für die Konstruktion der Testinstrumente werden dem Curriculum und Lehrbüchern entnommen. Für die Argumentation werden im Lauten Denken Problemlöseprozesse während des Sortierens untersucht und eine korrelative Abgrenzung zu anderen kognitiven und affektiven Konstrukten vorgenommen. Auch die faktorielle Struktur der Testinstrumente wird geprüft. Die VA stützt die Annahme, dass mit dem Verfahren initiale Prozesse des fachspezifischen Problemlösens ökonomisch und valide erfasst werden können. Der Einbezug zweier naturwissenschaftlicher Fächer gibt erste Hinweise auf die Generalisierbarkeit des Verfahrens.

Schlüsselwörter

Sortieraufgaben Fachspezifische Problemlöseprozesse Studium Biologie Physik 

Assessing Subject-specific Problem Solving Processes Using Sorting Tasks in Biology and Physics

Abstract

One of the major standards German universities set for themselves is to reform undergraduate science teaching toward teaching students subject-specific problem solving. The assessment of problem solving in STEM subjects is possible with problem solving tasks, but rather time consuming. Research on experts and novices delivers an alternative, time-efficient way for the assessment of subject specific problem solving ability, so called problem-sorting tasks. The following study introduces a test procedure based on problem-sorting tasks. Two instruments for the assessment of initial subject-specific problem solving processes of undergraduates in biology and physics were designed. We analyzed the validity of the interpretation of the obtained test scores by an implementation of the Argument-Based Approach for Validation by Kane. Therefore, we created an Interpretation-Use Argument (IUA), which made claims about the processes from the trait to the test scores a priori in three steps. We evaluated the plausibility of the proposals of each step by building up a Validity Argument (VA). We analyzed the curriculum and textbooks for the deep features applied for item design. A think aloud study was performed to analyze the cognitive problem solving processes, and we performed a correlative distinction from other variables and analyzed factorial validity. Analysis of cognitive processes reveal that the students perform initial parts of a subject-specific problem solving process. These findings imply that problem sorting-tasks are a valid and time economic way to assess initial subject-specific problem solving processes within different subjects.

Keywords

Sorting Task Subject-specific Problem solving processes Higher Education Biology Physics 

Notes

Danksagung

Unser Dank gilt der DFG für die Förderung der Forschergruppe ALSTER (FOR 2242) und unseres Teilprojektes (SCHM 2664/2‑1; TH 1288/5‑1). Außerdem gilt ein besonderer Dank dem Sprecher und der Sprecherin der Forschergruppe Detlev Leutner (LE 645/14‑1) und Elke Sumfleth (SU 187/16‑1), allen Antragstellenden und Mitarbeitenden der Teilprojekte, sowie Oliver Markanovic, Sandra Brill, Estelle Rekittke, Hendrik Thora und Franziska Klautke, ohne deren Vorarbeiten, Unterstützung und Einsatzbereitschaft, diese Studie nicht hätte durchgeführt werden können.

Supplementary material

40573_2019_90_MOESM1_ESM.pdf (1.3 mb)
Erfassung von fachspezifischen Problemlöseprozessen mit Sortieraufgaben in Biologie und Physik

Literatur

  1. Aznar, M. M., & Orcajo, T. I. (2005). Solving problems in genetics. International Journal of Science Education, 27(1), 101–121.  https://doi.org/10.1080/0950069041000167381.Google Scholar
  2. Bissonnette, S. A., Combs, E. D., Nagami, P. H., Byers, V., Fernandez, J., Le, D., & Tanner, K. D. (2017). Using the biology card sorting task to measure changes in conceptual expertise during postsecondary biology education. CBE-Life Sciences Education, 16(1), ar14.  https://doi.org/10.1187/cbe.16-09-0273.Google Scholar
  3. Bransford, J., & Stein, B. S. (1993). The ideal problem solver: a guide for improving thinking, learning, and creativity. New York: Freeman.Google Scholar
  4. Brill, S. (2016). Kognitive Prozesse und Problemlösen im Biologie-Studium. Duisburg-Essen: Universität Duisburg-Essen, Didaktik der Biologie.Google Scholar
  5. Buchwald, F. (2015). Analytisches Problemlösen: Labor- und feldexperimentelle Untersuchung von Aspekten der kognitiven Potenzialausschöpfungshypothese. Dissertation. Essen: Universität Duisburg-Essen. Verfügbar unter: http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-38491/Dissertation_Buchwald.pdf Google Scholar
  6. Campbell, N. A., Reece, J. B., Urry, L. A., & Kratochwil, A. (Hrsg.). (2014). Always Learning. Biologie (8. Aufl.). München: Pearson. 7. DruckGoogle Scholar
  7. Chi, M. T. H., Feltovich, P. J., & Glaser, R. (1981). Categorization and representation of physics problems by experts and novices. Cognitive Science, 5(2), 121–152.Google Scholar
  8. Cohen, J. (1960). A coefficent of agreement for nominal scales. Educational and Psychological Measurement, 20(1), 37–46.Google Scholar
  9. Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2. Aufl.). Hillsdale: Erlbaum.Google Scholar
  10. Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334.  https://doi.org/10.1007/BF02310555.Google Scholar
  11. Cronbach, L. J., & Meehl, P. E. (1955). Construct validity in psychological tests. Psychological Bulletin, 52(4), 281.Google Scholar
  12. Deibel, K., Anderson, R., & Anderson, R. (2005). Using edit distance to analyze card sorts. Experts Systems, 22(3), 129–138.Google Scholar
  13. Dörner, D. (1979). Problemlösen als Informationsverarbeitung (2. Aufl.). Kohlhammer-Standards Psychologie Studientext. Stuttgart: Kohlhammer.Google Scholar
  14. Ericsson, K. A., & Simon, H. A. (1980). Verbal reports as data. Psychological Review, 87(3), 215.Google Scholar
  15. Ferdinande, H. (2009). A European specification for Physics bachelor studies. https://www.hrk-nexus.de/fileadmin/redaktion/hrk-nexus/07-Downloads/07-03-Material/eps_specification_bphys.pdf. Zugegriffen: 01. Februar 2019.Google Scholar
  16. Field, A. (2009). Discovering statistics using SPSS. Los Angeles: SAGE.Google Scholar
  17. Fleischer, J., Averbeck, D., Sumfleth, E., Leutner, D., & Brand, M. (2017). Entwicklung und Vorhersage von Studienzufriedenheit in MINT-Fächern. In C. Maurer (Hrsg.), Implementation fachdidaktischer Innovation im Spiegel von Forschung und Praxis. Gesellschaft für Didaktik der Chemie und Physik, Jahrestagung, Zürich, 2016. (S. 59–62). Regensburg: Universität Regensburg. http://www.gdcp.de/images/tb2017/TB2017_59_Fleischer.pdf.Google Scholar
  18. Friege, G. (2001). Wissen und Problemlösen: Eine empirische Untersuchung des wissenszentrierten Problemlösens im Gebiet der Elektrizitätslehre auf der Grundlage des Experten-Novizen-Vergleichs. Studien zum Physiklernen, Bd. 19. Berlin: Logos. Zugl.: Kiel, Univ., DissGoogle Scholar
  19. Friege, G., & Lind, G. (2004). Leistungsmessung im Leistungskurs. MNU, 57, 259–265.Google Scholar
  20. Friege, G., & Lind, G. (2006). Types and qualities of knowledge and their relations to problem solving in physics. International Journal of Science and Mathematics Education, 4(3), 437–465.  https://doi.org/10.1007/s10763-005-9013-8.Google Scholar
  21. Hartig, J., Frey, A., & Jude, N. (2008). Validität. In H. Moosbrugger & A. Kelava (Hrsg.), Springer-Lehrbuch. Testtheorie und Fragebogenkonstruktion (S. 135–163). Berlin, Heidelberg: Springer.  https://doi.org/10.1007/978-3-540-71635-8_7.Google Scholar
  22. Heller, K. A., & Perleth, C. (2000). Kognitiver Fähigkeitstest für 4. bis 12. Klassen, Revision: KFT 4‑12+ R. Göttingen: Beltz.Google Scholar
  23. Heyworth, R. M. (1999). Procedural and conceptual knowledge of expert and novice students for the solving of a basic problem in chemistry. International Journal of Science Education, 21(2), 195–211.  https://doi.org/10.1080/095006999290787.Google Scholar
  24. Irby, S. M., Phu, A. L., Borda, E. J., Haskell, T. R., Steed, N., & Meyer, Z. (2016). Use of a card sort task to assess students’ ability to coordinate three levels of representation in chemistry. Chem. Educ. Res. Pract., 17(2), 337–352.  https://doi.org/10.1039/c5rp00150a.Google Scholar
  25. Jäger, A. O., Süß, H. M., & Beauducel, A. (1997). Berliner Intelligenzstruktur-Test: BIS-Test. Göttingen: Hogrefe.Google Scholar
  26. Jenßen, L., Dunekacke, S., & Blömeke, S. (2015). Qualitätssicherung in der Kompetenzforschung.: Empfehlungen für den Nachweis von Validität in Testentwicklung und Veröffentlichungspraxis. Zeitschrift Für Pädagogik, 61, 11–31. Beiheft.Google Scholar
  27. Kane, M. T. (2006). Validation. Educational Measurement, 4(2), 17–64.Google Scholar
  28. Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50(1), 1–73.  https://doi.org/10.1111/jedm.12000.Google Scholar
  29. Konferenz Biologischer Fachbereiche (2013). Inhaltliche Empfehlungen für grundständige Studiengänge. https://www.hrk-nexus.de/fileadmin/redaktion/hrk-nexus/07-Downloads/07-03-Material/Fachkanon_Biowissenschaften.pdf. Zugegriffen: 01. Feburar 2019.Google Scholar
  30. Kristof, W. (1983). Klassische Testtheorie und Testkonstruktion. In Messen und Testen (S. 544–603).Google Scholar
  31. Landis, J. R., & Koch, G. G. (1977). The measurement of observer agreement for categorical data. Biometrics, 33(1), 159.  https://doi.org/10.2307/2529310.Google Scholar
  32. Leonard, W. J., Dufresne, R. J., & Mestre, J. P. (1996). Using qualitative problem-solving strategies to highlight the role of conceptual knowledge in solving problems. American Journal of Physics, 64(12), 1495–1503.  https://doi.org/10.1119/1.18409.Google Scholar
  33. Löffler, P. (2016). Modellanwendung in Problemlöseaufgaben – wie wirkt Kontext? Berlin: Logos. DissertationGoogle Scholar
  34. Markanovic, O. (2016). Welche Überlegungen stellen Studierende zur Bearbeitung von Sortieraufgaben in der Physik an? Duisburg-Essen: Universität Duisburg-Essen, Didaktik der Biologie.Google Scholar
  35. Messick, S. (1995). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. American Psychologist, 50(9), 741.Google Scholar
  36. Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (2013). Kernlehrplan für die Sekundarstufe II Gymnasium/Gesamtschule in Nordrhein-Westfalen-Biologie. Düsseldorf. https://www.schulentwicklung.nrw.de/lehrplaene/upload/klp_SII/bi/GOSt_Biologie_Endfassung.pdf. Zugegriffen: 01. Feburar 2019.Google Scholar
  37. Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (2014). Kernlehrplan für die Sekundarstufe II Gymnasium/Gesamtschule in Nordrhein-Westfalen-Physik. Düsseldorf. https://www.schulentwicklung.nrw.de/lehrplaene/upload/klp_SII/ph/KLP_GOSt_Physik.pdf. Zugegriffen: 01. Feburar 2019.Google Scholar
  38. Moosbrugger, H., & Kelava, A. (Hrsg.). (2008). Springer-Lehrbuch. Testtheorie und Fragebogenkonstruktion. Berlin, Heidelberg: Springer.Google Scholar
  39. Müller, J., Fischer, H. E., Borowski, A., & Lorke, A. (2017). Physikalisch-Mathematische Modellierung und Studienerfolg. In C. Maurer (Hrsg.), Implementation fachdidaktischer Innovation im Spiegel von Forschung und Praxis. Gesellschaft für Didaktik der Chemie und Physik Jahrestagung, Zürich, 2016. (S. 75–78). Regensburg: Universität Regensburg.Google Scholar
  40. Müller, J., Stender, A., Fleischer, J., Borowski, A., Dammann, E., Lang, M., & Fischer, H. E. (2018). Mathematisches Wissen von Studienanfängern und Studienerfolg. Zeitschrift für Didaktik der Naturwissenschaften, 24, 183.  https://doi.org/10.1007/s40573-018-0082-y Google Scholar
  41. Nehm, R. H., & Ridgway, J. (2011). What do experts and novices „see“ in evolutionary problems? Evolution: Education and Outreach, 4(4), 666–679.  https://doi.org/10.1007/s12052-011-0369-7.Google Scholar
  42. Newell, A., & Simon, H. A. (1972). Human problem solving. Englewood Cliffs,: Prentice-Hall.Google Scholar
  43. OECD (2004). Problem solving for tomorrow’s world: first measures of cross-curricular competencies from PISA 2003. http://www.oecd.org/education/school/programmeforinternationalstudentassessmentpisa/34009000.pdf. Zugegriffen: 01. Feburar 2019Google Scholar
  44. Riese, J., Kulgemeyer, C., Zander, S., Borowski, A., Fischer, H. E., Gramzow, Y., Tomczyszyn, E., et al. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik. Kompetenzen Von Studierenden, 61, 55–79.Google Scholar
  45. Rost, J. (1996). Lehrbuch Testtheorie, Testkonstruktion (1. Aufl.). Bern: Huber. Retrieved from http://www.sub.uni-hamburg.de/ebook/ebook.php?act=b&cid=498 Google Scholar
  46. Savelsbergh, E. R. (1998). Improving mental representations in physics problem-solving. Enschede: Twente Univ. DissGoogle Scholar
  47. Schachtschneider, Y. (2016). Studieneingangsvoraussetzungen und Studienerfolg im Fach Biologie. Berlin: Logos.Google Scholar
  48. Schmiemann, P., & Lücken, M. (2014). Validität – Misst mein Test, was er soll? In D. Krüger, I. Parchmann & H. Schecker (Hrsg.), Methoden in der naturwissenschaftsdidaktischen Forschung (S. 107–118). Berlin, Heidelberg: Springer Spektrum.  https://doi.org/10.1007/978-3-642-37827-0_9.Google Scholar
  49. Shahat, M. A., Ohle, A., & Fischer, H. E. (2017). Evaluation of a teaching unit based on a problem-solving model for seventh-grade students. Zeitschrift für Didaktik der Naturwissenschaften, 23(1), 205–224.Google Scholar
  50. Smith, M. U. (1990). Knowledge structures and the nature of expertise in classical genetics. Cognition and Instruction, 7(4), 287–302.Google Scholar
  51. Smith, J. I., Combs, E. D., Nagami, P. H., Alto, V. M., Goh, H. G., Gourdet, M. A. A., & Tanner, K. D. (2013). Development of the biology card sorting task to measure conceptual expertise in biology. CBE Life Sciences Education, 12(4), 628–644.  https://doi.org/10.1187/cbe.13-05-0096.Google Scholar
  52. Spinath, B., Stiensmeier-Pelster, J., Schöne, C., & Dickhäuser, O. (2002). Skalen zur Erfassung der Lern- und Leistungsmotivation: SELLMO. Göttingen: Hogrefe.Google Scholar
  53. Süß, H.-M. (1999). Intelligenz und komplexes Problemlösen. Psychologische Rundschau, 50(4), 220–228.  https://doi.org/10.1026//0033-3042.50.4.220.Google Scholar
  54. Tuminaro, J., & Redish, E. F. (2007). Elements of a cognitive model of physics problem solving: epistemic games. Physical Review Special Topics-Physics Education Research, 3(2), 20101.Google Scholar
  55. Walpuski, M., Kauertz, A., Kampa, N., Fischer, H. E., Mayer, J., Sumfleth, E., et al. (2010). 12 ESNaS-Evaluation der Standards für die Naturwissenschaften in der Sekundarstufe I Google Scholar
  56. Wolf, S. F., Dougherty, D. P., & Kortemeyer, G. (2012). Empirical approach to interpreting card-sorting data. Physical Review Special Topics—Physics Education Research, 8(1), 1695.  https://doi.org/10.1103/PhysRevSTPER.8.010124.Google Scholar

Copyright information

© Gesellschaft für Didaktik der Physik und Chemie (GDCP), Fachsektion Didaktik der Biologie im VBIO (FDdB im VBIO) und Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Didaktik der Biologie 2Universität Duisburg-EssenEssenDeutschland
  2. 2.Didaktik der PhysikUniversität Duisburg-EssenEssenDeutschland

Personalised recommendations