Zusammenfassung
Der Experimentierprozess wird häufig als Abfolge verschiedener Phasen dargestellt. Dabei beinhalten die Phasen bestimmte Anforderungen (z. B. das Formulieren einer Hypothese). Im vorliegenden Beitrag wird angenommen, dass zur Bewältigung dieser Anforderungen jeweils eine Kombination bestimmter Personenmerkmale wie z. B. Fachwissen, mathematische Fähigkeiten und schlussfolgerndes Denken notwendig ist. Ziel des Vorhabens war, zu untersuchen, welche Personenmerkmale für welche Anforderungen wie relevant sind. Dazu wurde eine Expertenbefragung durchgeführt, an der insgesamt N = 74 Expertinnen und Experten teilgenommen haben. Die Ergebnisse zeigen, dass die Anforderungen vermutlich unterschiedliche Konglomerate der Personenmerkmale erfordern. Die Erkenntnisse darüber, welche Personenmerkmale in welchem Umfang für welche Anforderung bedeutsam sind, bilden eine wichtige Grundlage für die Klärung der Frage, wie experimentelle Kompetenz weiter empirisch untersucht und im Unterricht gefördert werden kann.
Abstract
Scientific Inquiry is often regarded as a chronological or hierarchical process. Thus, each part needs specific skills, e. g. students are able to state a hypothesis. Within this paper we assume, that during each part of scientific inquiry many different person abilities (such as skills, knowledge, interest, …) have to be applied to solve the stated problem. We further hypothesize, that in different parts of the inquiry process a different set of these is needed. With the aim of presenting first evidence for this idea we conducted an expert rating. N = 74 experts were asked judging for each part of a hypothetical inquiry task which abilities are needed on a Likert-scale. The results show, that indeed different abilities are needed in different steps. Furthermore, only one ability should be added to our list in the experts’ opinion. These results are presented as a background for further projects which are aimed at enhancing students’ inquiry processes.
Notes
An dieser Stelle sei auf den Beitrag von Höttecke und Rieß (2015) verwiesen, der die mögliche Breite experimenteller Erkenntnisgewinnung umfassend darstellt und diskutiert.
Diese differenzierte Darstellung ist erst nach der Durchführung der Erhebung entstanden. Daher wurde in der Erhebung (leider) eine unklarere Nomenklatur verwendet. Diese soll jedoch in der Darstellung der Erhebung nicht a posteriori verschleiert werden. Aus diesem Grund findet sich z. B. in dem aufgeführten Beispielitem eine abweichende Nutzung der Begriffe.
Literatur
Adams, C. M., & Callahan, C. M. (1995). The reliability and validity of a performance task for evaluating science process skills. Gifted Child Quarterly, 39(1), 14–20. doi:10.1177/001698629503900103.
Alao, S., & Guthrie, J. T. (2010). Predicting conceptual understanding with cognitive and motivational variables. The Journal of Educational Research, 92(4), 243–254. doi:10.1080/00220679909597602.
Alonzo, A., & Aschbacher, P. R. (2004). Value-added? Long assessment of students’ scientific inquiry skills. In Proceedings of assessment for reform-based science teaching and learning, a symposium at the annual meeting of the AERA. Online retrieved from: http://www.capsi.caltech.edu/research/documents/ValueAddedAlonzo_Aschbacher.pdf.
Ayala, C. C., Shavelson, R. J., Yin, Y., & Schultz, S. E. (2002). Reasoning dimensions underlying science achievement: the case of performance assessment. Educational Assessment, 8(2), 101–121. doi:10.1207/S15326977EA0802_02.
Boyer, L. (2015). Individuelle Voraussetzungen für erfolgreiches Experimentieren im Physikunterricht. Masterarbeit angefertigt an der Christian-Albrechts-Universität zu Kiel.
Emden, M. (2011). Prozessorientierte Leistungsmessung des naturwissenschaftlich-experimentellen Arbeitens: Eine vergleichende Studie zu Diagnoseinstrumenten zu Beginn der Sekundarstufe I. Studien zum Physik- und Chemielernen, Bd. 118. Berlin: Logos.
Halonen, J. S., Bosack, T., Clay, S., McCarthy, M., Dunn, D. S., Hill, G. W., McEntarffer, M., Mehrotra, C., Nesmith, R., Weaver, K. A., & Whitlock, K. (2003). A Rubric for Learning, Teaching, and Assessing Scientific Inquiry in Psychology. Teaching of Psychology, 30, 196–208.
Hammann, M., Phan, T., & Bayrhuber, H. (2008). Experimentieren als Problemlösen: Lässt sich das SDDS-Modell nutzen, um unterschiedliche Dimensionen beim Experimentieren zu messen? In M. Prenzel, I. Gogolin & H.-H. Krüger (Hrsg.), Kompetenzdiagnostik (S. 33–49). Wiesbaden: VS.
Höttecke, D., & Rieß, F. (2015). Naturwissenschaftliches Experimentieren im Lichte der jüngeren Wissenschaftsforschung – Auf der Suche nach einem authentischen Experimentbegriff der Fachdidaktik. Zeitschrift für Didaktik der Naturwissenschaften, 21(1), 127–139. doi:10.1007/s40573-015-0030-z.
Jeong, H., Songer, N. B., & Lee, S.-Y. (2007). Evidentiary competence: sixth graders’ understanding for gathering and interpreting evidence in scientific investigations. Research in Science Education, 37(1), 75–97. doi:10.1007/s11165-006-9014-9.
Jonassen, D. H. (2000). Toward a design theory of problem solving. Educational Technology Research and Development, 48(4), 63–85. doi:10.1007/BF02300500.
de Jong, T., & Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179–201. doi:10.3102/00346543068002179.
Klahr, D., & Dunbar, K. (1988). Dual space search during scientific reasoning. Cognitive Science, 12(1), 1–48. doi:10.1016/0364-0213(88)90007-9.
Klahr, D., Fay, A. L., & Dunbar, K. (1993). Heuristics for scientific experimentation: a developmental study. Cognitive psychology, 25(1), 111–146. doi:10.1006/cogp.1993.1003.
Leighton, J. P., Gokiert, R. J., & Cui, Y. (2005). Investigating the statistical and cognitive dimensions in large-scale science assessments: causal and categorical reasoning in science. Annual Meeting of the American Educational Research Association (AERA), Montreal Quebec, April 2005.
Millar, R., Lubben, F., Gott, R., & Duggan, S. (1994). Investigating in the school science laboratory: conceptual and procedural knowledge and their influence on performance. Research papers in education, 9(2), 207–249.
Nehring, A., Nowak, K. H., Upmeier zu Belzen, A., & Tiemann, R. (2015). Predicting students’ skills in the context of scientific inquiry with cognitive, motivational, and sociodemographic variables. International Journal of Science Education, 37(9), 1343–1363. doi:10.1080/09500693.2015.1035358.
Priemer, B. (2011). Was ist das Offene beim offenen Experimentieren. Zeitschrift für Didaktik der Naturwissenschaften, 17, 315–337.
Schecker, H., Neumann, K., Theyßen, H., Eickhorst, B., & Dickmann, M. (2016). Stufen experimenteller Kompetenz. Zeitschrift für Didaktik der Naturwissenschaften. doi:10.1007/s40573-016-0050-3.
Schreiber, N., Theyßen, H., & Schecker, H. (2009). Experimentelle Kompetenz messen?! Physik und Didaktik in Schule und Hochschule, 8(3), 92–101.
Schwichow, M., Croker, S., Zimmerman, C., Höffler, T., & Härtig, H. (2016a). Teaching the control-of-variables strategy: A meta-analysis. Developmental Review, 39, 37–63. doi:10.1016/j.dr.2015.12.001.
Schwichow, M., Zimmerman, C., Croker, S., & Härtig, H. (2016b). What students learn from hands-on activities. Journal of Research in Science Teaching, 53(7), 980–1002. doi:10.1002/tea.21320.
Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2005). Bildungsstandards im Fach Physik für den Mittleren Schulabschluss. München: Luchterhand.
Stecher, B. M., Klein, S. P., Solano-Flores, G., McCaffrey, D., Robyn, A., Shavelson, R. J., & Haertel, E. (2000). The effects of content, format, and inquiry level on science performance assessment scores. Applied Measurement in Education, 13(2), 139–160. doi:10.1207/S15324818AME1302_2.
Vollmeyer, R., & Funke, J. (1999). Personen- und Aufgabenmerkmale beim komplexen Problemlösen. Psychologische Rundschau, 50(4), 213–219.
Vorholzer, A., von Aufschnaiter, C., & Kirschner, S. (2016). Entwicklung und Erprobung eines Tests zur Erfassung des Verständnisses experimenteller Denk- und Arbeitsweisen. Zeitschrift für Didaktik der Naturwissenschaften, 22(1), 25–41. doi:10.1007/s40573-015-0039-3.
Walpuski, M., & Sumfleth, E. (2007). Strukturierungshilfen und Feedback zur Unterstützung experimenteller Kleingruppenarbeit im Chemieunterricht. Zeitschrift für Didaktik der Naturwissenschaften, 13, 181–198.
Weinert, F. E. (2001). Leistungsmessungen in Schulen. Weinheim Basel: Beltz.
Winkelmann, J. (2015). Auswirkungen auf den Fachwissenszuwachs und auf affektive Schülermerkmale durch Schüler- und Demonstrationsexperimente im Physikunterricht. Studien zum Physik- und Chemielernen, Bd. 179. Berlin: Logos.
Wirth, J., Thillmann, H., Künsting, J., Fischer, H. E., & Leutner, D. (2008). Das Schülerexperiment im naturwissenschaftlichen Unterricht. Bedingungen der Lernförderlichkeit einer verbreiteten Lehrmethode aus instruktionspsychologischer Sicht. Zeitschrift für Pädagogik, 54(3), 361–375.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Härtig, H., Neumann, K. & Erb, R. Experimentieren als Interaktion von Situation und Person. ZfDN 23, 71–80 (2017). https://doi.org/10.1007/s40573-017-0057-4
Received:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s40573-017-0057-4