Advertisement

Experimentieren als Interaktion von Situation und Person

Ergebnisse einer Expertenbefragung
Original Paper

Zusammenfassung

Der Experimentierprozess wird häufig als Abfolge verschiedener Phasen dargestellt. Dabei beinhalten die Phasen bestimmte Anforderungen (z. B. das Formulieren einer Hypothese). Im vorliegenden Beitrag wird angenommen, dass zur Bewältigung dieser Anforderungen jeweils eine Kombination bestimmter Personenmerkmale wie z. B. Fachwissen, mathematische Fähigkeiten und schlussfolgerndes Denken notwendig ist. Ziel des Vorhabens war, zu untersuchen, welche Personenmerkmale für welche Anforderungen wie relevant sind. Dazu wurde eine Expertenbefragung durchgeführt, an der insgesamt N = 74 Expertinnen und Experten teilgenommen haben. Die Ergebnisse zeigen, dass die Anforderungen vermutlich unterschiedliche Konglomerate der Personenmerkmale erfordern. Die Erkenntnisse darüber, welche Personenmerkmale in welchem Umfang für welche Anforderung bedeutsam sind, bilden eine wichtige Grundlage für die Klärung der Frage, wie experimentelle Kompetenz weiter empirisch untersucht und im Unterricht gefördert werden kann.

Schlüsselwörter

Experimentieren Problemlösen Expertenbefragung 

Abstract

Scientific Inquiry is often regarded as a chronological or hierarchical process. Thus, each part needs specific skills, e. g. students are able to state a hypothesis. Within this paper we assume, that during each part of scientific inquiry many different person abilities (such as skills, knowledge, interest, …) have to be applied to solve the stated problem. We further hypothesize, that in different parts of the inquiry process a different set of these is needed. With the aim of presenting first evidence for this idea we conducted an expert rating. N = 74 experts were asked judging for each part of a hypothetical inquiry task which abilities are needed on a Likert-scale. The results show, that indeed different abilities are needed in different steps. Furthermore, only one ability should be added to our list in the experts’ opinion. These results are presented as a background for further projects which are aimed at enhancing students’ inquiry processes.

Keywords

Scientific Inquiry Problem-solving Expert Rating 

Literatur

  1. Adams, C. M., & Callahan, C. M. (1995). The reliability and validity of a performance task for evaluating science process skills. Gifted Child Quarterly, 39(1), 14–20. doi: 10.1177/001698629503900103.CrossRefGoogle Scholar
  2. Alao, S., & Guthrie, J. T. (2010). Predicting conceptual understanding with cognitive and motivational variables. The Journal of Educational Research, 92(4), 243–254. doi: 10.1080/00220679909597602.CrossRefGoogle Scholar
  3. Alonzo, A., & Aschbacher, P. R. (2004). Value-added? Long assessment of students’ scientific inquiry skills. In Proceedings of assessment for reform-based science teaching and learning, a symposium at the annual meeting of the AERA. Online retrieved from: http://www.capsi.caltech.edu/research/documents/ValueAddedAlonzo_Aschbacher.pdf.
  4. Ayala, C. C., Shavelson, R. J., Yin, Y., & Schultz, S. E. (2002). Reasoning dimensions underlying science achievement: the case of performance assessment. Educational Assessment, 8(2), 101–121. doi: 10.1207/S15326977EA0802_02.CrossRefGoogle Scholar
  5. Boyer, L. (2015). Individuelle Voraussetzungen für erfolgreiches Experimentieren im Physikunterricht. Masterarbeit angefertigt an der Christian-Albrechts-Universität zu Kiel.Google Scholar
  6. Emden, M. (2011). Prozessorientierte Leistungsmessung des naturwissenschaftlich-experimentellen Arbeitens: Eine vergleichende Studie zu Diagnoseinstrumenten zu Beginn der Sekundarstufe I. Studien zum Physik- und Chemielernen, Bd. 118. Berlin: Logos.Google Scholar
  7. Halonen, J. S., Bosack, T., Clay, S., McCarthy, M., Dunn, D. S., Hill, G. W., McEntarffer, M., Mehrotra, C., Nesmith, R., Weaver, K. A., & Whitlock, K. (2003). A Rubric for Learning, Teaching, and Assessing Scientific Inquiry in Psychology. Teaching of Psychology, 30, 196–208.CrossRefGoogle Scholar
  8. Hammann, M., Phan, T., & Bayrhuber, H. (2008). Experimentieren als Problemlösen: Lässt sich das SDDS-Modell nutzen, um unterschiedliche Dimensionen beim Experimentieren zu messen? In M. Prenzel, I. Gogolin & H.-H. Krüger (Hrsg.), Kompetenzdiagnostik (S. 33–49). Wiesbaden: VS.CrossRefGoogle Scholar
  9. Höttecke, D., & Rieß, F. (2015). Naturwissenschaftliches Experimentieren im Lichte der jüngeren Wissenschaftsforschung – Auf der Suche nach einem authentischen Experimentbegriff der Fachdidaktik. Zeitschrift für Didaktik der Naturwissenschaften, 21(1), 127–139. doi: 10.1007/s40573-015-0030-z.CrossRefGoogle Scholar
  10. Jeong, H., Songer, N. B., & Lee, S.-Y. (2007). Evidentiary competence: sixth graders’ understanding for gathering and interpreting evidence in scientific investigations. Research in Science Education, 37(1), 75–97. doi: 10.1007/s11165-006-9014-9.CrossRefGoogle Scholar
  11. Jonassen, D. H. (2000). Toward a design theory of problem solving. Educational Technology Research and Development, 48(4), 63–85. doi: 10.1007/BF02300500.CrossRefGoogle Scholar
  12. de Jong, T., & Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179–201. doi: 10.3102/00346543068002179.CrossRefGoogle Scholar
  13. Klahr, D., & Dunbar, K. (1988). Dual space search during scientific reasoning. Cognitive Science, 12(1), 1–48. doi: 10.1016/0364-0213(88)90007-9.CrossRefGoogle Scholar
  14. Klahr, D., Fay, A. L., & Dunbar, K. (1993). Heuristics for scientific experimentation: a developmental study. Cognitive psychology, 25(1), 111–146. doi: 10.1006/cogp.1993.1003.CrossRefGoogle Scholar
  15. Leighton, J. P., Gokiert, R. J., & Cui, Y. (2005). Investigating the statistical and cognitive dimensions in large-scale science assessments: causal and categorical reasoning in science. Annual Meeting of the American Educational Research Association (AERA), Montreal Quebec, April 2005.Google Scholar
  16. Millar, R., Lubben, F., Gott, R., & Duggan, S. (1994). Investigating in the school science laboratory: conceptual and procedural knowledge and their influence on performance. Research papers in education, 9(2), 207–249.CrossRefGoogle Scholar
  17. Nehring, A., Nowak, K. H., Upmeier zu Belzen, A., & Tiemann, R. (2015). Predicting students’ skills in the context of scientific inquiry with cognitive, motivational, and sociodemographic variables. International Journal of Science Education, 37(9), 1343–1363. doi: 10.1080/09500693.2015.1035358.CrossRefGoogle Scholar
  18. Priemer, B. (2011). Was ist das Offene beim offenen Experimentieren. Zeitschrift für Didaktik der Naturwissenschaften, 17, 315–337.Google Scholar
  19. Schecker, H., Neumann, K., Theyßen, H., Eickhorst, B., & Dickmann, M. (2016). Stufen experimenteller Kompetenz. Zeitschrift für Didaktik der Naturwissenschaften. doi: 10.1007/s40573-016-0050-3.Google Scholar
  20. Schreiber, N., Theyßen, H., & Schecker, H. (2009). Experimentelle Kompetenz messen?! Physik und Didaktik in Schule und Hochschule, 8(3), 92–101.Google Scholar
  21. Schwichow, M., Croker, S., Zimmerman, C., Höffler, T., & Härtig, H. (2016a). Teaching the control-of-variables strategy: A meta-analysis. Developmental Review, 39, 37–63. doi: 10.1016/j.dr.2015.12.001.CrossRefGoogle Scholar
  22. Schwichow, M., Zimmerman, C., Croker, S., & Härtig, H. (2016b). What students learn from hands-on activities. Journal of Research in Science Teaching, 53(7), 980–1002. doi: 10.1002/tea.21320.CrossRefGoogle Scholar
  23. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2005). Bildungsstandards im Fach Physik für den Mittleren Schulabschluss. München: Luchterhand.Google Scholar
  24. Stecher, B. M., Klein, S. P., Solano-Flores, G., McCaffrey, D., Robyn, A., Shavelson, R. J., & Haertel, E. (2000). The effects of content, format, and inquiry level on science performance assessment scores. Applied Measurement in Education, 13(2), 139–160. doi: 10.1207/S15324818AME1302_2.CrossRefGoogle Scholar
  25. Vollmeyer, R., & Funke, J. (1999). Personen- und Aufgabenmerkmale beim komplexen Problemlösen. Psychologische Rundschau, 50(4), 213–219.CrossRefGoogle Scholar
  26. Vorholzer, A., von Aufschnaiter, C., & Kirschner, S. (2016). Entwicklung und Erprobung eines Tests zur Erfassung des Verständnisses experimenteller Denk- und Arbeitsweisen. Zeitschrift für Didaktik der Naturwissenschaften, 22(1), 25–41. doi: 10.1007/s40573-015-0039-3.CrossRefGoogle Scholar
  27. Walpuski, M., & Sumfleth, E. (2007). Strukturierungshilfen und Feedback zur Unterstützung experimenteller Kleingruppenarbeit im Chemieunterricht. Zeitschrift für Didaktik der Naturwissenschaften, 13, 181–198.Google Scholar
  28. Weinert, F. E. (2001). Leistungsmessungen in Schulen. Weinheim Basel: Beltz.Google Scholar
  29. Winkelmann, J. (2015). Auswirkungen auf den Fachwissenszuwachs und auf affektive Schülermerkmale durch Schüler- und Demonstrationsexperimente im Physikunterricht. Studien zum Physik- und Chemielernen, Bd. 179. Berlin: Logos.Google Scholar
  30. Wirth, J., Thillmann, H., Künsting, J., Fischer, H. E., & Leutner, D. (2008). Das Schülerexperiment im naturwissenschaftlichen Unterricht. Bedingungen der Lernförderlichkeit einer verbreiteten Lehrmethode aus instruktionspsychologischer Sicht. Zeitschrift für Pädagogik, 54(3), 361–375.Google Scholar

Copyright information

© Gesellschaft für Didaktik der Physik und Chemie (GDCP); Fachsektion Didaktik der Biologie im VBIO (FDdB im VBIO) and Springer-Verlag GmbH Berlin Heidelberg 2017

Authors and Affiliations

  1. 1.Universität Duisburg-EssenEssenDeutschland
  2. 2.Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik (IPN) KielKielDeutschland
  3. 3.Goethe-Universität FrankfurtFrankfurt am MainDeutschland

Personalised recommendations