Zeitschrift für Erziehungswissenschaft

, Volume 20, Issue 4, pp 556–584 | Cite as

Modellierung des Kompetenzteilbereichs naturwissenschaftliche Untersuchungen

  • Nicole Wellnitz
  • Martin Hecht
  • Patricia Heitmann
  • Alexander Kauertz
  • Jürgen Mayer
  • Elke Sumfleth
  • Maik Walpuski
Allgemeiner Teil

Zusammenfassung

In diesem Beitrag werden Daten zu Kompetenzen im Bereich naturwissenschaftliche Untersuchungen aus der Evaluation der Bildungsstandards (BiSta) mittels vier verschiedener, alternativer Kompetenzstrukturmodelle analysiert. Geprüft wurde, inwieweit für die (1) eindimensionale domänenübergreifende, (2) domänenspezifische (Biologie, Chemie, Physik), (3) prozessbezogene (Fragestellung & Hypothese, Untersuchungsdesign, Datenauswertung) oder (4) domänen- und prozessbezogene Modellierung empirische Evidenz besteht. Zur Prüfung der Kompetenzstruktur wurden Daten von 9044 Jugendlichen der 9. und 10. Jahrgangsstufe genutzt, die im Rahmen der Normierungsstudie 290 Items bearbeitet haben. Dimensionalitätsprüfungen mit Methoden der Item-Response-Theorie zeigen, dass das vierte Modell, in dem Doppelladungen der Items auf je eine domänen- und eine prozessbezogene latente Variable zugelassen werden, die beste Anpassung an die empirischen Daten aufweist. Das fachdidaktische Potential dieses Modells wird diskutiert.

Schlüsselwörter

Biologie Chemie Dimensionalität Naturwissenschaftliche Untersuchungen Physik 

Alternative models of scientific inquiry

Abstract

In the present paper, we analysed different competence structure models of scientific inquiry using data from the evaluation of educational standards in Germany. We examined whether a (1) domain-general, (2) domain-specific (biology, chemistry, physics), (3) process-related (research question and hypothesis, study design, analysis of data) or (4) domain and process-related model fits the data best. The four models were tested with 290 items using IRT modelling of data from 9044 students in 9th and 10th grade. Our results suggest that the domain and process-related model represented the empirical data best. The potential of this model for subject pedagogy is discussed.

Keywords

Biology Chemistry Dimensionality Physics Scientific inquiry 

Literatur

  1. Abd-El-Khalick, F., BouJaoude, S., Duschl, R., Lederman, N. G., Mamlok-Naaman, R., Hofstein, A., Niaz, M., Treagust, D., & Tuan, H. L. (2004). Inquiry in science education: international perspectives. Science Education, 88(3), 397–419.CrossRefGoogle Scholar
  2. Adams, R. J. (2002). Scaling PISA cognitive data. In R. Adams & M. Wu (Hrsg.), PISA 2000: technical report (S. 99–108). Paris: OECD.Google Scholar
  3. Asseburg, R. (2011). Leistungsbereitschaft in Testsituationen: Motivation zur Bearbeitung adaptiver und nicht-adaptiver Leistungstests. Marburg: Tectum.Google Scholar
  4. Birnbaum, A. (1968). Some latent trait models and their use in inferring an examinee’s ability. In F. M. Lord & M. R. Novick (Hrsg.), Statistical theories of mental test scores (S. 395–479). Reading: Addison-Wesley.Google Scholar
  5. Bybee, R. W. (2002). Scientific Literacy – Mythos oder Realität? In W. Gräber, P. Nentwig, T. Koballa, & R. Ewans (Hrsg.), Scientific Literacy – Der Beitrag der Naturwissenschaften zur Allgemeinen Bildung (S. 21–43). Opladen: Leske + Budrich.Google Scholar
  6. Carey, S., Evans, R., Honda, M., Jay, E., & Unger, C. (1989). ‘An experiment is when you try it and see if it works’: a study of grade 7 students’ understanding of the construction of scientific knowledge. International Journal of Science Education, 11(5), 514–529.CrossRefGoogle Scholar
  7. Chen, Z., & Klahr, D. (1999). All other things being equal: acquisition and transfer of the control of variables strategy. Child Development, 70(5), 1098–1120.CrossRefGoogle Scholar
  8. Chi, M. T. H., Feltovich, P. J., & Glaser, R. (1981). Categorization and representation of physics problems by experts and novices. Cognitive Science, 5(2), 121–152.CrossRefGoogle Scholar
  9. Chinn, C. A., & Brewer, W. F. (1998). An empirical test of a taxonomy of responses to anomalous data in science. Journal of Research in Science Teaching, 35(6), 623–654.CrossRefGoogle Scholar
  10. Department for Education and Skills & Qualification and Curriculum Authority (2004). Science – the national curriculum for England. London: HMSO.Google Scholar
  11. Doran, R. L., Helgeson, S. L., & Kumar, D. D. (1995). Assessment of problem solving in science. In D. R. Lavoie (Hrsg.), Toward a cognitive-science perspective for scientific problem solving (S. 112–141). Manhattan: NARST Monograph.Google Scholar
  12. Drechsel, B., Carstensen, C. H., & Prenzel, M. (2011). The role of content and context in PISA interest scales – A study of the embedded interest items in the PISA 2006 Science Assessment. International Journal of Science Education, 33(1), 73–95.CrossRefGoogle Scholar
  13. Duggan, S., Johnson, P., & Gott, R. (1996). A critical point in investigative work: defining variables. Journal of Research in Science Teaching, 33(5), 461–474.CrossRefGoogle Scholar
  14. Dunbar, K., & Klahr, D. (1989). Developmental differences in scientific discovery processes. In D. Klahr & K. Kotovsky (Hrsg.), Complex information processing: the impact of Herbert A. Simon (S. 109–143). Hillsdale: Lawrence Erlbaum Associates.Google Scholar
  15. Embretson, S. E., & Reise, S. P. (2000). Item response theory for psychologists. Mahwah: Lawrence Erlbaum Associates.Google Scholar
  16. Emden, M., & Sumfleth, E. (2012). Prozessorientierte Leistungsbewertung. Zur Eignung einer Protokollmethode zur Bewertung von Experimentierprozessen. Der mathematische und naturwissenschaftliche Unterricht, 65(2), 68–75.Google Scholar
  17. Frank, C., Bernholt, S., & Parchmann, I. (2016). Modellierung des Zusammenhangs allgemeiner und beruflicher Kompetenzen für die Domäne Chemie. Zeitschrift für Didaktik der Naturwissenschaften, 22, 43–60.CrossRefGoogle Scholar
  18. Fraser, B. (1980). Development and validation of a test of enquiry skills. Journal of Research in Science Teaching, 17(1), 7–16.CrossRefGoogle Scholar
  19. Gott, R., Duggan, S., & Johnson, P. (1999). What do practising applied scientists do and what are the implications for science education? Research in Science & Technological Education, 17(1), 97–107.CrossRefGoogle Scholar
  20. Grube, C. (2011). Kompetenzen naturwissenschaftlicher Erkenntnisgewinnung. Untersuchung der Struktur und Entwicklung des wissenschaftlichen Denkens bei Schülerinnen und Schülern der Sekundarstufe I. https://kobra.bibliothek.uni-kassel.de/handle/urn:nbn:de:hebis:34-2011041537247. Zugegriffen: 17. Juni 2011.Google Scholar
  21. Gut, C. (2012). Modellierung und Messung experimenteller Kompetenz. Analyse eines large-scale Experimentiertests. Berlin: Logos.Google Scholar
  22. Gut, C., Metzger, S., Pitt, H., & Tardent, J. (2014). Problemtypenbasierte Modellierung und Messung experimenteller Kompetenzen von 12- bis 15-jährigen Jugendlichen (Didaktik der Physik, Beiträge zur DPG-Frühjahrstagung 2014). https://www.phzh.ch/MAPortrait_Data/158541/11/Gut_etal_2014_Problemtypbenbasierte_Modellierung.pdf. Zugegriffen: 1. Jan. 2016.Google Scholar
  23. Hammann, M., Phan, T. T. H., Ehmer, M., & Bayrhuber, H. (2006). Fehlerfrei Experimentieren. Der mathematische und naturwissenschaftliche Unterricht, 59(5), 292–299.Google Scholar
  24. Hammann, M., Phan, T. H., & Bayrhuber, H. (2007). Experimentieren als Problemlösen: Lässt sich das SDDS-Modell nutzen, um unterschiedliche Dimensionen beim Experimentieren zu messen? In M. Prenzel, I. Gogolin, & H.-H. Krüger (Hrsg.), Kompetenzdiagnostik (S. 33–49). Wiesbaden: Springer VS.Google Scholar
  25. Hammann, M., Phan, T. T. H., Ehmer, M., & Grimm, T. (2008). Assessing pupils’ skills in experimentation. Journal of Biological Education, 42(2), 66–72.CrossRefGoogle Scholar
  26. Hartig, J., & Höhler, J. (2010). Modellierung von Kompetenzen mit mehrdimensionalen IRT-Modellen. Projekt MIRT. In E. Klieme, D. Leutner, & M. Kenk (Hrsg.), Kompetenzmodellierung. Zwischenbilanz des DFG-Schwerpunktprogramms und Perspektiven des Forschungsansatzes (S. 189–198). Weinheim: Beltz.Google Scholar
  27. Hecht, M., Roppelt, A., & Siegle, T. (2013). Testdesign und Auswertung des Ländervergleichs. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 391–402). Münster: Waxmann.Google Scholar
  28. Heine, D., Trautmann, A., & Kauertz, A. (2014). Naturwissenschaftliche Problemlöseprozesse von Grundschülern. In S. Bernholt (Hrsg.), Naturwissenschaftliche Bildung zwischen Science- und Fachunterricht. Gesellschaft für Didaktik der Chemie und Physik, Jahrestagung in München 2013 (S. 267–269). Kiel: IPN.Google Scholar
  29. Henke, C. (2007). Experimentell-naturwissenschaftliche Arbeitsweisen in der Oberstufe. Untersuchung am Beispiel des HIGHSEA-Projekts in Bremerhaven. Berlin: Logos.Google Scholar
  30. Inhelder, B., & Piaget, J. (1958). The growth of logical thinking from childhood to adolescence: an essay on the construction of formal operational structures. London: Routledge.CrossRefGoogle Scholar
  31. IQB (2013a) = Institut zur Qualitätsentwicklung im Bildungswesen. (2013a). Kompetenzstufenmodelle zu den Bildungsstandards im Fach Biologie für den Mittleren Schulabschluss. Kompetenzbereiche „Fachwissen“ und „Erkenntnisgewinnung“ – Entwurf. https://www.iqb.hu-berlin.de/bista/ksm. Zugegriffen: 26. März 2015.Google Scholar
  32. IQB (2013b) = Institut zur Qualitätsentwicklung im Bildungswesen. (2013b). Kompetenzstufenmodelle zu den Bildungsstandards im Fach Chemie für den Mittleren Schulabschluss. Kompetenzbereiche „Fachwissen“ und „Erkenntnisgewinnung“ – Entwurf. https://www.iqb.hu-berlin.de/bista/ksm. Zugegriffen: 26. März 2015.Google Scholar
  33. IQB (2013c) = Institut zur Qualitätsentwicklung im Bildungswesen. (2013c). Kompetenzstufenmodelle zu den Bildungsstandards im Fach Physik für den Mittleren Schulabschluss. Kompetenzbereiche „Fachwissen“ und „Erkenntnisgewinnung“ – Entwurf. https://www.iqb.hu-berlin.de/bista/ksm. Zugegriffen: 26. März 2015.Google Scholar
  34. Kampa, N. (2012). Aspekte der Validierung eines Tests zur Kompetenz in Biologie – Eine Studie zur Kompetenz in Biologie und ihrer Teildimensionen Konzept- und Prozesswissen, Berlin. http://edoc.hu-berlin.de/dissertationen/kampa-nele-2012-12-19/PDF/kampa.pdf. Zugegriffen: 28. Feb. 2014.Google Scholar
  35. Kauertz, A., Fischer, H. E., Mayer, J., Sumfleth, E., & Walpuski, M. (2010). Standard-bezogene Kompetenzmodellierung in den Naturwissenschaften der Sekundarstufe I. Zeitschrift für Didaktik der Naturwissenschaften, 16, 135–153.Google Scholar
  36. Kind, P. (2013). Establishing assessment scales using a novel disciplinary rationale for scientific reasoning. Journal of Research in Science Teaching, 50(5), 530–560.CrossRefGoogle Scholar
  37. Klahr, D. (2000). Exploring science: the cognition and development of discovery processes. Cambridge: MIT Press.Google Scholar
  38. Klahr, D., & Dunbar, K. (1988). Dual space search during scientific reasoning. Cognitive Science: A Multidisciplinary Journal, 12(1), 1–48.CrossRefGoogle Scholar
  39. Klieme, E., Funke, J., Leutner, D., Reimann, P., & Wirth, J. (2001). Problemlösen als fächerübergreifende Kompetenz. Konzeption und erste Resultate aus einer Schulleistungsstudie. Zeitschrift für Pädagogik, 47(2), 179–200.Google Scholar
  40. Klos, S., Henke, C., Kieren, C., Walpuski, M., & Sumfleth, E. (2008). Naturwissenschaftliches Experimentieren und chemisches Fachwissen – zwei verschiedene Kompetenzen. Zeitschrift für Pädagogik, 54(3), 304–321.Google Scholar
  41. Koerber, S. (2006). Entwicklung des wissenschaftlichen Denkens bei Vier- bis Achtjährigen. Beiträge zur Lehrerbildung, 24(2), 193–201.Google Scholar
  42. Kuhn, D., & Dean, D. (2005). Is developing scientific thinking all about learning to control variables? Psychological Science, 18(11), 866–870.CrossRefGoogle Scholar
  43. Kwon, Y.-J., & Lawson, A. E. (2000). Linking brain growth with the development of scientific reasoning ability and conceptual change during adolescence. Journal of Research in Science Teaching, 37(1), 44–62.CrossRefGoogle Scholar
  44. Lederman, N. G. (2004). Syntax of nature of science within inquiry and science instruction. In L. B. Flick & N. G. Lederman (Hrsg.), Scientific inquiry and nature of science. implications for teaching, learning, and teacher education (S. 301–317). Dordrecht: Kluwer.Google Scholar
  45. Lederman, N. G. (2007). Nature of science: past, present, and future. In S. K. Abell & N. G. Lederman (Hrsg.), Handbook of research on science education (S. 831–879). Mahwah: Lawrence Erlbaum Associates.Google Scholar
  46. Lederman, J. S., Lederman, N. G., Bartos, S. A., Bartels, S. L., Meyer, A. A., & Schwartz, R. S. (2014). Meaningful assessment of learners’ understandings about scientific inquiry – The views about scientific inquiry (VASI) questionnaire. Journal of Research in Science Teaching, 51(1), 65–83.CrossRefGoogle Scholar
  47. Leutner, D., Klieme, E., Meyer, K., & Wirth, J. (2004). Problemlösen. In M. Prenzel, J. Baumert, W. Blum, R. Lehmann, D. Leutner, M. Neubrand, R. Pekrun, H.-G. Rolff, J. Rost, & J. U. Schiefele (Hrsg.), PISA 2003: Der Bildungsstand der Jugendlichen in Deutschland – Ergebnisse des zweiten internationalen Vergleichs (S. 147–175). Münster: Waxmann.Google Scholar
  48. Leutner, D., Fleischer, J., Wirth, J., Greiff, S., & Funke, J. (2012). Analytische und dynamische Problemlösekompetenz im Lichte internationaler Schulleistungsvergleichsstudien: Untersuchungen zur Dimensionalität. Psychologische Rundschau, 63(1), 34–42.CrossRefGoogle Scholar
  49. Mahner, M., & Bunge, M. (2000). Philosophische Grundlagen der Biologie. Berlin: Springer.CrossRefGoogle Scholar
  50. Mannel, S., Walpuski, M., & Sumfleth, E. (2015). Erkenntnisgewinnung: Schülerkompetenzen zu Beginn der Jahrgangsstufe 5 im naturwissenschaftlichen Anfangsunterricht. Zeitschrift für Didaktik der Naturwissenschaften, 21(1), 99–110.CrossRefGoogle Scholar
  51. Mayer, J. (2007). Erkenntnisgewinnung als wissenschaftliches Problemlösen. In D. Krüger & H. Vogt (Hrsg.), Handbuch der Theorien in der biologiedidaktischen Forschung – Ein Handbuch für Lehramtsstudenten und Doktoranden (S. 178–186). Berlin: Springer.Google Scholar
  52. Mayer, J., Grube, C., & Möller, A. (2008). Kompetenzmodell naturwissenschaftlicher Erkenntnisgewinnung. In U. Harms & A. Sandmann (Hrsg.), Lehr- und Lernforschung in der Biologiedidaktik (Bd. 3, S. 63–79). Innsbruck: StudienVerlag.Google Scholar
  53. McDonald, R. P. (1999). Test theory: a unified treatment. Mahwah: Erlbaum.Google Scholar
  54. Meier, M., & Mayer, J. (2012). Experimentierkompetenz praktisch erfassen – Entwicklung und Validierung eines anwendungsbezogenen Aufgabendesigns. In U. Harms & F. X. Bogner (Hrsg.), Lehr- und Lernforschung in der Biologiedidaktik (Bd. 5, S. 81–98). Innsbruck: StudienVerlag.Google Scholar
  55. Millar, R. (2006). Twenty first century science: insights from the design and implementation of a scientific literacy approach in school science. International Journal of Science Education, 28(13), 1499–1521.CrossRefGoogle Scholar
  56. Muthén, L. K., & Muthén, B. O. (2015a). Mplus (Version 7.3). Los Angeles: Muthén & Muthén.Google Scholar
  57. Muthén, L. K., & Muthén, B. O. (2015b). Chi-square difference testing using the Satorra-Bentler Scaled Chi-Square. http://www.statmodel.com/chidiff.shtml. Zugegriffen: 11. Nov. 2015.Google Scholar
  58. Nowak, K. H., Nehring, A., Tiemann, R., & Upmeier zu Belzen, A. (2013). Assessing students’ abilities in processes of scientific inquiry in biology using a paper-and-pencil test. Journal of Biological Education, 47(3), 182–188.CrossRefGoogle Scholar
  59. OECD (2007) = Organisation for Economic Co-Operation and Development. (2007). PISA 2006 – Schulleistungen im internationalen Vergleich: naturwissenschaftliche Kompetenzen für die Welt von morgen. Bielefeld: Bertelsmann.Google Scholar
  60. OECD (2005) = Organisation for Economic Co-Operation and Development. (2005). PISA 2003: Technical Report. Paris: OECD Publishing.Google Scholar
  61. Pant, H. A., Stanat, P., Schroeders, U., Roppelt, A., Siegle, T., & Pöhlmann, C. (2013a). IQB-Ländervergleich. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I. Münster: Waxmann.Google Scholar
  62. Pant, H. A., Stanat, P., Pöhlmann, C., & Böhme, K. (2013b). Die Bildungsstandards im allgemeinbildenden Schulsystem. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 13–21). Münster: Waxmann.Google Scholar
  63. Popper, K. (1994). Logik der Forschung. Tübingen: Mohr.Google Scholar
  64. Prenzel, M. (2000). Lernen über die Lebensspanne aus einer domänenspezifischen Perspektive: Naturwissenschaften als Beispiel. In F. Achtenhagen & W. Lempert (Hrsg.), Formen und Inhalte von Lernprozessen Lebenslanges Lernen im Beruf – seine Grundlegung im Kindes- und Jugendalter, (Bd. IV, S. 175–192). Opladen: Leske + Budrich.Google Scholar
  65. Prenzel, M., Rost, J., Senkbeil, M., Häußler, P., & Klopp, A. (2001). Naturwissenschaftliche Grundbildung: Testkonzeption und Ergebnisse. In J. Baumert, E. Klieme, M. Neubrandt, M. Prenzel, U. Schiefele, W. Schneider, P. Stanat, K.-J. Tillmann, & M. Weiß (Hrsg.), PISA 2000: Basiskompetenzen von Schülerinnen und Schülern im internationalen Bereich (S. 191–248). Opladen: Leske + Budrich.CrossRefGoogle Scholar
  66. Prenzel, M., Schöps, K., Rönnebeck, S., Senkbeil, M., Walter, O., Carstensen, C. H., & Hammann, M. (2007). Naturwissenschaftliche Kompetenz im internationalen Vergleich. In M. Prenzel, C. Artelt, J. Baumert, W. Blum, M. Hammann, E. Klieme, & R. Pekrun (Hrsg.), PISA 2006: Die Ergebnisse der dritten internationalen Vergleichsstudie (S. 63–105). Münster: Waxmann.Google Scholar
  67. Pupkowski, V., Roesler, M., Mayer, J., Sumfleth, E., Walpuski, M., & Wellnitz, N. (2016). Der Einfluss von Kontexten in Testsituationen in Biologie und Chemie. 4. Jahrestagung der Gesellschaft für Empirische Bildungsforschung (GEBF) – Abstractband, Erwartungswidriger Bildungserfolg über die Lebensspanne (S. 30–31). Berlin. http://www.gebf2016.de/aktuelles/Symposien_Abstracts_240216.pdf. Zugegriffen: 15. Juni 2016.Google Scholar
  68. Ramseier, E., Labudde, P., & Adamina, M. (2011). Validierung des Kompetenzmodells HarmoS Naturwissenschaften: Fazite und Defizite. Zeitschrift für Didaktik der Naturwissenschaften, 17, 7–33.Google Scholar
  69. Rasch, G. (1960). Probabilistic models for some intelligence and attainment tests. Kopenhagen: Nielsen und Lydiche.Google Scholar
  70. Rauch, D., & Hartig, J. (2008). Interpretation von Testwerten in der IRT. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 240–250). Berlin: Springer.Google Scholar
  71. Rost, J. (2004). Lehrbuch Testtheorie – Testkonstruktion (2. Aufl.). Bern: Hans Huber.Google Scholar
  72. Schauble, L. (1996). The development of scientific reasoning in knowledge-rich contexts. Developmental Psychology, 32(1), 102–119.CrossRefGoogle Scholar
  73. Schreiber, N., Theyßen, H., & Schecker, H. (2009). Experimentelle Kompetenz messen?! Physik und Didaktik in Schule und Hochschule, 8(3), 92–101.Google Scholar
  74. Schroeders, U., Hecht, M., Heitmann, P., Jansen, M., Kampa, N., Klebba, N., Lenski, A. E., & Siegle, T. (2013). Der Ländervergleich in den naturwissenschaftlichen Fächern. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 141–158). Münster: Waxmann.Google Scholar
  75. Schwartz, R. S., Lederman, N. G., & Lederman, J. S. (2008). An instrument to assess views of scientific inquiry: the VOSI Questionnaire. Unpublished manuscript. annual meeting of the National Association for Research in Science Teaching, Baltimore.Google Scholar
  76. Schwarz, C. V., Reiser, B. J., Davis, E. A., Kenyon, L., Acher, A., Fortus, D., et al. (2009). Developing a learning progression for scientific modeling: making scientific modeling accessible and meaningful for learners. Journal of Research in Science Teaching, 46(6), 632–654.CrossRefGoogle Scholar
  77. Schweizerische Konferenz der kantonalen Erziehungswissenschaften (2011). Grundkompetenzen für die Naturwissenschaften. http://www.gebf2016.de/aktuelles/Symposien_Abstracts_240216.pdf. Zugegriffen: 26. März 2015.Google Scholar
  78. KMK (2005a) = Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2005a). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Biologie für den Mittleren Schulabschluss. Beschluss vom 16.12.2004. München: Luchterhand.Google Scholar
  79. KMK (2005b) = Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2005b). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Chemie für den Mittleren Schulabschluss. Beschluss vom 16.12.2004. München: Luchterhand.Google Scholar
  80. KMK (2005c) = Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland. (2005c). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Physik für den Mittleren Schulabschluss. Beschluss vom 16.12.2004. München: Luchterhand.Google Scholar
  81. Senkbeil, M., Rost, J., Carstensen, C. H., & Walter, O. (2005). Der nationale Naturwissenschaftstest PISA 2003. Entwicklung und empirische Überprüfung eines zweidimensionalen Facettendesigns. Empirische Pädagogik, 19(2), 166–189.Google Scholar
  82. Shoemaker, D. M. (1973). Principles and procedures of multiple matrix sampling. Cambridge: Ballinger.Google Scholar
  83. Siegle, T., Schroeders, U., & Roppelt, A. (2013). Anlage und Durchführung des Ländervergleichs. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle, & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 101–121). Münster: Waxmann.Google Scholar
  84. Sodian, B. (2001). Wissenschaftliches Denken. In D. H. Rost (Hrsg.), Handwörterbuch Pädagogische Psychologie (2. Aufl., S. 789–794). Weinheim: Beltz.Google Scholar
  85. Sodian, B., & Mayer, D. (2013). Entwicklung des wissenschaftlichen Denkens im Vor- und Grundschulalter. In M. D. Stamm & Edelmann (Hrsg.), Handbuch Frühkindliche Bildungsforschung (S. 617–631). Wiesbaden: Springer VS.CrossRefGoogle Scholar
  86. Sumfleth, E., Klebba, N., Kauertz, A., Mayer, J., Fischer, H. E., Walpuski, M., & Wellnitz, N. (2013). Das Kompetenzstrukturmodell in den naturwissenschaftlichen Fächern. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 33–38). Münster: Waxmann.Google Scholar
  87. Vorholzer, A., v. Aufschnaiter, S., & Kirchner, S. (2016). Entwicklung und Erprobung eines Tests zur Erfassung des Verständnisses experimenteller Denk- und Arbeitsweisen. Zeitschrift für Didaktik der Naturwissenschaften, 1–17. http://link.springer.com/article/10.1007/s40573-015-0039-3. Zugegriffen: 8. Feb. 2016.Google Scholar
  88. Walpuski, M., Kampa, N., Kauertz, A., & Wellnitz, N. (2008). Evaluation der Bildungsstandards in den Naturwissenschaften. Der mathematische und naturwissenschaftliche Unterricht, 61(6), 323–326.Google Scholar
  89. Walpuski, M., Kauertz, A., Kampa, N., Fischer, H. E., Mayer, J., Sumfleth, E., & Wellnitz, N. (2010). ESNaS – Evaluation der Standards für die Naturwissenschaften in der Sekundarstufe I. In A. Gehrmann, U. Hericks, & M. Lüders (Hrsg.), Bildungsstandards un Kompetenzmodelle – Beiträge zu einer aktuellen Diskussion über Schule, Lehrerbildung und Unterricht (S. 171–184). Bad Heilbrunn: Klinkhardt.Google Scholar
  90. Wellnitz, N. (2012). Kompetenzstruktur und -niveaus von Methoden naturwissenschaftlicher Erkenntnisgewinnung. Berlin: Logos.Google Scholar
  91. Wellnitz, N., & Mayer, J. (2013). Erkenntnismethoden in der Biologie – Entwicklung und Evaluation eines Kompetenzmodells. Zeitschrift für Didaktik der Naturwissenschaften, 19, 315–345.Google Scholar
  92. Wellnitz, N., Fischer, H. E., Kauertz, A., Mayer, J., Neumann, I., Pant, H. A., et al. (2012). Evaluation der Bildungsstandards – eine fächerübergreifende Testkonzeption für den Kompetenzbereich Erkenntnisgewinnung. Zeitschrift für Didaktik der Naturwissenschaften, 18, 261–291.Google Scholar
  93. Wellnitz, N., & Mayer, J. (in Druck). Methoden der Erkenntnisgewinnung in der Biologie. In A. Sandmann & P. Schmiemann (Hrsg.), Biologie lernen und lehren: Erkenntnisse biologiedidaktischer Forschung, (S. 57–78). Berlin: Logos.Google Scholar
  94. Wilkening, F., & Sodian, B. (2005). Scientific reasoning in young children: introduction. Swiss Journal of Psychology, 64(3), 137–139.CrossRefGoogle Scholar
  95. Zimmerman, C. (2000). The development of scientific reasoning skills. Developmental Review, 20(1), 99–149.CrossRefGoogle Scholar
  96. Zimmerman, C. (2007). The development of scientific thinking skills in elementary and middle school. Developmental Review, 27, 127–223.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Didaktik der BiologieUniversität KasselKasselDeutschland
  2. 2.Institut für PsychologieHumboldt-Universität zu BerlinBerlinDeutschland
  3. 3.Institut zur Qualitätsentwicklung im BildungswesenHumboldt-Universität zu BerlinBerlinDeutschland
  4. 4.Institut für naturwissenschaftliche Bildung, AG PhysikdidaktikUniversität Koblenz-LandauLandauDeutschland
  5. 5.Didaktik der ChemieUniversität Duisburg-EssenEssenDeutschland

Personalised recommendations