Advertisement

Die Veränderung der naturwissenschaftlichen Kompetenz von der 9. zur 10. Klasse bei PISA und den Bildungsstandards unter Berücksichtigung geschlechts- und schulartspezifischer Unterschiede sowie der Zusammensetzung der Schülerschaft

  • Anja Schiepe-TiskaEmail author
  • Silke Rönnebeck
  • Patricia Heitmann
  • Katrin Schöps
  • Manfred Prenzel
  • Gabriel Nagy
Article

Zusammenfassung

Über die Entwicklung der naturwissenschaftlichen Kompetenz von Schülerinnen und Schülern liegen in Deutschland bisher noch relativ wenige Befunde vor. Der vorliegende Beitrag untersucht im Rahmen des PISA-Längsschnitts 2012/2013, wie sich die naturwissenschaftliche Kompetenz von der neunten zur zehnten Klassenstufe verändert und ob es Unterschiede zwischen Jugendlichen in Abhängigkeit von der besuchten Schulart, ihrem Geschlecht oder der Klassenzugehörigkeit gibt. Dabei wurden neben der PISA-Kompetenz auch die in den Bildungsstandards verankerten und curricular orientierten Kompetenzbereiche Fachwissen und Erkenntnisgewinnung in den Fächern Biologie, Physik und Chemie untersucht. Die Ergebnisse zeigten für PISA im Mittel keine Veränderung. In den curricular orientierten Kompetenzbereichen verbesserte sich das Fachwissen in allen drei Fächern, in der Erkenntnisgewinnung nur in Physik. Dabei zeigten sich Unterschiede zwischen gymnasialen und nicht gymnasialen Schularten. Darüber hinaus entwickelten sich Mädchen sowohl bei PISA als auch im Fach Biologie vor dem Hintergrund ihrer Ausgangsbedingungen günstiger als Jungen. Effekte der Zusammensetzung der Schülerschaft ließen sich nur für das mittlere Leistungsniveau einer Klasse für die Literacy-bezogene PISA-Kompetenz finden, nicht aber für die lehrplannahen Kompetenzbereiche. Für die mittlere Zusammensetzung der sozialen Herkunft zeigten sich keine Kompositionseffekte.

Schlüsselwörter

Naturwissenschaftliche Kompetenz Fachwissen Erkenntnisgewinnung Kompositionseffekte 

Changes in Science Competence from 9th to 10th Grade in PISA and the German Educational Standards, taking into account Gender and School Track Specific Differences as well as the Composition of the Students

Abstract

Thus far, only little evidence exists for the development of students’ science competencies in Germany. The present paper examines in the context of the PISA 2012/2013 longitudinal study, how science competencies develop from 9th to 10th grade and whether there are differences between students depending on the school track, gender, and class membership. Besides PISA science competencies, curricular oriented competencies in content knowledge and scientific inquiry for the subjects biology, physics, and chemistry were examined. Results showed for PISA on average no changes. For all subjects, content knowledge increased; scientific inquiry only increased in physics. Differences occured between the highest school track and other school tracks. Furthermore, girls developed more favorable in PISA and biology as compared to boys based on their initial background. Composition effects could only be found for the average achievement level of a class in PISA but nor for the curricular oriented science competencies. For the average composition of the social background, no effects were found.

Keywords

Scientific literacy Content knowledge Scientific inquiry Composition effects 

Literatur

  1. American Association for the Advancement of Science (2009). Benchmarks for science literacy. Project 206. http://www.project2061.org/publications/bsl/online/index.php. Zugegriffen: 28. Febr. 2017.Google Scholar
  2. Baumert, J., Lehmann, R., Lehrke, M., Schmitz, B., Clausen, M., Hosenfeld, I., Köller, O., & Neubrand, J. (1997). TIMSS. Mathematisch-naturwissenschaftlicher Unterricht im internationalen Vergleich: Deskriptive Befunde. Opladen: Leske & Budrich.CrossRefGoogle Scholar
  3. Baumert, J., Stanat, P., & Watermann, R. (2006). Schulstruktur und die Entstehung differenzieller Lern- und Entwicklungsmilieus. In J. Baumert (Hrsg.), Herkunftsbedingte Disparitäten im Bildungswesen. Differenzielle Bildungsprozesse und Probleme der Verteilungsgerechtigkeit: Vertiefende Analysen im Rahmen von PISA 2000 (S. 95–188). Wiesbaden: VS.CrossRefGoogle Scholar
  4. Becker, M., Lüdtke, O., Trautwein, U., & Baumert, J. (2006). Leistungszuwachs in Mathematik. Zeitschrift für Pädagogische Psychologie, 20, 233–242. doi: 10.1024/1010-0652.20.4.233.CrossRefGoogle Scholar
  5. BIFIE (2016). BIFIEsurvey: Tools for survey statistics in educational assessment. R package version 1.9.4-0.Google Scholar
  6. Bybee, R. W. (1997). Towards an understanding of scientific literacy. In W. Gräber & C. Bolte (Hrsg.), Scientific literacy. An international symposium (S. 37–68). Kiel: Institut für die Pädagogik der Naturwissenschaften.Google Scholar
  7. Bybee, R., & McCrae, B. (2011). Scientific literacy and student attitudes: Perspectives from PISA 2006 science. International Journal of Science Education, 33, 7–26. doi: 10.1080/09500693.2010.518644.CrossRefGoogle Scholar
  8. Dumay, X., & Dupriez, V. (2008). Does the school composition effect matter? Evidence from Belgian data. British Journal of Educational Studies, 56, 440–477. doi: 10.1111/j.1467-8527.2008.00418.x.CrossRefGoogle Scholar
  9. Dumont, H., Neumann, M., Maaz, K., & Trautwein, U. (2013). Die Zusammensetzung der Schülerschaft als Einflussfaktor für Schulleistungen. Internationale und nationale Befunde. Psychologie in Erziehung und Unterricht, 60, 163–183. doi: 10.2378/peu2013.art14d.CrossRefGoogle Scholar
  10. Gebhardt, M., Rauch, D., Mang, J., Sälzer, C., & Stanat, P. (2013). Mathematische Kompetenz von Schülerinnen und Schülern mit Migrationshintergrund. In M. Prenzel, C. Sälzer, E. Klieme & O. Köller (Hrsg.), PISA 2012. Fortschritte und Herausforderungen in Deutschland (S. 275–308). Münster: Waxmann.Google Scholar
  11. Hecht, M., Roppelt, A., & Siegle, T. (2013). Testdesign und Auswertung des Ländervergleichs. In H. A. Pant, P. Stanat, U. Schroeders, A. Roppelt, T. Siegle & C. Pöhlmann (Hrsg.), IQB-Ländervergleich 2012. Mathematische und naturwissenschaftliche Kompetenzen am Ende der Sekundarstufe I (S. 391–402). Münster: Waxmann.Google Scholar
  12. Heine, J.-H., Sälzer, C., Borchert, L., Sibberns, H., & Mang, J. (2013). Technische Grundlagen des fünften internationalen Vergleichs. In M. Prenzel, C. Sälzer, E. Klieme & O. Köller (Hrsg.), PISA 2012. Fortschritte und Herausforderungen in Deutschland (S. 309–346). Münster: Waxmann.Google Scholar
  13. Heine, J.-H., Nagy, G., Meinck, S., Zühlke, O., & Mang, J. (2017). Empirische Grundlage, Stichprobenausfall und Adjustierung im PISA-Längsschnitt 2012–2013. In: K. Reiss, E. Klieme, O. Köller & P. Stanat (Hrsg.), PISA Plus 2012–2013 (Zeitschrift für Erziehungswissenschaften – Sonderheft 33), DOI:  10.1007/s11618-017-0756-0. Wiesbaden: Springer VS.Google Scholar
  14. Ivanov, S. (2011). Naturwissenschaftliche Kompetenz und fachbezogene Einstellungen. In U. Vieluf, S. Ivanov & R. Nikolova (Hrsg.), KESS 10/11. Kompetenzen und Einstellungen von Schülerinnen und Schülern an Hamburger Schulen am Ende der Sekundarstufe I und zu Beginn der gymnasialen Oberstufe HANSE – Hamburger Schriften zur Qualität im Bildungswesen, (Bd. 10, S. 183–214). Münster: Waxmann.Google Scholar
  15. Ivanov, S., & Nikolova, R. (2010). Naturwissenschaftliche Kompetenz. In W. Bos & C. Gröhlich (Hrsg.), KESS 8. Kompetenzen und Einstellungen von Schülerinnen und Schülern am Ende der Jahrgangsstufe 8 HANSE – Hamburger Schriften zur Qualität im Bildungswesen, (Bd. 6, S. 79–118). Münster: Waxmann.Google Scholar
  16. Klieme, E., Avenarius, H., Blum, W., Döbrich, P., Gruber, H., Prenzel, M., Reiss, K., Riquarts, K., Rost, J., Ternoth, H.-E., & Vollmer, H. J. (2003). Zur Entwicklung nationaler Bildungsstandards. Eine Expertise. Berlin: BMBF.Google Scholar
  17. Köller, O., & Baumert, J. (2001). Leistungsgruppierungen in der Sekundarstufe I und ihre Konsequenzen für die Mathematikleistung und das mathematische Selbstkonzept. Zeitschrift für Pädagogische Psychologie, 15, 99–110. doi: 10.1024//1010-0652.15.2.99.CrossRefGoogle Scholar
  18. Köller, O., & Baumert, J. (2002). Entwicklungen schulischer Leistungen. In R. Oerter & L. Montada (Hrsg.), Entwicklungspsychologie (5. Aufl. S. 756–786). Weinheim: Beltz.Google Scholar
  19. Köller, O., Schütte, K., Zimmermann, F., Retelsdorf, J., & Leucht, M. (2013). Starke Klasse, hohe Leistungen? Psychologie in Erziehung und Unterricht, 60, 184–197. doi: 10.2378/peu2013.art15d.CrossRefGoogle Scholar
  20. Maier, M., & Post, S. (2016). Scientific uncertainty in the public discourse. How scientists, media and audiences present und process scientific evidence (Special issue). Communications, 41 doi: 10.1515/commun-2016-0014.Google Scholar
  21. Müller, K., & Ehmke, T. (2013). Soziale Herkunft als Bedingung der Kompetenzentwicklung. In M. Prenzel, C. Sälzer, E. Klieme & O. Köller (Hrsg.), PISA 2012. Fortschritte und Herausforderungen in Deutschland (S. 245–274). Münster: Waxmann.Google Scholar
  22. Nagy, G., Haag, N., Lüdtke, O., & Köller, O. (2017a). Längsschnittskalierung der Tests zur Überprüfung des Erreichens der Bildungsstandards der Sekundarstufe I im PISA-Längsschnitt 2012/2013. In: K. Reiss, E. Klieme, O. Köller & P. Stanat (Hrsg.), PISA Plus 2012–2013 (Zeitschrift für Erziehungswissenschaften – Sonderheft 33), DOI:  10.1007/s11618-017-0755-1. Wiesbaden: Springer VS.Google Scholar
  23. Nagy, G., Lüdtke, O., Heine, J.-H., & Köller, O. (2017b). IRT-Skalierung der Tests im PISA-Längsschnitt 2012/2013: Auswirkungen von Testkontexteffekten auf die Zuwachsschätzung. In: K. Reiss, E. Klieme, O. Köller & P. Stanat (Hrsg.), PISA Plus 2012 – 2013 (Zeitschrift für Erziehungswissenschaften – Sonderheft 33), DOI:  10.1007/s11618-017-0749-z. Wiesbaden: Springer VS.Google Scholar
  24. National Center for Education Statistics (NCES) (1995). Two years later: Cognitive gains and school transitions of NELS:88 eigth graders. Washington DC: U.S. Department of Education.Google Scholar
  25. OECD (2006). Assessing scientific, reading and mathematical literacy. A framework for PISA 2006. Paris: OECD Publishing.CrossRefGoogle Scholar
  26. OECD (2007). PISA 2006. Science competencies for tomorrow’s world. Paris: OECD Publishing.CrossRefGoogle Scholar
  27. OECD (2013). PISA 2012 assessment and analytical framework: Mathematics, reading, science, problem solving and financial literacy. Paris: OECD Publishing.CrossRefGoogle Scholar
  28. OECD (2014). PISA 2012 Technical report. Paris: OECD Publishing.Google Scholar
  29. Osborne, J., & Dillon, J. (2008). Science education in Europe: Critical reflections. A report to the Nuffield Foundation. London: King’s College.Google Scholar
  30. Prenzel, M., & Seidel, T. (2008). Erwerb naturwissenschaftlicher Kompetenzen. In W. Schneider & M. Hasselhorn (Hrsg.), Handbuch der Pädagogischen Psychologie (S. 608–618). Göttingen: Hogrefe.Google Scholar
  31. Prenzel, M., Schöps, K., Rönnebeck, S., Senkbeil, M., Walter, O., Carstensen, C., & Hammann, M. (2007). Naturwissenschaftliche Kompetenz im internationalen Vergleich. In M. Prenzel, C. Artelt, J. Baumert, W. Blum, M. Hammann, E. Klieme & R. Pekrun (Hrsg.), PISA 2006. Die Ergebnisse der dritten internationalen Vergleichsstudie (S. 61–124). Münster: Waxmann.Google Scholar
  32. Roberts, D. (2007). Scientific literacy/science literacy. In S. K. Abell & N. G. Lederman (Hrsg.), Handbook of research on science education (S. 729–780). Mahwah NJ: Lawrence Erlbaum.Google Scholar
  33. Schiepe-Tiska, A., Rönnebeck, S., Schöps, K., Neumann, K., Schmidtner, S., Parchmann, I., & Prenzel, M. (2016a). Naturwissenschaftliche Kompetenz in PISA 2015 – Ergebnisse des internationalen Vergleichs mit einem modifizierten Testansatz. In K. Reiss, C. Sälzer, A. Schiepe-Tiska, E. Klieme & O. Köller (Hrsg.), PISA 2015. Eine Studie zwischen Kontinuität und Innovation (S. 45–98). Münster New York: Waxmann.Google Scholar
  34. Schiepe-Tiska, A., Simm, I., & Schmidtner, S. (2016b). Motivationale Orientierungen, Selbstbilder und Berufserwartungen in den Naturwissenschaften in PISA 2015. In K. Reiss, C. Sälzer, A. Schiepe-Tiska, E. Klieme & O. Köller (Hrsg.), PISA 2015. Eine Studie zwischen Kontinuität und Innovation (S. 99–132). Münster New York: Waxmann.Google Scholar
  35. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) (2005a). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Biologie für den mittleren Bildungsabschluss (Beschluss vom 16. Dezember 2004). München: Wolters Kluwer.Google Scholar
  36. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) (2005b). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Chemie für den mittleren Bildungsabschluss (Beschluss vom 16. Dezember 2004). München: Wolters Kluwer.Google Scholar
  37. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) (2005c). Beschlüsse der Kultusministerkonferenz – Bildungsstandards im Fach Physik für den mittleren Bildungsabschluss (Beschluss vom 16. Dezember 2004). München: Wolters Kluwer.Google Scholar
  38. Walter, O., Senkbeil, M., Rost, J., Carstensen, C., & Prenzel, M. (2006). Die Entwicklung der naturwissenschaftlichen Kompetenz von der neunten zur zehnten Klassenstufe: Deskriptive Befunde. In M. Prenzel, J. Baumert, W. Blum, R. Lehmann, D. Leutner, M. Neubrand, R. Pekrun, J. Rost & U. Schiefele (Hrsg.), PISA 2003. Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres (S. 88–118). Münster: Waxmann.Google Scholar
  39. Weinert, F. E. (Hrsg.). (2002). Leistungsmessungen in Schulen (2. Aufl.). Weinheim: Beltz.Google Scholar
  40. Wellnitz, N., Fischer, H. E., Kauertz, A., Mayer, J., Neumann, I., Pant, H. A., Sumfleth, E., & Walpuski, M. (2012). Evaluation der Bildungsstandards – eine fächerübergreifende Testkonzeption für den Kompetenzbereich Erkenntnisgewinnung. Zeitschrift für Didaktik der Naturwissenschaften, 18, 261–291.Google Scholar
  41. Wilhelm, O., Schroeders, U., & Schipolowski, S. (2014). Berliner Test zur Erfassung fluider und kristalliner Intelligenz für die 8. bis 10. Jahrgangsstufe (BEFKI 8–10). Göttingen: Hogrefe.Google Scholar
  42. Yang, M., Goldstein, H., Rath, T., & Hill, N. (1999). The use of assessment data for school improvement purposes. Oxford Review of Education, 25, 469–483. doi: 10.1080/030549899103937.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2017

Authors and Affiliations

  • Anja Schiepe-Tiska
    • 1
    • 3
    Email author
  • Silke Rönnebeck
    • 1
    • 4
  • Patricia Heitmann
    • 5
  • Katrin Schöps
    • 1
    • 4
  • Manfred Prenzel
    • 2
    • 3
  • Gabriel Nagy
    • 1
    • 4
  1. 1.Zentrum für Internationale Bildungsvergleichsstudien (ZIB) e. V.MünchenDeutschland
  2. 2.Susanne Klatten-Stiftungslehrstuhl für Empirische BildungsforschungMünchenDeutschland
  3. 3.Technische Universität MünchenMünchenDeutschland
  4. 4.Leibniz-Institut für die Pädagogik der Naturwissenschaften und MathematikKielDeutschland
  5. 5.Institut zur Qualitätsentwicklung im Bildungswesen (IQB)Humboldt-Universität zu BerlinBerlinDeutschland

Personalised recommendations