Zusammenfassung
In der Studie wurde die Wirksamkeit unterschiedlicher adaptiver Feedbackformen auf die Entwicklung experimenteller Kompetenz von Schülerinnen und Schüler aus leistungsschwachen Klassen der Jahrgangsstufe 7 untersucht (n = 149, 44,3 % weiblich). Die Beurteilung der Kompetenz und ein daran gekoppeltes adaptives Feedback bezogen sich auf ein validiertes problemtypenbasiertes Kompetenzstufenmodell. Die Schülerinnen und Schüler lösten zu vier Zeitpunkten jeweils eine hands-on Aufgabe. Der erste Zeitpunkt wurde als Prätest, der letzte als Posttest genutzt, während der zweite und dritte Zeitpunkt als Intervention mit unterschiedlichem Feedback wirkte. Schülerinnen und Schüler wurden zufällig einer von drei Interventionsgruppen oder der Kontrollgruppe zugewiesen. Schülerinnen und Schüler aus den drei Interventionsgruppen erhielten zu zwei Zeitpunkten entweder (rückmeldendes) feeding back, (hinweisgebendes) feeding forward oder gleichzeitig beide Formen. Die Ergebnisse zeigen keine statistisch signifikanten Unterschiede in der Entwicklung der experimentellen Kompetenz zwischen Schülerinnen und Schülern der Interventionsgruppe bzw. den einzelnen Interventionsgruppen und der Kontrollgruppe. Das zentrale Problem für die statistisch nicht signifikanten Ergebnisse scheint die zu geringe Grösse der Stichprobe zu sein. Insbesondere in einem Falle – Schülerinnen und Schüler mit feeding back – deutet die Effektstärke des Unterschieds zur Kontrollgruppe darauf hin, dass hier Potenzial vorhanden sein könnte, um die experimentelle Kompetenz bei Schülerinnen und Schüler aus leistungsschwachen Klassen der Sekundarstufe I zu fördern. Optimierungsmöglichkeiten mit Blick auf allfällige neue Studien werden diskutiert.
Abstract
In this study, we examined the effectiveness of different adaptive competence-based feedback forms on the development of expertise in ‘doing science’ of grade 7 students from low achievement levels (n = 149, 44.3% female). The assessment of expertise as well as the adaptive feedback were based on a validated progression model. The students solved at four occasions a hands-on task. The first occasion was used as pretest, the last one as posttest, while the second and third occasion both served as an intervention with varying feedback forms. Students were randomly assigned to one of three experimental groups or to the control group. Students from the experimental groups received during the intervention phase either a feeding back, a feeding forward or both forms simultaneously. The results show no statistically significant differences between students from the experimental groups and the control group. The central problem for the statistically not significant results seems to be the small sample size. In one case in particular—students receiving feeding back compared to students from the control group—the effect size indicates that there might be potential here to foster the expertise in ‘doing science’ among secondary school students from low-achievement levels. Means for optimization regarding possible new studies are discussed.
Literatur
Adamina, M., & Hild, P. (2019). Mit Lernaufgaben Kompetenzen fördern. In P. Labudde & S. Metzger (Hrsg.), Fachdidaktik Naturwissenschaften, 1.–9. Schuljahr, 3te Auflage. Bern: Haupt Verlag.
Altman, D. G., & Bland, J. M. (1995). Statistics notes: Absence of evidence is not evidence of absence. BMJ, 311, 485.
Arnold, J. (2015). Die Wirksamkeit von Lernunterstützungen beim Forschenden Lernen: Eine Interventionsstudie zur Förderung des Wissenschaftlichen Denkens in der gymnasialen Oberstufe. Dissertation. Kiel: IPN.
Arnold, J., Kremer, K., & Mayer, J. (2017). Scaffolding beim forschenden Lernen: Eine empirische Untersuchung zur Wirkung von Lernunterstützungen. Zeitschrift für Didaktik der Naturwissenschaften, 23(1), 21–37.
Atkinson, R. K., Derry, S. J., Renkl, A., & Wortham, D. (2000). Learning from examples: instructional principles from the worked examples research. Review of Educational Research, 70(2), 181–214.
Azevedo, R., Cromley, J. G., Winters, F. I., Moos, D. C., & Greene, J. A. (2005). Adaptive human scaffolding facilitates adolescents’ self-regulated learning with hypermedia. Instructional Science, 33, 381–412.
Bangert-Drowns, R. L., Kulik, C.-L. C., Kulik, J. A., & Morgan, M. (1991). The instructional effect of feedback in test-like events. Review of Educational Research, 61(2), 213.
Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in education: principles, policy & practice, 5(1), 7–74.
Bloom, B. (1984). The 2‑sigma problem: the search for methods of group instruction as effective as one-to-one tutoring. Educational Researcher, 13(6), 4. https://doi.org/10.3102/0013189x013006004.
Bortz, J., Lienert, G. A., & Böhnke, K. (2000). Verteilungsfreie Methoden der Biostatistik (2. Aufl.). Berlin: Springer.
Buff, A., Dinkelmann, I., Steiner, E., & Reusser, K. (2010). Transition. Elterliche Unterstützung und motivational-affektive Entwicklung beim Übertritt in die Sekundarstufe I: Detaillierte Dokumentation der quantitativen Erhebungen auf situationsspezifischer Ebene Dezember 2008 – März 2009. Zürich: Pädagogische Hochschule Zürich & Institut für Erziehungswissenschaft, Universität Zürich.
Chen, O., Kalyuga, S., & Sweller, J. (2016). When instructional guidance is needed. The Educational and Developmental Psychologist, 33(2), 149–162.
Chi, M. T. H., Siler, S. A., Jeong, H., Yamauchi, T., & Hausmann, R. G. (2001). Learning from human tutoring. Cognitive Science, 25, 471–533
Chiu, M. H., Chou, C. C., & Liu, C. J. (2002). Dynamic processes of conceptual change: analysis of constructing mental models of chemical equilibrium. Journal of Research in Science Teaching, 39, 688–712.
Coelho, S. M., & Séré, M.-G. (1998). Pupils’ reasoning and practice during hands-on activities in the measurement phase. Research in Science & Technological Education, 16(1), 79–96.
Cohen, J. (1994). The earth is round (p 〈 0.05). American Psychologist, 49, 997–1003.
Cohen, J. (2008). Explaining psychological statistics (3. Aufl.). New York: John Wiley & Sons.
Eccles, J. S. (2005). Subjective task value and the Eccles et al. model of achievement-related choices. In A. J. Elliot & C. S. Dweck (Hrsg.), Handbook of competence and motivation (S. 105–121). New York: Guilford.
Emden, M., Bewersdorff, A., & Baur, A. (2019). Kann Experimentieren in der Schule bilden? Zeitschrift für Pädagogik, 5, 710.
Enders, C. T. (2010). Applied missing data analysis. New York: The Guilford.
Faul, F., Erdfelder, E., Lang, A.-G., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39, 175–191.
Field, A. (2009). Discovering statistics using SPSS (3. Aufl.). London: SAGE.
Friedrich, H. F., & Mandl, H. (1992). Lern- und Denkstrategien – ein Problemaufriss. In H. Mandl & H. F. Friedrich (Hrsg.), Lern- und Denkstrategien (S. 3–54). Göttingen: Hogrefe.
Gao, X., Shavelson, R. J., & Baxter, G. P. (1994). Generalizability of large-scale performance assessments in science: promises and problems. Applied Measurement in Education. https://doi.org/10.1207/s15324818ame0704_4.
Geiser, C. (2012). Data analysis with Mplus. New York: Guilford.
Germann, P. J., & Aram, R. J. (1996). Student performances on the science processes of recording data, analyzing data, drawing conclusions, and providing evidence. Journal of Research in Science Teaching, 33(7), 773.
Glaser, R. (1972). Individuals and learning. The new aptitudes. Educational Researcher, 1, 5–13.
Gut, C. (2012). Modellierung und Messung experimenteller Kompetenz: Analyse eines large-scale Experimentiertests. Dissertation, Bd. 134. Berlin: Logos.
Gut, C., & Mayer, J. (2018). Kompetenz. In D. Krüger, I. Parchmann & H. Schecker (Hrsg.), Theorien in der naturwissenschafts-didaktischen Forschung (S. 121–140). Berlin: Springer.
Gut, C., Hild, P., Metzger, S., & Tardent, J. (2017). Vorvalidierung des ExKoNawi-Modells. In C. Maurer (Hrsg.), Implementation fachdidaktischer Innovation im Spiegel von Forschung und Praxis. Gesellschaft für Didaktik der Chemie und Physik, Jahrestagung, Zürich. (S. 324–331).
Gut, C., Metzger, S., Hild, P., & Tardent, J. (2014). Problemtypenbasierte Modellierung und Messung experimenteller Kompetenzen. PhyDiD B. http://phydid.physik.fu-berlin.de/index.php/phydid-b/article/view/532. Zugegriffen: 21. Mai 2019.
Gwet, K. (2008). Computing inter-rater reliability in the presence of high agreement. British Journal of Mathematical & Statistical Methodology, 61(1), 29–48.
Habig, S., van Vorst, H., & Sumfleth, E. (2018). Merkmale kontextualisierter Lernaufgaben und ihre Wirkung auf das situationale Interesse und die Lernleistung von Schüler*innen. ZfDN, 24, 99–114.
Hammann, M., Phan, T. H., & Bayrhuber, H. (2007). Experimentieren als Problemlösen: Lässt sich das SDDS-Modell nutzen, um unterschiedliche Dimensionen beim Experimentieren zu messen? Zeitschrift für Erziehungswissenschaft, 10(8), 33–49.
Harks, B., Rakoczy, K., Klieme, E., Hattie, J., & Besser, M. (2014). Indirekte und moderierte Effekte von schriftlicher Rückmeldung auf Leistung und Motivation. In H. Ditton & A. Müller (Hrsg.), Feedback und Rückmeldungen: Theoretische Grundlagen, empirische Befunde, praktische Anwendungsfelder (S. 163–194). Münster: Waxmann.
Hattie, J. (2008). Visible learning: a synthesis of over 800 Meta-analyses relating to achievement. New York: Routledge.
Hattie, J., & Timperley, H. (2007). The Power of Feedback. Review of Educational Research, 77(1), 81.
Hattie, J., & Wollenschläger, M. (2014). A conceptualization of feedback. In H. Ditton & A. Müller (Hrsg.), Feedback und Rückmeldungen: Theoretische Grundlagen, empirische Befunde, praktische Anwendungsfelder (S. 135–149). Münster: Waxmann.
Hild, P., Gut, C., & Brückmann, M. (2018a). Validating performance assessments in science. Measures that may help to evaluate students’ expertise in doing science. Research in Science & Technological Education. https://doi.org/10.1080/02635143.2018.1552851.
Hild, P., Gut, C., Metzger, S., & Tardent, J. (2018b). Zur Generalisierbarkeit bei Experimentiertests. In C. Maurer (Hrsg.), Qualitätsvoller Chemie- und Physikunterricht – normative und empirische Dimensionen. Gesellschaft für Didaktik der Chemie und Physik, Jahrestagung, Regensburg, 2017. (S. 348–351).
Hild, P., Metzger, S., & Parchmann, I. (2018c). Beurteilung und Förderung experimenteller Kompetenzen mit Aufgaben zum effektbasierten Vergleichen. ChemKon, 3, 90–97.
Hofstetter, D. (2017). Die schulische Selektion als soziale Praxis: Aushandlungen von Bildungsentscheidungen beim Übergang von der Primarschule in die Sekundarstufe I. Weinheim: Beltz Juventa.
Jaehnig, W., & Miller, M. L. (2007). Feedback types in programmed instruction: a systematic review. The Psychological Record, 57(2), 219.
Kingston, N., & Nash, B. (2011). Formative assessment: a meta-analysis and a call for research. Educational Measurement: issues and practice, 30(4), 28–37.
Klieme, E., & Warwas, J. (2011). Konzepte der individuellen Förderung. Zeitschrift für Pädagogik, 57(6), 805–818.
Kluger, A. N., & DeNisi, A. (1996). Feedback intervention theory. Feedback, 25(5), 254.
Koenen, J. (2014). Entwicklung und Evaluation von experimentunterstützten Lösungsbeispielen zur Förderung naturwissenschaftlich-experimenteller Arbeitsweisen. Studien zum Physik- und Chemielernen: Vol. 171. Berlin: Logos.
Koenen, J., Emden, M., & Sumfleth, E. (2017). Naturwissenschaftlich-experimentelles Arbeiten: Potenziale des Lernens mit Lösungsbeispielen und Experimentierboxen. Zeitschrift für Didaktik der Naturwissenschaften, 23(1), 81–98.
Krammer, K. (2009). Individuelle Lernunterstützung in Schülerarbeitsphasen. Eine videobasierte Analyse des Unterstützungsverhaltens von Lehrpersonen im Mathematikunterricht. Berlin: Waxmann.
Krull, N., & Wolfram, C. (2010). Binnendifferenzierung im Alltag einer Hauptschule. Ein Bericht aus der Praxis. Pädagogik, 11(62), 16–20.
Kuhn, D., & Dean, D. (2005). Is developing scientific thinking all about learning to control variables? Psychological Science, 16(11), 866–870.
Kulhavy, R. W., & Stock, W. A. (1989). Feedback in written instruction: the place of response certitude. Educational Psychology Review, 1, 279–308.
Kulhavy, R. W., Stock, W. A., Thornton, N. E., Winston, K. S., & Behrens, J. T. (1990). Response feedback, certitude and learning from text. The British Journal of Educational Psychology, 60(2), 161.
Lenhard, W., & Lenhard, A. (2016). Berechnung von Effektstärken. Dettelbach: Psychometrica.
Lippmann Kung, R. (2005). Teaching the concepts of measurement: An example of a concept-based laboratory course. Am. J. Phys., 73(8), 771–777.
Marschner, J. (2011). Adaptives Feedback zur Unterstützung des selbstregulierten Lernens durch Experimentieren. Dissertation. Essen: Universität Duisburg-Essen, Fakultät für Bildungswissenschaften.
Mayer, J., Grube, C., & Möller, A. (2008). Kompetenzmodellierung naturwissenschaftlicher Erkenntnisgewinnung. In U. Harms & A. Sandmann (Hrsg.), Lehr- und Lernforschung in der Biologiedidaktik (Bd. 3, S. 63–79). Innsbruck: Studienverlag.
Mercer, N., Dawes, L., Wegerif, R., & Sams, C. (2004). Reasoning as a scientist: ways of helping children to use language to learn science. British Educational Research Journal, 30, 359–377.
Müller, A., & Ditton, H. (2014). Feedback: Begriff, Formen und Funktionen. In H. Ditton & A. Müller (Hrsg.), Feedback und Rückmeldungen: Theoretische Grundlagen, empirische Befunde, praktische Anwendungsfelder (S. 11–28). Münster: Waxmann.
Pea, R. D. (2004). The social and technological dimensions of scaffolding and related theoretical concepts for learning, education, and human activity. Journal of the Learning Sciences, 13, 423–451.
Perfetto, G. A., Bransford, J. D., & Franks, J. J. (1983). Constraints on access in a problem-solving context. Memory & cognition, 11(1), 24–31.
Van de Pol, J., Volman, M., & Beishuizen, J. (2010). Scaffolding in teacher-student interaction: a decade of research. Educational Psychology Review, 22(3), 271–296.
Priemer, B., Weß, R., & Ludwig, T. (2019). PCK des Argumentierens im naturwissenschaftlichen Unterricht. In C. Maurer (Hrsg.), Naturwissenschaftliche Bildung als Grundlage für berufliche und gesellschaftliche Teilhabe. GDCP Jahrestagung, Kiel, 2018. (S. 596).
Rakoczy, K., Buff, A., & Lipowsky, F. (2005). Teil I. Dokumentation der Erhebungs- und Auswertungsinstrumente zur schweizerisch-deutschen Videostudie. In E. Klieme, C. Pauli & K. Reusser (Hrsg.), Unterrichtsqualität, Lernverhalten und mathematisches Verständnis. Frankfurt am Main: DIPF.
Rakoczy, K., Klieme, E., Bürgermeister, A., & Harks, B. (2008). The interplay between student evaluation and instruction. Zeitschrift für Psychologie, 216(2), 111.
Ramseier, E., Labudde, P., & Adamina, M. (2011). Validierung des Kompetenzmodells HarmoS Naturwissenschaften: Fazite und Defizite. Zeitschrift für Didaktik der Naturwissenschaften, 17, 7–33.
Reigosa, C., & Jimenez-Aleixandre, M. P. (2007). Scaffolded problem-solving in the physics and chemistry laboratory: difficulties hindering students’ assumption of responsibility. International Journal of Science Education, 29, 307–329.
Reusser, K. (2015). Aufgaben – Träger der Lerngelegenheiten und Lernprozesse im kompetenzorientierten Unterricht. Seminar, 4, 77–101.
Sandoval, W. A., & Reiser, B. J. (2004). Explanation-driven inquiry: Integrating conceptual and epistemic scaffolds for scientific inquiry. Science Education, 88(3), 345–372.
Schecker, H., & Parchmann, I. (2006). Modellierung naturwissenschaftlicher Kompetenz. Zeitschrift für Didaktik der Naturwissenschaften, 12, 45–66.
Scheuermann, H. (2017). Entwicklung und Evaluation von Unterstützungsmaßnahmen zur Förderung der Variablenkontrollstrategie beim Planen von Experimenten. Berlin: Logos.
Schreiber, N., & Theyßen, H. (2019). Selbstbeurteilungen zur formativen Diagnostik experimenteller Performanzen – was zeichnet genau urteilende Schülerinnen und Schüler aus? Zeitschrift für Didaktik der Naturwissenschaften. https://doi.org/10.1007/s40573-019-00091-w.
Schreiber, N., Theyßen, H., & Schecker, H. (2009). Experimentelle Kompetenz messen?! Physik und Didaktik in Schule und Hochschule. PhyDid, 3(8), 92–101.
Schwichow, M. (2015). Förderung der Variablen-Kontroll-Strategie im Physikunterricht. Dissertation. Kiel: IPN Kiel.
Schwichow, M., Zimmerman, C., Croker, S., & Härtig, H. (2016). What students learn from hands-on activities: hands-on versus paper-and-pencil. Journal of Research in Science Teaching, 53(7), 980–1002.
Shavelson, R. J., & Baxter, G. P. (1992). What we’ve learned about assessing hands-on science. Educational Leadership, 49(8), 20–25.
Solano-Flores, G., & Shavelson, R. J. (1997). Development of performance assessments in science: conceptual, practical, and logistical issues. Educational Measurement: issues and practice, 16(3), 16–24.
Stecher, B. M., Klein, S. P., Solano-Flores, G., McCaffrey, D., Robyn, A., Shavelson, R. J., & Haertel, E. H. (2000). The effects of content, format, and inquiry level on science performance assessment scores. Applied Measurement in Education, 13(2), 139–160.
Stone, C. A. (1998). The metaphor of scaffolding: its utility for the field of learning disabilities. Journal of Learning Disabilities, 31, 344–364.
Strijbos, J. W., Pat-El, R. J., & Narciss, S. (2010). Validation of a (peer) feedback perceptions questionnaire. Proceedings of the 7th International Conference on Networked Learning, Aalborg University, Aalborg.
Tabak, I., & Baumgartner, E. (2004). The teacher as partner: exploring participant structures, symmetry, and identity work in scaffolding. Cognition and Instruction, 22(4), 393–429.
Volkwyn, T. S., Allie, S., Buffler, A., & Lubben, F. (2008). Impact of a conventional introductory laboratory course on the understanding of measurement. Phys. Rev. ST Physics Educational Research. https://doi.org/10.1103/physrevstper.4.010108.
Vorholzer, A., & von Aufschnaiter, C. (2019). Guidance in inquiry-based instruction—an attempt to disentangle a manifold construct. International Journal of Science Education, 41(11), 1562–1577.
Wahser, I., & Sumfleth, E. (2008). Training experimenteller Arbeitsweisen zur Unterstützung kooperativer Kleingruppenarbeit im Fach Chemie. Zeitschrift für Didaktik der Naturwissenschaften, 14, 219–241.
Walpuski, M., & Sumfleth, E. (2007). Strukturierungshilfen und Feedback zur Unterstützung experimenteller Kleingruppenarbeit im Chemieunterricht. Zeitschrift für Didaktik der Naturwissenschaften, 13, 181–198.
Wellnitz, N., & Mayer, J. (2008). Evaluation von Kompetenzstruktur und -niveaus zum Beobachten, Vergleichen, Ordnen und Experimentieren. Erkenntnisweg Biologiedidaktik, 7, 129–144.
Wigfield, A., & Eccles, J. S. (2000). Expectancy-value theory of achievement motivation. Contemporary Educational Psychology, 25, 68–81.
Wilhelm, M., & Kunz, P. (2016). Praktisch-naturwissenschaftliches Arbeiten im Unterricht. In S. Metzger, C. Colberg & P. Kunz (Hrsg.), Naturwissenschaftsdidaktische Perspektiven. Naturwissenschaftliche Grundbildung und didaktische Umsetzung im Rahmen von SWiSE (Bd. 1, S. 126–140). Bern: Haupt.
Wodzinski, R., & Stäudel, L. (2009). Aufgaben mit gestuften Hilfen für den Physik-Unterricht. Seelze: Friedrich.
Wollenschläger, M., Möller, J., & Harms, U. (2012). Ist kompetenzielles Fremdfeedback überlegen, weil es als effektiver wahrgenommen wird? Unterrichtswissenschaft, 40(3), 197.
Wu, H. K., & Krajcik, J. S. (2006). Exploring middle school students’ use of inscriptions in project-based science classrooms. Science & Education, 90, 852–873.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Hild, P., Buff, A., Gut, C. et al. Adaptives kompetenzbezogenes Feedback beim selbstständigen praktisch-naturwissenschaftlichen Arbeiten. ZfDN 26, 19–35 (2020). https://doi.org/10.1007/s40573-020-00109-8
Received:
Revised:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s40573-020-00109-8