Advertisement

Die Bedeutung des sozioökonomischen Hintergrunds für spezifische Leseleistungsunterschiede bei offenen und geschlossenen Aufgaben und verschiedenen Textarten

  • Franziska SchwabeEmail author
  • Matthias Trendtel
  • Nele McElvany
Forschungsbeitrag Schwerpunkt
  • 42 Downloads

Zusammenfassung

Aufgaben erfüllen wichtige Funktionen in Lern- und Leistungssituationen. Deshalb ist ein differenziertes Verständnis der Effekte unterschiedlicher Aufgabenmerkmale von zentraler Bedeutung. Für die Domäne Lesen untersucht der vorliegende Beitrag auf Basis der Internationalen Grundschul-Lese-Untersuchung (IGLU) 2006 spezifische Vorteile für Kinder mit unterschiedlichem sozioökonomischem Hintergrund nach (a) Aufgabenformat und (b) Textart mit einem regressionsanalytischen Ansatz. Innerhalb der Gruppe mit günstigerem sozioökonomischem Hintergrund zeigen sich weder in offenen Aufgaben noch bei literarischen Texten über den mittleren Leistungsvorsprung hinausgehende spezifische Vorteile. Allerdings stützen die Daten die Annahme spezifischer Vorteile dieser Kinder bei Aufgaben, die beide Merkmale aufweisen. Die Ergebnisse werden mit Blick auf ihre Bedeutung für die Unterrichtspraxis in Grundschulen diskutiert.

Schlüsselwörter

Lesekompetenz Aufgabenformat Sozioökonomischer Hintergrund Large-Scale-Assessment 

The meaning of socioeconomic background for reading competence in open or closed tasks and different text genres

Abstract

Tasks serve important functions concerning learning and assessment. Therefore, understanding the effects of different aspects of tasks is a crucial issue. The current study analyzes effects of (a) format of reading task and (b) reading text type for children with different socioeconomic backgrounds based on the data of IGLU 2006. Neither effects of an open-ended item-format nor effects of the text type can be identified. However, the hypothesized positive effect of a combination of both aspects for children with higher socioeconomic backgrounds is supported by the analyses. Results are discussed in the light of learning and instruction in elementary schools.

Keywords

Reading Item format Family background Large-scale-assessment 

Literatur

  1. Bacon, D. R. (2003). Assessing learning outcomes: a comparison of multiple-choice and short-answer questions in a marketing context. Journal of Marketing Education, 25(1), 31–36.  https://doi.org/10.1177/0273475302250570.CrossRefGoogle Scholar
  2. Baker, L., Dreher, M. J., Shiplet, A. K., Beall, L. C., Voelker, A. N., Garrett, A. J., Schugar, H. R., & Finger-Elam, M. (2011). Children’s comprehension of informational text: reading, engaging, and learning. International Electronic Journal of Elementary Education, 4(1), 197–227.Google Scholar
  3. Baumert, J., & Schümer, G. (2001). Familiäre Lebensverhältnisse, Bildungsbeteiligung und Kompetenzerwerb. In J. Baumert, E. Klieme, M. Neubrand, M. Prenzel, U. Schiefele, W. Schneider, P. Stanat, K.-J. Tillmann & M. Weiß (Hrsg.), PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich (S. 159–200). Opladen: Leske + Budrich.Google Scholar
  4. Baumert, J., & Stanat, P. (2018). Internationale Schulleistungsvergleiche. In D. H. Rost, J. R. Sparfeldt & S. R. Buch (Hrsg.), Handwörterbuch Pädagogische Psychologie (5. Aufl. S. 297–308). Weinheim: Beltz.Google Scholar
  5. Ben-Shakhar, G., & Sinai, Y. (1991). Gender differences in multiplechoice tests: The role of differential guessing tendencies. Journal of Educational Measurement, 28(1), 23–35.  https://doi.org/10.1111/j.1745-3984.1991.tb00341.x.CrossRefGoogle Scholar
  6. Berberoglu, G. (1995). Differential item functioning (DIF) analysis of computation, word problem and geometry questions across gender and SES groups. Studies in Educational Evaluation, 21(4), 439–456.CrossRefGoogle Scholar
  7. De Boeck, P., & Wilson, M. (2004). A framework for item response models. In P. De Boeck & M. Wilson (Hrsg.), Explanatory item response models (S. 3–41). New York: Springer.CrossRefGoogle Scholar
  8. Bos, W., Lankes, E.-M., Prenzel, M., Schwippert, K., Walther, G., & Valtin, R. (Hrsg.). (2003). Erste Ergebnisse aus IGLU. Schülerleistungen am Ende der vierten Jahrgangsstufe im internationalen Vergleich. Münster: Waxmann.Google Scholar
  9. Burkes, L. L. (2009). Identifying differential item functioning related to student socioeconomic status and snvestigating sources related to classroom opportunities to learn. Delaware: University of Delaware. Unveröffentlichte DissertationGoogle Scholar
  10. van Dijk, T. A., & Kintsch, W. (1983). Strategies of discourse comprehension. New York: Springer.Google Scholar
  11. Duke, N. K., & Purcell-Gates, V. (2003). Genres at home and at school: Bridging the known to the new. The Reading Teacher, 57(1), 30–37.CrossRefGoogle Scholar
  12. Graf, W. (2001). Lektüre zwischen Literaturgenuss und Lebenshilfe. Modi des Lesens – eine Systematisierung der qualitativen Befunde zur literarischen Rezeptionskompetenz. In Stiftung Lesen (Hrsg.), Leseverhalten in Deutschland im neuen Jahrtausend. Eine Studie der Stiftung Lesen (S. 199–224). Hamburg: Spiegel-Verlag.Google Scholar
  13. Grisay, A., & Monseur, C. (2007). Measuring the equivalence of item difficulty in the various versions of an international test. Studies in Educational Evaluation, 33(1), 69–86.  https://doi.org/10.1016/j.stueduc.2007.01.006.CrossRefGoogle Scholar
  14. Grotjahn, R. (2000). Determinanten der Schwierigkeit von Leseverstehensaufgaben: Theoretische Grundlagen und Konsequenzen für die Entwicklung des TESTDAF. In S. Bolton (Hrsg.), TESTDAF: Grundlagen für die Entwicklung eines neuen Sprachtests. Beiträge aus einem Expertenseminar (S. 7–55). Köln: VUB Gilde.Google Scholar
  15. Guthrie, J. T., & Wigfield, A. (2005). Roles of motivation and engagement in reading comprehension assessment. In S. G. Paris & S. A. Stahl (Hrsg.), Children’s reading comprehension and assessment (S. 187–214). Mahwah, NJ: Erlbaum.Google Scholar
  16. Haberkorn, K., Pohl, S., Hardt, K., & Wiegand, E. (2012). NEPS technical report for reading—Scaling results of starting cohort 4 in ninth Grade. NEPS Working Paper No., Bd. 16. Bamberg: Otto-Friedrich-Universität, Nationales Bildungspanel.Google Scholar
  17. Haladyna, T. M., & Rodriguez, M. C. (2013). Developing and validating test items. New York: Routledge.CrossRefGoogle Scholar
  18. Henschel, S. (2013). Effekte motivationaler und affektiver Merkmale auf das Verstehen von literarischen und faktualen Texten. Berlin: Freien Universität Berlin. DissertationGoogle Scholar
  19. Hornberg, S., Bos, W., Buddeberg, I., Potthoff, B., & Stubbe, T. C. (2007). Anlage und Durchführung von IGLU 2006. In W. Bos, S. Hornberg, K.-H. Arnold, G. Faust, L. Fried, E.-M. Lankes, K. Schwippert & R. Valtin (Hrsg.), IGLU 2006. Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich (S. 21–46). Münster: Waxmann.Google Scholar
  20. Hußmann, A., Stubbe, T. C., & Kasper, D. (2017a). Soziale Herkunft und Lesekompetenzen von Schülerinnen und Schülern. In A. Hußmann, H. Wendt, W. Bos, A. Bremerich-Vos, D. Kasper, E.-M. Lankes, N. McElvany, T. C. Stubbe & R. Valtin (Hrsg.), IGLU 2016: Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich (S. 195–218). Münster: Waxmann.Google Scholar
  21. Hußmann, A., Wendt, H., Bos, W., Bremerich-Vos, A., Kasper, D., Lankes, E., McElvany, N., Stubbe, T., & Valtin, R. (Hrsg.). (2017b). IGLU 2016. Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster: Waxmann.Google Scholar
  22. Kolenikov, S. (2010). Resampling variance estimation for complex survey data. Stata Journal, 10(2), 165–199.CrossRefGoogle Scholar
  23. Kuhn, J. T., & Kiefer, T. (2013). Optimal test assembly in practice: The design of the Austrian Educational Standards Assessment in mathematics. Zeitschrift für Psychologie, 221(3), 190–200.CrossRefGoogle Scholar
  24. Lafontaine, D., & Monseur, C. (2009). Gender gap in comparative studies of reading comprehension: to what extent do the test characteristics make a difference? European Educational Research Journal, 8(1), 69–79.  https://doi.org/10.2304/eerj.2009.8.1.69.CrossRefGoogle Scholar
  25. Martin, M. O., Mullis, I. V., & Kennedy, A. M. (2007). Progress in International Reading Literacy Study (PIRLS): PIRLS 2006 Technical Report. Chestnut Hill: TIMSS & PIRLS International Study Center. Boston College.Google Scholar
  26. McElvany, N., & Schwabe, F. (2013). Fairness von Lesetestaufgaben für Kinder aus Familien mit unterschiedlichem sozioökonomischem Status bei Large-Scale-Studien. In N. McElvany & H. G. Holtappels (Hrsg.), Empirische Bildungsforschung – Theorien, Methoden, Befunde und Perspektiven. Festschrift für Wilfried Bos (S. 219–234). Münster: Waxmann.Google Scholar
  27. McElvany, N., Becker, M., & Lüdtke, O. (2009). Die Bedeutung familiärer Merkmale für Lesekompetenz, Wortschatz, Lesemotivation und Leseverhalten. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie, 41(3), 121–131.CrossRefGoogle Scholar
  28. McElvany, N., Kessels, U., Schwabe, F., & Kasper, D. (2017). Geschlecht und Lesekompetenz. In A. Hußmann, H. Wendt, W. Bos, A. Bremerich-Vos, D. Kasper, E.-M. Lankes, N. McElvany, T. C. Stubbe & R. Valtin (Hrsg.), IGLU 2016. Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster: Waxmann.Google Scholar
  29. McElvany, N., Schroeder, S., Richter, T., Hachfeld, A., Baumert, J., Schnotz, W., Holger, H., & Ullrich, M. (2010). Texte mit instruktionalen Bildern als Unterrichtsmaterial – Kompetenzen der Lehrkräfte. Unterrichtswissenschaft. Zeitschrift für Lernforschung, 38(2), 98–116.Google Scholar
  30. McNamara, D. S., Ozuru, Y., & Floyd, R. G. (2011). Comprehension challenges in the fourth grade: The roles of text cohesion, text genre, and readers’ prior knowledge. International Electronic Journal of Elementary Education, 4(1), 229–243.Google Scholar
  31. Mislevy, R. J., Beaton, A. E., Kaplan, B., & Sheehan, K. M. (1992). Estimating population characteristics from sparse matrix samples of item responses. Journal of Educational Measurement, 29(2), 133–161.CrossRefGoogle Scholar
  32. Mullis, I. V., Kennedy, A. M., Martin, M. O., & Sainsbury, M. (2006). Assessment Framework and Specifications. PIRLS 2006. Chestnut Hill: TIMSS & PIRLS International Study Center. Boston College.Google Scholar
  33. Niklas, F. (2015). Die familiäre Lernumwelt und ihre Bedeutung für die kindliche Kompetenzentwicklung. Psychologie in Erziehung und Unterricht, 62, 106–120.  https://doi.org/10.2378/peu2015.art11d.CrossRefGoogle Scholar
  34. Pohl, S., Haberkorn, K., Hardt, K., & Wiegand, E. (2012). Technical report of reading-scaling results of starting cohort 3 in fifth grade. NEPS Working Paper, Bd. 15. Bamberg: Otto-Friedrich-Universität, Nationales Bildungspanel.Google Scholar
  35. R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statistical Computing Wien, Österreich. https://www.R-project.org/ Google Scholar
  36. Rauch, D., & Hartig, J. (2010). Multiple-choice versus open-ended response formats of reading test items: a two-dimensional IRT analysis. Psychological Test and Assessment Modeling, 52(4), 354–379.Google Scholar
  37. Ray, M. N., & Meyer, B. J. (2011). Individual differences in children’s knowledge of expository text structures: a review of literature. International Electronic Journal of Elementary Education, 4(1), 67–86.Google Scholar
  38. Robitzsch, A., Grund, S., & Henke, T. (2018a). miceadds: Some additional multiple imputation functions, especially for mice. R package version 2.10–14. https://CRAN.R-project.org/package=miceadds Google Scholar
  39. Robitzsch, A., Kiefer, T., & Wu, M. (2018b). TAM: Test analysis modules. R package version 2.10–24. https://CRAN.R-project.org/package=TAM Google Scholar
  40. Rodriguez, M. C. (2003). Construct equivalence of multiple-choice and constructed-response items: a random effects synthesis of correlations. Journal of Educational Measurement, 40(2), 163–184.CrossRefGoogle Scholar
  41. Rosebrock, C. (2007). Anforderungen von Sach- und Informationstexten, Anforderungen literarischer Texte. In A. Bertschi-Kaufmann & C. Rosebrock (Hrsg.), Lesekompetenz – Leseleistung – Leseförderung. Grundlagen, Modelle und Materialien (S. 50–65). Seelze: Kallmeyer.Google Scholar
  42. Routitsky, A., & Turner, R. (2003). Item format types and their influences on cross-national comparisons of student performance. Annual meeting of the American Educational Research Association, Chicago.Google Scholar
  43. Rubin, D. B. (2004). Multiple imputation for nonresponse in surveys. Bd. 81. New Jersey: John Wiley & Sons.Google Scholar
  44. Rupp, A. A., Ferne, T., & Choi, H. (2006). How assessing reading comprehension with multiple-choice questions shapes the construct: a cognitive processing perspective. Language Testing, 23(4), 441–474.CrossRefGoogle Scholar
  45. Schroeder, S., & Tiffin-Richards, S. P. (2014). Kognitive Verarbeitung von Leseverständnisitems mit und ohne Text. Zeitschrift für Pädagogische Psychologie, 28(1), 21–30.CrossRefGoogle Scholar
  46. Schwabe, F., McElvany, N., Trendtel, M., Gebauer, M. M., & Bos, W. (2014). Vertiefende Analysen zu migrationsbedingten Leistungsdifferenzen in Leseaufgaben – Differentielles Itemfunktionieren für Kinder mit und ohne Migrationshintergrund auf Basis der Internationalen Grundschul-Lese-Untersuchung (IGLU). Zeitschrift für Pädagogische Psychologie, 28(3), 93–104.CrossRefGoogle Scholar
  47. Schwabe, F., McElvany, N., & Trendtel, M. (2015). The school age gender gap in reading achievement: examining the influences of item format and intrinsic reading motivation. Reading Research Quarterly, 50, 219–232.CrossRefGoogle Scholar
  48. Simkin, M. G., & Kuechler, W. L. (2005). Multiple-choice tests and student understanding: What is the connection? Decision Sciences Journal of Innovative Education, 3(1), 73–98.  https://doi.org/10.1111/j.1540-4609.2005.00053.x.CrossRefGoogle Scholar
  49. Solheim, O. J. (2011). Impact of reading self-efficacy and task value on reading comprehension scores in different item formats. Reading Psychology, 32, 1–27.  https://doi.org/10.1080/02702710903256601.CrossRefGoogle Scholar
  50. Wainer, H., & Thissen, D. (1993). Combining multiple-choice and constructed-response test scores: Toward a Marxist theory of test construction. Applied Measurement in Education, 6(2), 103–118.  https://doi.org/10.1207/s15324818ame0602_1.CrossRefGoogle Scholar
  51. Walzebug, A. (2014). Is there a language-based social disadvantage in solving mathematical items? Learning, Culture and Social Interaction, 3(2), 159–169.  https://doi.org/10.1016/j.lcsi.2014.03.002.CrossRefGoogle Scholar
  52. Weinberger, J. (1996). Literacy goes to school: The parents’ role in young children’s literacy learning. London: Chapman.CrossRefGoogle Scholar
  53. Wößmann, L. (2004). How equal are educational opportunities? Family background and student achievement in Europe and the United States. CESifo Working Paper, Bd. 1162. München: CESifo.Google Scholar
  54. Zeidner, M. (1987). Essay versus multiple-choice type classroom exams: the student’s perspective. The Journal of Educational Research, 80(6), 352–358.CrossRefGoogle Scholar

Copyright information

© Die Herausgeberin und die Autoren der Zeitschrift 2019

Authors and Affiliations

  1. 1.Institut für SchulentwicklungsforschungTechnische Universität DortmundDortmundDeutschland

Personalised recommendations