Advertisement

Zeitschrift für Erziehungswissenschaft

, Volume 20, Issue 4, pp 728–747 | Cite as

Formative Leistungsdiagnostik und Learning Analytics: Entwicklung, Nutzung und Optimierung eines onlinebasierten Kurses für die Diagnostik und Förderung von Grundwissen im Kompetenzbereich Sprachbetrachtung

Allgemeiner Teil
  • 476 Downloads

Zusammenfassung

Learning analytics ist ein neues, im deutschsprachigen Raum kaum rezipiertes Forschungsfeld, in dem automatisch gespeicherte Daten einer Lernplattform analysiert werden, um das Lernangebot zu optimieren sowie Rückmeldungen für Lehrende und Lernende zu generieren. Bisher liegen hierzu lediglich Untersuchungen aus dem universitären Bereich vor. Ebenso gibt es nur wenige Studien, in denen eine theoriebasierte Klassifikation der Daten erfolgte. Ziel dieser Studie ist die Entwicklung und Anwendung eines Klassifikationssystems für Log-Daten und Kursbewertungen aus einem Moodle-Kurs für die formative Diagnostik von grammatikalischem Grundwissen (fünf Klassen, Sekundarstufe I, 129 Schülerinnen und Schüler). Mit der Analyse der kodierten Log-Daten und deren Häufigkeiten konnte ein differenziertes Bild der Kursnutzung gezeichnet werden. Ebenso ergaben sich vielfältige Hinweise für die Optimierung des Lernangebots. Allerdings erklärt nur ein Teil der Interaktionskategorien die im Kurs erfassten Lernzuwächse. Abschließend werden Implikationen für die Weiterentwicklung von learning analytics-Methoden für die Erforschung computergestützter, formativer Diagnostik diskutiert.

Schlüsselwörter

Computerunterstützter Unterricht Deutschunterricht Leistungsdiagnostik Formative Evaluation 

Formative assessment and learning analytics: development usage and optimization of an online course for the diagnostics and promotion of basic knowledge in the area of language

Abstract

Learning analytics is a young field of educational research and aims to analyze data from learning management systems in order to improve digital learning scenarios or to generate feedback to learners and instructors. To date, studies in this field of research are limited to higher education and there are only few examples of theory-based classifications of learner-computer interactions. This paper describes the development and application of a theory-based classification of log-files and course statistics for a computer-assisted formative assessment of basic German language knowledge (five secondary classrooms, lower secondary level, 129 students). The analysis of interaction frequencies yields several possibilities for improving the course design. Only some interaction categories explain learning progressions within the formative assessment course. Finally, implications for developing learning analytics methods for the analysis and improvement of computer-assisted formative assessment are discussed.

Keywords

Blended-learning Computer-assisted testing Curriculum-based assessment Formative assessment Individualized instruction 

Literatur

  1. Agudo-Peregrina, A. F., Iglesias-Pradas, S., Conde-González, M. A., & Hernández-García, A. (2014). Can we predict success from log data in VLEs? Classification of interactions for learning analytics and their relation with performance in VLE-supported F2F and online learning. Computers in Human Behavior, 31, 542–550.CrossRefGoogle Scholar
  2. Bloom, B. S. (1974). An introduction to mastery learning theory. In J. H. Block (Hrsg.), Schools, society and mastery learning. New York: Holt, Rinehart & Winston.Google Scholar
  3. Bredel, U. (2007). Sprachbetrachtung und Grammatikunterricht. Paderborn: Schöningh UTB.Google Scholar
  4. Clow, D. (2013). An overview of learning analytics. Teaching in Higher Education, 18(6), 683–695.CrossRefGoogle Scholar
  5. Eichler, W., & Nold, G. (2007). Sprachbewusstheit. In B. Beck & E. Klieme (Hrsg.), Sprachliche Kompetenzen - Konzepte und Messung. DESI-Studie (S. 63–82). Weinheim: Beltz.Google Scholar
  6. Fuchs, L. S. (2004). The past, present, and future of curriculum-based measurement research. School Psychology Review, 33(2), 188–192.Google Scholar
  7. Gollwitzer, M., Eid, M., & Schmitt, M. (2015). Statistik und Forschungsmethoden (4. Aufl.). Weinheim: Beltz.Google Scholar
  8. Guskey, T. R. (2015). Mastery learning. In J. D. Wright (Hrsg.), International encyclopedia of the social & behavioral sciences (2. Aufl., S. 52–759). Oxford: Elsevier.Google Scholar
  9. Iglesias-Pradas, S., Ruiz-de-Azcarate, C., & Agudo-Peregrina, A. F. (2015). Assessing the suitability of student interactions from Moodle data logs as predictors of cross-curricular competencies. Computers in Human Behavior, 47, 81–89.CrossRefGoogle Scholar
  10. Kulik, C. C., Kulik, J. A., & Bangert-Drowns, R. L. (1990). Effectiveness of mastery learning programs: a meta-analysis. Review of Educational Research, 60(2), 265–299.CrossRefGoogle Scholar
  11. Macfadyen, L. P., & Dawson, S. (2010). Mining LMS data to develop an “early warning system” for educators: A proof of concept. Computers & Education, 54(2), 588–599.CrossRefGoogle Scholar
  12. Maier, U. (2014). Formative Leistungsdiagnostik in der Sekundarstufe – Grundlegende Fragen, domänenspezifische Verfahren und empirische Befunde. In M. Hasselhorn, W. Schneider, & U. Trautwein (Hrsg.), Lernverlaufsdiagnostik Test und Trends, (Bd. 12, S. 19–40). Göttingen: Hogrefe.Google Scholar
  13. Nunnery, J. A., Ross, S. M., & McDonald, A. (2006). A randomized experimental evaluation of the impact of accelerated reader/reading renaissance implementation on reading achievement in grades 3 to 6. Journal of Education for Students Placed At Risk, 11(1), 1–18.CrossRefGoogle Scholar
  14. Ossner, J. (2006). Sprachdidaktik Deutsch. Paderborn: Schöningh UTB.Google Scholar
  15. Ruipérez-Valiente, J. A., Munoz-Merino, P. J., Leony, D., & Delgado Kloos, C. (2015). ALAS-KA: A learning analytics extension for better understanding the learning process in the Khan Academy platform. Computers in Human Behavior, 47, 139–148.CrossRefGoogle Scholar
  16. Souvignier, E., Förster, N., & Salaschek, M. (2014). quop: ein Ansatz internet-basierter Lernverlaufsdiagnostik und Testkonzepte für Mathematik und Lesen. In M. Hasselhorn, W. Schneider, & U. Trautwein (Hrsg.), Lernverlaufsdiagnostik Test und Trends, (Bd. 12, S. 239–256). Göttingen: Hogrefe.Google Scholar
  17. Stecker, P. M., Fuchs, L. S., & Fuchs, D. (2005). Using curriculum-based measurement to improve student achievement: review of research. Psychology in the Schools, 42(8), 795–819.CrossRefGoogle Scholar
  18. Strathmann, A. M., & Klauer, K. J. (2010). Lernverlaufsdiagnostik: Ein Ansatz zur längerfristigen Lernfortschrittsmessung. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie, 42, 111–122.CrossRefGoogle Scholar
  19. Tempelaar, D. T., Rienties, B., & Giesbers, B. (2015). In search for the most informative data for feedback generation: Learning analytics in a data-rich context. Computers in Human Behavior, 47, 157–167.CrossRefGoogle Scholar
  20. Topping, K. J., & Fisher, A. M. (2003). Computerised formative assessment of reading comprehension: field trials in the UK. Journal of Research in Reading, 26(3), 267–279.CrossRefGoogle Scholar
  21. Walter, J. (2011). Die Entwicklung eines auch computerbasiert einsetzbaren Instruments zur formativen Messung der Lesekompetenz. Heilpädagogische Forschung, 2011(3), 106–126.Google Scholar
  22. Walter, J. (2013). VSL: Verlaufsdiagnostik sinnerfassenden Lesens. Göttingen: Hogrefe.Google Scholar
  23. Xing, W., Guo, R., Petakovic, E., & Goggins, S. (2015). Participation-based student final performance prediction model through interpretable Genetic Programming: Integrating learning analytics, educational data mining and theory. Computers in Human Behavior, 47, 168–181.CrossRefGoogle Scholar
  24. Yeh, S. S. (2010). The cost effectiveness of 22 approaches for raising student achievement. Journal of Education Finance, 36(1), 38–75.CrossRefGoogle Scholar
  25. You, J. W. (2016). Identifying significant indicators using LMS data to predict course achievement in online learning. Internet and Higher Education, 29, 23–30.CrossRefGoogle Scholar
  26. Zimmerman, B. J., & Dibenedetto, M. K. (2008). Mastery learning and assessment: implications for students and teachers in an era of high-stakes testing. Psychology in the Schools, 45(3), 206–216.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH 2017

Authors and Affiliations

  1. 1.Institut für ErziehungswissenschaftPädagogische Hochschule Schwäbisch GmündSchwäbisch GmündDeutschland

Personalised recommendations