Advertisement

Kompetenzdiagnostik an der Hochschule

Methoden, Herausforderungen und aktuelle Entwicklungen
  • Felix Wolter
  • Jürgen Schiener
Chapter

Zusammenfassung

Der Beitrag gibt einen Überblick über die Möglichkeiten von Kompetenzmessungen – verstanden als standardisierte Erhebung des fachlichen und methodischen Könnens von Studierenden – für eine Evaluation von Studium und Lehre. Ausgehend von der Überlegung, die im schulischen Bereich bereits etablierten Methoden der Kompetenzdiagnostik auch im Hochschulbereich anzuwenden und so Probleme der bisherigen Evaluationspraxis zu überwinden, skizzieren wir zunächst den methodischen „State of the Art“ der modernen Kompetenzdiagnostik. Sodann gehen wir auf Besonderheiten und Herausforderungen einer Übertragung auf den Hochschulbereich ein. Anschließend resümieren wir aktuelle Forschungsbemühungen und präsentieren Ergebnisse zweier Pilotstudien, die sich der Definition und Messung von Kompetenzen im Fach Soziologie gewidmet haben. Insgesamt zeigt sich ein Konsens in der Fachcommunity, dass es einen generellen Bedarf für Kompetenzmessungen gibt, diese aber trotz einer grundsätzlichen Durchführbarkeit bisher unzureichend verfolgt und umgesetzt wurden. Herausforderungen sind dabei etwa die Forderung nach standardisierten Kompetenzmodellen und Messinstrumenten für eine gleichzeitig eher gering standardisierte universitäre Lehre. Zudem ist der Einsatz von Kompetenzmessungen für evaluatorische Zwecke, im Sinne der Isolierung von Kausaleffekten der Hochschulen, Curricula, Lehrmethoden usw., zwar erstrebenswert, aber methodisch höchst anspruchsvoll. Dennoch zeigen die Pilotstudien zur Messung soziologischer Kompetenzen indes, dass den Problemen durchaus mit Pragmatismus begegnet werden kann und erste empirische Umsetzungen gehaltvolle Ergebnisse liefern.

Literatur

  1. Aschinger, Florian, Heiko Epstein, Sophie Müller, Hildegard Schaeper, Andreas Vöttinger, und Thomas Weiß. 2011. Higher education and the transition to work. In Education as a lifelong process. The German National Educational Panel Study (NEPS), Sonderhefte der Zeitschrift für Erziehungswissenschaft, Bd. 14, Hrsg. Hans-Peter Blossfeld, Hans-Günther Roßbach und Jutta von Maurice, 267–282. Wiesbaden: VS Verlag.Google Scholar
  2. Baumert, Jürgen, Wilfried Bos, und Rainer Watermann. 1998. TIMSS/III. Schülerleistungen in Mathematik und den Naturwissenschaften am Ende der Sekundarstufe II im internationalen Vergleich. Zusammenfassung deskriptiver Ergebnisse. Berlin: Max-Planck-Institut für Bildungsforschung.Google Scholar
  3. Baumert, Jürgen, Eckhard Klieme, Michael Neubrand, Manfred Prenzel, Ulrich Schiefele, Wolfgang Schneider, Petra Stanat, Klaus-Jürgen Tillmann, Manfred Weiß (Deutsches PISA-Konsortium), Hrsg. 2001. PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske + Budrich.Google Scholar
  4. Birnbaum, Allan. 1968. Some latent trait models. In Statistical theories of mental test scores, Hrsg. Frederic M. Lord und Melvin R. Novick, 395–479. Reading: Addison-Wesley.Google Scholar
  5. Blömeke, Sigrid. 2013a. Ja, aber… – Lehren aus TEDS-M und KoKoHs für eine Teilnahme an AHELO. In AHELO goes Germany? Dokumentation des GfHf- & HIS-HF-Workshops, Hrsg. Edith Braun, André Donk und Margret Bülow-Schramm, 13–20. Hannover: HIS (Forum Hochschule, 2/2013).Google Scholar
  6. Blömeke, Sigrid. 2013b. The challenges of measurement in higher education. IEA’s Teacher Education and Development Study in Mathematics (TEDS-M). In Modeling and measuring competencies in higher education: Tasks and challenges, Hrsg. Sigrid Blömeke et al., 93–112. Rotterdam: Sense Publishers.Google Scholar
  7. Blömeke, Sigrid, Gabriele Kaiser, und Rainer Lehmann, Hrsg. 2010a. Professionelle Kompetenz und Lerngelegenheiten angehender Mathematiklehrkräfte für die Sekundarstufe I im internationalen Vergleich. Münster: Waxmann.Google Scholar
  8. Blömeke, Sigrid, Gabriele Kaiser, und Rainer Lehmann, Hrsg. 2010b. TEDS-M 2008. Professionalle Kompetenz und Lerngelegenheiten angehender Primarstufenlehrkräfte im internationalen Vergleich. Münster: Waxmann.Google Scholar
  9. Blömeke, Sigrid, Gabriele Kaiser, und Rainer Lehmann, Hrsg. 2010c. TEDS-M 2008. Professionelle Kompetenz und Lerngelegenheiten angehender Mathematiklehrkräfte für die Sekundarstufe I im internationalen Vergleich. Münster: Waxmann.Google Scholar
  10. Blömeke, Sigrid, Albert Bremerich-Vos, Helga Haudeck, Gabriele Kaiser, Günter Nold, Knut Schwippert, und Heiner Willenberg, Hrsg. 2011. Kompetenzen von Lehramtsstudierenden in gering strukturierten Domänen. Erste Ergebnisse aus TEDS-LT. Münster: Waxmann.Google Scholar
  11. Blömeke, Sigrid, Albert Bremerich-Vos, Gabriele Kaiser, Günter Nold, Helga Haudeck, Jörg-U. Keßler, und Knut Schwippert, Hrsg. 2013a. Professionelle Kompetenzen im Studienverlauf. Weitere Ergebnisse zur Deutsch-, Englisch- und Mathematiklehrerausbildung aus TEDS-LT. Münster: Waxmann.Google Scholar
  12. Blömeke, Sigrid, Olga Zlatkin-Troitschanskaia, Christiane Kuhn, und Judith Fege. 2013b. Modeling and measuring competencies in higher eduation: Tasks and challenges. In Modeling and measuring competencies in higher education: Tasks and challenges, Hrsg. Sigrid Blömeke et al., 1–10. Rotterdam: Sense Publishers.Google Scholar
  13. Blömeke, Sigrid, Johannes König, Andreas Busse, Ute Suhl, Jessica Benthien, Martina Döhrmann, und Gabriele Kaiser. 2014. Von der Lehrerausbildung in den Beruf – Fachbezogenes Wissen als Voraussetzung für Wahrnehmung, Interpretation und Handeln im Unterricht. Zeitschrift für Erziehungswissenschaft 17(3): 509–542.CrossRefGoogle Scholar
  14. Bloom, Benjamin S., Hrsg. 1956. Taxonomy of educational objectives, handbook I: The cognitive domain. New York: David McKay.Google Scholar
  15. Böhme, Katrin, Dirk Richter, Petra Stanat, Hans Anand Pant, und Olaf Köller. 2012. Die länderübergreifenden Bildungsstandards in Deutschland. In Kompetenzen von Schülerinnen und Schülern am Ende der vierten Jahrgangsstufe in den Fächern Deutsch und Mathematik. Ergebnisse des IQB-Ländervergleichs 2011, Hrsg. Petra Stanat et al., 11–18. Münster u.a.: Waxmann.Google Scholar
  16. Bos, Wilfried, Sabine Hornberg, Karl-Heinz Arnold, Gabriele Faust, Lilian Fried, Eva-Maria Lankes, Knut Schwippert, und Renate Valtin, Hrsg. 2007. IGLU 2006. Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster: Waxmann.Google Scholar
  17. Braun, Edith, Burkhard Gusy, Bernhard Leidner, und Bettina Hannover. 2008. Das Berliner Evaluationsinstrument für selbsteingeschätzte, studentische Kompetenzen (BEvaKomp). Diagnostica 54(1): 30–42.CrossRefGoogle Scholar
  18. Braun, Edith, André Donk, und Margret Bülow-Schramm, Hrsg. 2013. AHELO Goes Germany? Dokumentation des GfHf- & HIS-HF-Workshops, HIS: Forum Hochschule 2/2013. Hannover: HIS Hochschul-Informations-System GmbH.Google Scholar
  19. Bülow-Schramm, Margret, und Edith Braun. 2013. Einleitung. In AHELO Goes Germany? Dokumentation des GfHf- & HIS-HF-Workshops, HIS: Forum Hochschule 2/2013, Hrsg. Edith Braun, André Donk und Margret Bülow-Schramm, 1–4. Hannover: HIS Hochschul-Informations-System GmbH.Google Scholar
  20. Burnham, Kenneth P., und David A. Anderson. 2004. Multimodel inference. Understanding AIC and BIC in model selection. Sociological Methods and Research 33(2): 261–304.CrossRefGoogle Scholar
  21. Clayson, Dennis E. 2009. Student evaluations of teaching: Are they related to what students learn? A meta-analysis and review of the literature. Journal of Marketing Education 31(1): 16–30.CrossRefGoogle Scholar
  22. Coleman, James S. 1966. Equality of educational opportunity. Washington, DC: U.S. Department of Health, Education, and Welfare; Office of Education.Google Scholar
  23. de Ayala, Rafael J. 2009. The theory and practice of item response theory. New York: Guilford Press.Google Scholar
  24. Förster, Manuel, und Olga Zlatkin-Troitschanskaia. 2010. Wirtschaftliche Fachkompetenz bei Studierenden mit und ohne Lehramtsperspektive in den Diplom- und Bachelorstudiengängen – Messverfahren und erste Befunde. In Lehrerprofessionalität – Was wir wissen und was wir wissen müssen (Lehrerbildung auf dem Prüfstand, Sonderheft), Hrsg. Klaus Beck und Olga Zlatkin-Troitschanskaia, 106–125. Landau: Verlag Empirische Pädagogik.Google Scholar
  25. Förster, Manuel, Roland Happ, und Olga Zlatkin-Troitschanskaia. 2012. Valide Erfassung des volkswirtschaftlichen Fachwissens von Studierenden der Wirtschaftswissenschaften und der Wirtschaftspädagogik – eine Untersuchung der diagnostischen Eignung des Wirtschaftskundlichen Bildungstests (WBT). bwp@, Berufs- und Wirtschaftspädagogik – online 22: 1–21.Google Scholar
  26. Frey, Andreas. 2012. Adaptives Testen. In Testtheorie und Fragebogenkonstruktion, Hrsg. Helfried Moosbrugger und Augustin Kelava, 2. Aufl., 275–293. Berlin/Heidelberg: Springer.CrossRefGoogle Scholar
  27. Hans, Barbara. 2007. Gnädige Professoren: Prüfungsverbot wegen Einsen für alle. WWW-Dokument. SPIEGEL ONLINE. http://www.spiegel.de/unispiegel/studium/gnaedige-professoren-pruefungsverbot-wegen-einsen-fuer-alle-a-478364.html. Zugegriffen am 18.01.2016.
  28. Hartig, Johannes, und Andreas Frey. 2013. Sind Modelle der Item-Response-Theorie (IRT) das „Mittel der Wahl“ für die Modellierung von Kompetenzen? In Kompetenzmodelle zur Erfassung individueller Lernergebnisse und zur Bilanzierung von Bildungsprozessen. Aktuelle Diskurse im DFG-Schwerpunktprogramm (Sonderheft 18 der Zeitschrift für Erziehungswissenschaft), Hrsg. Detlef Leutner et al., 47–51. Wiesbaden: Springer VS.Google Scholar
  29. Hartig, Johannes, und Eckhard Klieme. 2006. Kompetenz und Kompetenzdiagnostik. In Leistung und Leistungsdiagnostik, Hrsg. Karl Schweizer, 127–143. Heidelberg: Springer.CrossRefGoogle Scholar
  30. Hox, Joop J. 2010. Multilevel analysis. Techniques and applications, 2 Aufl., New York: Routledge.Google Scholar
  31. Jerusalem, Matthias, und Ralf Schwarzer. 2012. Dimensionen der Selbstwirksamkeit. In Zusammenstellung sozialwissenschaftlicher Items und Skalen, Hrsg. Angelika Glöckner-Rist. Bonn: GESIS. ZIS Version 15.00.Google Scholar
  32. Kim, Hohoon, und Diane Lalancette. 2013. Literature review on the value-added measurement in higher education. PDF-Dokument. OECD. http://www.oecd.org/edu/skills-beyond-school/Litterature%20Review%20VAM.pdf. Zugegriffen am 17.01.2016.
  33. Klieme, Eckhard, und Detlev Leutner. 2006. Kompetenzmodelle zur Erfassung individueller Lernergebnisse und zur Bilanzierung von Bildungsprozessen. Beschreibung eines neu eingerichteten Schwerpunktprogramms der DFG. Zeitschrift für Pädagogik 52(6): 876–903.Google Scholar
  34. Klieme, Eckhard, und Johannes Hartig. 2008. Kompetenzkonzepte in den Sozialwissenschaften und im erziehungswissenschaftlichen Diskurs. In Kompetenzdiagnostik. Zeitschrift für Erziehungswissenschaft, Sonderheft: 8/2007, Hrsg. Manfred Prenzel, Ingrid Gogolin und Heinz-Hermann Krüger, 11–29. Wiesbaden: VS Verlag.Google Scholar
  35. Krathwohl, David R. 2002. A revision of Bloom’s taxonomy: An overview. Theory into Practice 41(4): 212–218.CrossRefGoogle Scholar
  36. Kubinger, Klaus D., und Clemens Draxler. 2007. Probleme bei der Testkonstruktion nach dem Rasch-Modell. Diagnostica 53(3): 131–143.CrossRefGoogle Scholar
  37. Kuhn, Christiane, und Olga Zlatkin-Troitschanskaia. 2011. Assessment of competencies among university students and graduates – Analyzing the state of research and perspectives, Arbeitspapiere Wirtschaftspädagogik 59. Johannes Gutenberg-Universität Mainz.Google Scholar
  38. Masters, Geoff N. 1982. A Rasch model for partial credit scoring. Psychometrika 47(2): 149–174.CrossRefGoogle Scholar
  39. Meyerhöfer, Wolfram. 2013. Sind die Elemente der Stellenwerttafel Ziffern oder Das IQB als Herrscherin über die Stellenwerttafel. PDF-Dokument. Technische Universität Dortmund. http://www.mathematik.uni-dortmund.de/ieem/bzmu2013/Einzelvortraege/BzMU13-Meyerhoefer.pdf. Zugegriffen am 17.01.2016.
  40. Moosbrugger, Helfried. 2012. Item-Response-Theorie (IRT). In Testtheorie und Fragebogenkonstruktion, Hrsg. Helfried Moosbrugger und Augustin Kelava, 2. Aufl., 227–274. Berlin/Heidelberg: Springer.CrossRefGoogle Scholar
  41. Müller-Benedict, Volker, und Elena Tsarouha. 2011. Können Examensnoten verglichen werden? Eine Analyse von Einflüssen des sozialen Kontextes auf Hochschulprüfungen. Zeitschrift für Soziologie 40(5): 388–409.CrossRefGoogle Scholar
  42. Muraki, Eiji. 1992. A generalized partial credit model: Application of an EM algorithm. Applied Psychological Measurement 16(2): 159–176.CrossRefGoogle Scholar
  43. Organisation for Economic Cooperation and Development (OECD), Hrsg. 2013a. Assessment of Higher Education Learning Outcomes (AHELO). Feasibility Study Report Volume 2 – Data analysis and national experiences, OECD.Google Scholar
  44. Organisation for Economic Cooperation and Development (OECD), Hrsg. 2013b. Assessment of Higher Education Learning Outcomes (AHELO). Feasibility Study Report Volume 3 – Further insights, OECD.Google Scholar
  45. Organisation for Economic Cooperation and Development (OECD), Hrsg. 2014. PISA 2012 results: What students know and can do – Student performance in mathematics, reading and science (Volume I, Revised edition, February 2014). PDF-Dokument. OECD Publishing. http://www.oecd.org/pisa/keyfindings/pisa-2012-results-volume-I.pdf. Zugegriffen am 17.01.2016.
  46. Pant, Hans Anand, Katrin Böhme, und Olaf Köller. 2012. Das Kompetenzkonzept der Bildungsstandards und die Entwicklung von Kompetenzstufenmodellen. In Kompetenzen von Schülerinnen und Schülern am Ende der vierten Jahrgangsstufe in den Fächern Deutsch und Mathematik. Ergebnisse des IQB-Ländervergleichs 2011, Hrsg. Petra Stanat et al., 49–55. Münster: Waxmann.Google Scholar
  47. Rammstedt, Beatrice, Hrsg. 2013. Grundlegende Kompetenzen Erwachsener im internationalen Vergleich: Ergebnisse von PIAAC 2012. Münster: Waxmann.Google Scholar
  48. Rasch, Georg. 1960. Probabilistic models for some intelligence and attainment tests. Kopenhagen: The Danish Institute for Educational Research.Google Scholar
  49. Richter, Dirk, Kristina Reiss, Petra Stanat, und Hans Anand Pant. 2012. Stellungnahme zur Pressemitteilung der Universität Paderborn zur Beispielaufgabe „Stellenwerttafel“ des IQB-Ländervergleichs 2011 in der Primarstufe. PDF-Dokument. Humboldt-Universität zu Berlin. https://www.iqb.hu-berlin.de/laendervergleich/laendervergleich/LV2011/Beispielaufgaben/121029_Stellungn.pdf. Zugegriffen am 17.01.2016.
  50. Riese, Josef, und Peter Reinhold. 2012. Die professionelle Kompetenz angehender Physiklehrkräfte in verschiedenen Ausbildungsformen. Empirische Hinweise für eine Verbesserung des Lehramtsstudiums. Zeitschrift für Erziehungswissenschaft 15(1): 111–143.CrossRefGoogle Scholar
  51. Rindermann, Heiner. 2003. Lehrevaluation an Hochschulen: Schlussfolgerungen aus Forschung und Anwendung für Hochschulunterricht und seine Evaluation. Zeitschrift für Evaluation 2(2): 233–256.Google Scholar
  52. Roppelt, Alexander, und Kristina Reiss. 2012. Beschreibung der im Fach Mathematik untersuchten Kompetenzen. In Kompetenzen von Schülerinnen und Schülern am Ende der vierten Jahrgangsstufe in den Fächern Deutsch und Mathematik. Ergebnisse des IQB-Ländervergleichs 2011, Hrsg. Petra Stanat et al., 34–48. Münster: Waxmann.Google Scholar
  53. Rost, Jürgen. 2004. Lehrbuch Testtheorie – Testkonstruktion, 2 Aufl. Bern: Hans Huber.Google Scholar
  54. Rubin, Donald B., Elizabeth A. Stuart, und Elaine L. Zanutto. 2004. A potential outcomes view of value-added assessment in education. Journal of Educational and Behavioral Statistics 29(1): 103–116.CrossRefGoogle Scholar
  55. Rutter, Michael, und Barbara Maughan. 2002. School effectiveness findings 1979–2002. Journal of School Psychology 40(6): 451–475.CrossRefGoogle Scholar
  56. Samejima, Fumiko. 1969. Estimation of latent ability using a response pattern of graded scores. Psychometrika Monograph Supplement 34. Richmond: Psychometric Society.Google Scholar
  57. Schaeper, Hildegard. 2013. The German National Educational Panel Study (NEPS). Assessing competencies over the life course and in higher education. In Modeling and measuring competencies in higher education: Tasks and challenges, Hrsg. Sigrid Bl­meke et al., 147–158. Rotterdam: Sense Publishers.Google Scholar
  58. Stanat, Petra, Hans Anand Pant, Katrin Böhme, und Dirk Richter, Hrsg. 2012. Kompetenzen von Schülerinnen und Schülern am Ende der vierten Jahrgangsstufe in den Fächer Deutsch und Mathematik. Ergebnisse des IQB-Ländervergleichs 2011. Münster: Waxmann.Google Scholar
  59. Stehle, Sebastian, Birgit Spinath, und Martina Kadmon. 2012. Measuring teaching effectiveness: Correspondence between students’ evaluations of teaching and different measures of student learning. Research in Higher Education 53(8): 888–904.CrossRefGoogle Scholar
  60. Strobl, Carolin. 2012. Das Rasch-Modell. Eine verständliche Einführung für Studium und Praxis, 2. Aufl., München/Mehring: Rainer Hampp Verlag.Google Scholar
  61. Strobl, Carolin, und Julia Kopf. 2010. Wissen Frauen weniger oder nur das Falsche? Ein statistisches Modell für unterschiedliche Aufgaben-Schwierigkeiten in Teilstichproben. In Allgemeinbildung in Deutschland. Erkenntnisse aus dem SPIEGEL-Studentenpisa-Test, Hrsg., Sabine Trepte und Markus Verbeet, 255–272. Wiesbaden: VS Verlag.Google Scholar
  62. Tatto, Maria Teresa, John Schwille, Sharon L. Senk, Lawrence Ingvarson, Glenn Rowley, Ray Peck, Kiril Bankov, Michael Rodriguez, und Mark Reckase. 2012. Policy, practice, and readiness to teach primary and secondary mathematics in 17 countries. Findings from the IEA Teacher Education and Development Study in Mathematics (TEDS-M). Amsterdam: International Association for the Evaluation of Educational Achievement (IEA).Google Scholar
  63. Tekwe, Carmen D., Randy L. Carter, Chang-Xing Ma, James Algina, Maurice E. Lucas, Jeffrey Roth, Mario Ariet, Thomas Fisher, und Michael B. Resnick. 2004. An empirical comparison of statistical models for value-added assessment of school performance. Journal of Educational and Behavioral Statistics 29(1): 11–36.CrossRefGoogle Scholar
  64. Timmermans, Anneke C., Tom A.B. Snijders, und Roel J. Bosker. 2013. In search of value added in the case of complex school effects. Educational and Psychological Measurement 73(2): 210–228.CrossRefGoogle Scholar
  65. Tremblay, Karine. 2013. OECD Asessment of Higher Education Learning Outcomes (AHELO): Rationale, challenges and initial insights from the feasability study. In Modeling and measuring competencies in higher education: Tasks and challenges, Hrsg. Sigrid Blömeke et al., 113–126. Rotterdam: Sense Publishers.CrossRefGoogle Scholar
  66. Tremblay, Karine, Diane Lalancette, und Deborah Roseveare. 2012. Assessment of Higher Education Learning Outcomes (AHELO). Feasibility Study Report Volume 1 – Design and Implementation. OECD.Google Scholar
  67. Trepte, Sabine, und Markus Verbeet, Hrsg. 2010. Allgemeinbildung in Deutschland. Erkenntnisse aus dem SPIEGEL-Studentenpisa-Test. Wiesbaden: VS Verlag.Google Scholar
  68. Uribe, Rafael V. 2013. Measurement of learning outcomes in higher education. The case of Ceneval in Mexico. In Modeling and measuring competencies in higher education: Tasks and challenges, Hrsg. Sigrid Bl­meke et al., 137–146. Rotterdam: Sense Publishers.Google Scholar
  69. Walstad, William B., und Ken Rebeck. 2008. The test of understanding of college economics. American Economic Review 98(2): 547–551.CrossRefGoogle Scholar
  70. Wissenschaftsrat. 2012. Prüfungsnoten an Hochschulen im Prüfungsjahr 2010. Arbeitsbericht mit einem Wissenschaftspolitischen Kommentar des Wissenschaftsrates. Hamburg: Wissenschaftsrat Geschäftsstelle.Google Scholar
  71. Wolbring, Tobias. 2013. Fallstricke der Lehrevaluation. Möglichkeiten und Grenzen der Messbarkeit von Lehrqualität. Campus: Frankfurt a. M./New York.Google Scholar
  72. Wolter, Felix, und Jürgen Schiener. 2014. Auf dem Weg zum „Hochschul-PISA“? Zur Messung „soziologischer Kompetenzen“. Soziale Welt 65(1): 47–73.CrossRefGoogle Scholar
  73. Wolter, Felix, Jürgen Schiener, und Ingmar Ehler. 2014. Competence assessment in higher education. A pilot study on the development of a scale for measuring competencies in empirical social research methods, Working Paper. Johannes Gutenberg-Universität Mainz.Google Scholar
  74. Zlatkin-Troitschanskaia, Olga, Sigrid Blömeke, Christiane Kuhn, und Christiane Buchholtz. 2012. Wirksamkeitsprüfungen im Hochschulbereich – Aufgaben und Herausforderungen des BMBF-Forschungsprogramms „Kompetenzmodellierung und Kompetenzerfassung im Hochschulsektor“. Zeitschrift für Evaluation 11(1): 95–103.Google Scholar
  75. Zumbo, Bruno D. 1999. A handbook on the theory and methods of Differential Item Functioning (DIF): Logistic regression modeling as a unitary framework for binary and likert-type (ordinal) item scores. Ottawa: Directorate of Human Resources Research and Evaluation, Department of National Defense.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Johannes Gutenberg-Universität MainzMainzDeutschland

Personalised recommendations