Skip to main content

Zusammenfassung

Dieses Kapitel gibt einen Überblick über die wichtigsten Modelle und Methoden der Item-Response-Theorie (IRT). Die IRT stellt Modelle zur psychometrischen Analyse und Skalierung von Test- und Fragebogenitems insbesondere mit nominalem und ordinalem Skalenniveau zur Verfügung. Als eines der einfachsten und bekanntesten IRTModelle wird zunächst das Rasch-Modell (1-parametriges logistisches Modell) für dichotome Items vorgestellt. Im Rasch-Modell wird angenommen, dass alle Items einer Skala oder eines Tests dieselbe latente Dimension (z. B. Fähigkeit, Einstellung, Persönlichkeitseigenschaft) mit unterschiedlichen Itemschwierigkeiten aber jeweils identischer Trennschärfe erfassen. Wichtige Eigenschaften sind die spezifische Objektivität der Messungen, wenn das Rasch-Modell für einen Itemsatz gilt sowie die Tatsache, dass der ungewichtete Summenscore der Items bei Gültigkeit des Rasch-Modells eine suffiziente Statistik für den Personenparameter darstellt. Mögliche Gründe für eine Fehlanpassung des Rasch-Modells in der Praxis werden diskutiert. Anschließend werden das Birnbaum-Modell (2-parametriges logistisches Modell), in welchem die Annahme gleicher Trennschärfen aller Items aufgehoben wird, und das Birnbaum- Modell mit Rateparameter (3-parametriges logistisches Modell), in welchem zusätzlich die Ratewahrscheinlichkeit berücksichtigt wird, besprochen. In den folgenden Abschnitten wird aufWeiterentwicklungen des Rasch-Modells eingegangen. Exemplarisch werden Rasch-Modelle für mehrstufig geordnet kategoriale (ordinale) Items sowie Mischverteilungsmodelle (Mixed-Rasch-Modell) behandelt. In einer empirischen Anwendung auf sechs dichotome Testitems zur Messung der Fähigkeit zur „mentalen Rotation“ (N = 519) zeigen wir, wie mit Hilfe des Computerprogramms WINMIRA die Modellparameter, Fitstatistiken für das Rasch-Modell und das Mixed-Rasch- Modell geschätzt werden können. In diesem Anwendungsbeispiel zeigt sich, dass das einfache Rasch-Modell aufgrund unterschiedlicher Lösungsstrategien in Subgruppen schlechter passt als ein 2-Klassen-Mixed-Rasch-Modell, in welchem sich die Itemparameter für zwei latente Klassen unterscheiden können. Eine zweite Anwendung (drei 7-stufige Items zur Erfassung von Offenheit aus dem SOEP; N = 2036) illustriert, wie Mischverteilungs-IRT-Modelle dazu genutzt werden können, a priori unbekannte Personengruppen zu identifizieren, die sich hinsichtlich der Nutzung der Ratingskala unterscheiden. Im vorliegenden Fall zeigt sich, dass nur ca. 65% der Befragten die vorgegebene 7-stufige Ratingskala in der intendierten Weise verwendet haben. Die restlichen 35% der Befragten verwendeten die Skala dagegen nur eingeschränkt mit einer Tendenz zu den Extremkategorien sowie zur Mittelkategorie der Skala. Abschließend wird auf praktische Aspekte und besondere Probleme bei der Durchführung von IRT-Analysen eingegangen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 139.00
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literaturverzeichnis

  • Birnbaum, A. (1968). Some Latent Trait Models and Their Use in Inferring an Examinee's Ability. In F. M. Lord & M. R. Novick (Hg.), Statistical Theories of Mental Test Scores(S. 395–479). Reading: Addison-Wesley.

    Google Scholar 

  • Eid, M. & Rauber, M. (2000). Detecting Measurement Invariance in Organizational Surveys. European Journal of Psychological Assessment, 16, 20–30.

    Article  Google Scholar 

  • Eid, M. & Zickar, M. (2007). Detecting Response Styles and Faking in Personality and Organizational Assessment by Mixed Rasch Models. In M. van Davier & C. Carstensen (Hg.), Multivariate and Mixture Distribution Rasch Models(S. 255–270). New York: Springer.

    Chapter  Google Scholar 

  • Embretson, S. & Reise, S. (2000). Item Response Theory for Psychologists. Mahwah: Erlbaum.

    Google Scholar 

  • Fischer, G. H. & Molenaar, I. W. (1995). Rasch Models: Foundations, Recent Developments, and Applications. New York: Springer.

    Google Scholar 

  • Geiser, C., Lehmann, W., & Eid, M. (2006). Separating “Rotators” from “Non-Rotators” in the Mental Rotations Test: A Multigroup Latent Class Analysis. Multivariate Behavioral Research, 41, 261–293.

    Article  Google Scholar 

  • Köller, O., Rost, J., & Köller, M. (1994). Individuelle Unterschiede beim Lösen von Raumvorstellungsaufgaben aus dem IST-bzw. IST-70-Untertest “Würfelaufgaben”. Zeitschrift für Psychologie, 202, 65–85.

    Google Scholar 

  • Langeheine, R., Pannekoek, J., & van de Pol, F. (1996). Bootstrapping Goodness-of-Fit Measures in Categorical Data Analysis. Sociological Methods and Research, 24, 492–516.

    Article  Google Scholar 

  • Lord, F. M. & Novick, M. R. (1968). Statistical Theories of Mental Test Scores. Reading: Addison-Wesley.

    Google Scholar 

  • Masters, G. N. (1982). A Rasch Model for Partical Credit Scoring. Psychometrika, 47, 149–174.

    Article  Google Scholar 

  • Müller, H. (1999). Probabilistische Testmodelle für diskrete und kontinuierliche Ratingskalen. Bern: Huber.

    Google Scholar 

  • Ponocny, I. (2001). Nonparametric Goodness-Of-Fit Tests for the Rasch Model. Psychometrika, 66, 437–460.

    Article  Google Scholar 

  • Rasch, G. (1960). Probabilistic Models for Some Intelligence and Attainment Tests. Kopenhagen: Nissen & Lydicke.

    Google Scholar 

  • Rost, J. (1990). Rasch Models in Latent Classes. An Integration of Two Approaches to Item Analysis. Applied Psychological Measurement, 14, 271–282.

    Google Scholar 

  • Rost, J. (2004). Lehrbuch Testtheorie – Testkonstruktion. Bern: Huber, 2. Auflage.

    Google Scholar 

  • Steyer, R. & Eid, M. (2001). Messen und Testen. Berlin: Springer, 2. Auflage.

    Google Scholar 

  • Vandenberg, S. G. & Kuse, A. R. (1978). Mental Rotations. A Group Test of Three Dimensional Spatial Visualisation. Perceptual and Motor Skills, 60, 343–350.

    Google Scholar 

  • von Davier, M. (1997). Bootstrapping Goodness-of-fit Statistics for Sparse Categorical Data: Results of a Monte Carlo Study. Methods of Psychological Research-Online, 2, 29–48.

    Google Scholar 

  • Letzter Zugriff 29.03.2010: www.dgps.de/fachgruppen/methoden/mpr-online/issue3/art5/article.html.

  • von Davier, M. (2000). WINMIRA -A Program System for Analysis with the Rasch Model, with the Latent Class Analysis and with the Mixed Rasch Model. Groningen: Progamma.

    Google Scholar 

  • von Davier, M. & Carstensen, C. H. (2007). Multivariate and Mixture Distribution Rasch Models. New York: Springer.

    Google Scholar 

  • Zumbo, B. D. (2007). Three Generations of Differential Item Functioning (DIF) Analyses: Considering where it has been, where it is now, and where it is going. Language Assessment Quarterly, 4, 223–233.

    Google Scholar 

Download references

Authors

Editor information

Christof Wolf Henning Best

Rights and permissions

Reprints and permissions

Copyright information

© 2010 VS Verlag fur Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH

About this chapter

Cite this chapter

Geiser, C., Eid, M. (2010). Item-Response-Theorie. In: Wolf, C., Best, H. (eds) Handbuch der sozialwissenschaftlichen Datenanalyse. VS Verlag für Sozialwissenschaften. https://doi.org/10.1007/978-3-531-92038-2_14

Download citation

  • DOI: https://doi.org/10.1007/978-3-531-92038-2_14

  • Publisher Name: VS Verlag für Sozialwissenschaften

  • Print ISBN: 978-3-531-16339-0

  • Online ISBN: 978-3-531-92038-2

  • eBook Packages: Humanities, Social Science (German Language)

Publish with us

Policies and ethics