Zusammenfassung
Antwortskalen sind ein zentraler Bestandteil standardisierter Fragebögen. In der Surveyforschung wird häufig zwischen endpunktbenannten und vollverbalisierten Antwortskalen unterschieden. Bei ersteren werden nur die beiden Pole, bei letzteren alle Kategorien einer Antwortskala verbalisiert. Bei vollverbalisierten Skalen ist eine häufige Empfehlung, dass die Antwortkategorien äquidistant sind, was bedeutet, dass die Antwortkategorien den Wertebereich der Skala gleichmäßig abdecken. In diesem Beitrag vergleichen wir vollverbalisierte Skalen mit nicht-äquidistant erscheinenden Antwortkategorien, vollverbalisierte Skalen mit äquidistant erscheinenden Antwortkategorien und endpunktbenannte Skalen. Wir unterscheiden dabei zwischen der Beobachtungsebene, d.h. den von den Befragten ausgewählten Antwortkategorien, und der latenten Ebene, den nicht direkt beobachteten Positionen der Befragten auf der latenten kontinuierlich-metrischen Dimension. Die Ergebnisse zeigen, dass die unterschiedlichen Antwortskalen zu Unterschieden im empirischen Antwortverhalten führen.
Diese Unterschiede sind nicht nur Folge einer unterschiedlichen Beziehung zwischen latenter Dimension und empirischer Antwortskala, sondern auch Folge unterschiedlicher Verteilungen auf der latenten Dimension.
Schlüsselwörter
- Antwortverhalten
- Äquidistanz
- Balancierung
- Onlinebefragung und Ratingskalen
This is a preview of subscription content, access via your institution.
Buying options
Preview
Unable to display preview. Download preview PDF.
Literatur
Coromina, L., & Coenders, G. (2006). Reliability and validity of egocentered network data collected via web. Social Networks 28(3), 209–231.
DeCastellarnau, A. (2017). A classification of response scale characteristics that affect data quality: A literature review. Quality & Quantity. https://doi.org/10.1007/s11135-017-0533-4
Dickinson, T. L., & Zellinger, P. M. (1980). A comparison of the behaviorally anchored rating and mixed standard scale formats. Journal of Applied Psychology, 65(2), 147-154.
French-Lazovik, G., & Gibson, C. L. (1984). Effects of verbally labeled anchor points on the distributional parameters of rating measures. Applied Psychological Measurement 8, 49–57.
Friedman, H., Wilamowsky, Y., & Friedman, L. (1981). A comparison of balanced and unbalanced rating scales. The Mid-Atlantic Journal of Business 19, 1–7.
Geiser, C., Eid, M. (2010). Item-Response-Theorie. In C. Wolf, & H. Best (Hrsg.): Handbuch der sozialwissenschaftlichen Datenanalyse, (S.311-332). Wiesbaden: VS Verlag für Sozialwissenschaften.
Höhne, J. K., & Krebs, D. (2018). Scale direction effects in agree/disagree and item-specific questions: A comparison of question formats. International Journal of Social Research Methodology, 21(1), 91–103.
Höhne, J. K., & Lenzner, T. (2018). New insights on the cognitive processing of agree/disagree and item-specific questions. Journal of Survey Statistics and Methodology, 6, 401-417.
Höhne, J. K., Schlosser, S., & Krebs, D. (2017). Investigating cognitive effort and response quality of question formats in web surveys using paradata. Field Methods, 29(4), 365–382.
Johnson, T., Kulesa, P., Cho, Y. I., & Shavitt, S. (2005). The relation between culture and response styles. Journal of Cross-Cultural Psychology 36, 264–277.
Jöreskog, K. G. (1994). Structural equation modeling with ordinal variables. Lecture Notes-Monograph Series 24, 297-310.
Kamoen, N., Holleman, B., Mak, P., Sanders, T., & van den Bergh, H. (2011). Agree or disagree? Cognitive processes in answering contrastive survey questions. Discourse Processes 48, 355–385.
Klockars, A. J., & Yamagishi, M. (1988). The influence of labels and positions in rating scales. Journal of Educational Measurement 25, 85–96.
Krosnick, J. A., & Berent, M. K. (1993). Comparisons of party identification and policy preferences: The impact of survey question format. American Journal of Political Science 37, 941-946.
Krosnick, J. A., & Fabrigar, L. R. (1997). Designing rating scales for effective measurement in surveys. In L. Lyberg, P. Biemer, M. Collins, E. de Leeuw, C. Dippo, N. Schwarz, & D. Trewin (Hrsg.), Survey measurement and process quality (S. 141–164). Hoboken: John Wiley & Sons.
Krosnick, J. A., & Presser, S. (2010). Question and questionnaire design. In J. D. Wright & P. V. Marsden (Hrsg.), Handbook of survey research (S. 263–313). San Diego: Elsevier.
Kühnel, S. M. (1993). Lassen sich ordinale Daten mit linearen Strukturgleichungsmodellen analysieren? ZA-Information / Zentralarchiv für Empirische Sozialforschung, 33, 29-51.
Lantz, B. (2013). Equidistance of Likert-type scales and validation of inferential methods using experiments and simulations. The Electronic Journal of Business Research Methods 11, 16–28.
Liao, P.-S. (2014). More happy or less unhappy? Comparison of the balanced and unbalanced designs for the response scale of general happiness. Journal of Happiness Studies 15, 1407–1423.
Menold, N. (2017). Rating-scale labeling in online surveys: An experimental comparison of verbal and numeric rating scales with respect to measurement quality and respondents’ cognitive processes. Sociological Methods & Research. https://doi.org/10.1177/0049124117729694
Menold, N., & Bogner, K. (2015). Gestaltung von Ratingskalen in Fragebögen (SDM - Survey Guidelines). Mannheim: GESIS – Leibniz-Institut für Sozialwissenschaften. https://doi.org/10.15465/sdm-sg_015
Menold, N., Kaczmirek, L., Lenzner, T., & Neusar, A. (2014). How do respondents attend to verbal labels in rating scales? Field Methods 26, 21–39.
Menold, N., & Kemper, C. (2015). The impact of frequency rating scale formats on the measurement of latent variables in web surveys - an experimental investigation using a measure of affectivity as an example. Psihologija 48, 431–449.
Menold, N., & Tausch, A. (2016). Measurement of latent variables with different rating scales. Sociological Methods & Research 45, 678–699.
Millsap, R. E., & Yun-Tein, J. (2004). Assessing factorial invariance in ordered-categorical measures. Multivariate Behavioral Research 39, 479–515.
Moors, G., Kieruj, N. D., & Vermunt, J. K. (2014). The effect of labeling and numbering of response scales on the likelihood of response bias. Sociological Methodology 44, 369–399.
Moosbrugger, H. (2012). Klassische Testtheorie (KTT). In: H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 103–117). Berlin, Heidelberg: Springer.
Mullahy, J. (1990). Weighted least squares estimation of the linear probability model, revisited. Economics Letters 32, 35–41.
Muthén, B. O. (1984). A general structural equation model with dichotomous, ordered categorical, and continuous latent variable indicators. Psychometrika 49, 115–132.
Muthén, L. K, & Muthén, B. O. (1998-2012). Mplus User’s Guide. Siebte Auflage. Los Angeles, Ca: Muthén & Muthén.
Ostrom, T. M., & Gannon, K. M. (1996). Exemplar generation: Assessing how respondents give meaning to rating scales. In N. Schwarz & S. Sudman (Hrsg.), Answering questions: Methodology for determining cognitive and communicative processes in survey research (S. 293–318). San Francisco: Jossey-Bass.
Parducci, A. (1983). Category ratings and the relational character of judgment. In H.-G. Geissler, H.F.J.M. Buffort, E.J. Leeuwenberg, & V. Sarris (Hrsg.), Advances in Psychology. Modern Issues in Perception (S. 262–282). Amsterdam: North-Holland Publishing Company.
Rohrmann, B. (1978). Empirische Studien zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. Zeitschrift für Sozialpsychologie 9, 222–245.
Saris, W. E., & Gallhofer, I. N. (2007). Design, evaluation, and analysis of questionnaires for survey research. Hoboken: John Wiley & Sons.
Sudman, S., Bradburn, N. M., & Schwarz, N. (1996). Thinking about answers. The application of cognitive processes to survey methodology. San Francisco: Jossey-Bass Publishers.
Tourangeau, R., Couper, M. P., & Conrad, F. (2004). Spacing, position, and order: Interpretive heuristics for visual features of survey questions. Public Opinion Quarterly 68, 368-393.
van de Vijver, F. J. R. (2003). Bias and equivalence: cross-cultural perspectives. In J. A. Harkness, F. J. R. van de Vijver, & P. Ph. Mohler (Hrsg.) Cross-cultural survey methods, S.143-156. Hoboken: Wiley.
Weng, L.-J. (2004). Impact of the number of response categories and anchor labels on coefficient alpha and test-retest reliability. Educational and Psychological Measurement 64, 956–972.
Zaller, J. R. (Ed.) 1988. Vague questions vs. vague minds: Experimental attempts to reduce measurement error. Paper presented at the annual meeting of the American Political Science Association, Washington, D.C.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Rosebrock, A., Schlosser, S., Höhne, J.K., Kühnel, S.M. (2019). Einflüsse unterschiedlicher Formen der Verbalisierung von Antwortskalen auf das Antwortverhalten von Befragungspersonen. In: Menold, N., Wolbring, T. (eds) Qualitätssicherung sozialwissenschaftlicher Erhebungsinstrumente. Schriftenreihe der ASI - Arbeitsgemeinschaft Sozialwissenschaftlicher Institute. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-24517-7_3
Download citation
DOI: https://doi.org/10.1007/978-3-658-24517-7_3
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-24516-0
Online ISBN: 978-3-658-24517-7
eBook Packages: Social Science and Law (German Language)