Skip to main content

Einflüsse unterschiedlicher Formen der Verbalisierung von Antwortskalen auf das Antwortverhalten von Befragungspersonen

  • 3450 Accesses

Part of the Schriftenreihe der ASI - Arbeitsgemeinschaft Sozialwissenschaftlicher Institute book series (SASI)

Zusammenfassung

Antwortskalen sind ein zentraler Bestandteil standardisierter Fragebögen. In der Surveyforschung wird häufig zwischen endpunktbenannten und vollverbalisierten Antwortskalen unterschieden. Bei ersteren werden nur die beiden Pole, bei letzteren alle Kategorien einer Antwortskala verbalisiert. Bei vollverbalisierten Skalen ist eine häufige Empfehlung, dass die Antwortkategorien äquidistant sind, was bedeutet, dass die Antwortkategorien den Wertebereich der Skala gleichmäßig abdecken. In diesem Beitrag vergleichen wir vollverbalisierte Skalen mit nicht-äquidistant erscheinenden Antwortkategorien, vollverbalisierte Skalen mit äquidistant erscheinenden Antwortkategorien und endpunktbenannte Skalen. Wir unterscheiden dabei zwischen der Beobachtungsebene, d.h. den von den Befragten ausgewählten Antwortkategorien, und der latenten Ebene, den nicht direkt beobachteten Positionen der Befragten auf der latenten kontinuierlich-metrischen Dimension. Die Ergebnisse zeigen, dass die unterschiedlichen Antwortskalen zu Unterschieden im empirischen Antwortverhalten führen.

Diese Unterschiede sind nicht nur Folge einer unterschiedlichen Beziehung zwischen latenter Dimension und empirischer Antwortskala, sondern auch Folge unterschiedlicher Verteilungen auf der latenten Dimension.

Schlüsselwörter

  • Antwortverhalten
  • Äquidistanz
  • Balancierung
  • Onlinebefragung und Ratingskalen

This is a preview of subscription content, access via your institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • DOI: 10.1007/978-3-658-24517-7_3
  • Chapter length: 38 pages
  • Instant PDF download
  • Readable on all devices
  • Own it forever
  • Exclusive offer for individuals only
  • Tax calculation will be finalised during checkout
eBook
USD   49.99
Price excludes VAT (USA)
  • ISBN: 978-3-658-24517-7
  • Instant PDF download
  • Readable on all devices
  • Own it forever
  • Exclusive offer for individuals only
  • Tax calculation will be finalised during checkout
Softcover Book
USD   64.99
Price excludes VAT (USA)

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  • Coromina, L., & Coenders, G. (2006). Reliability and validity of egocentered network data collected via web. Social Networks 28(3), 209–231.

    CrossRef  Google Scholar 

  • DeCastellarnau, A. (2017). A classification of response scale characteristics that affect data quality: A literature review. Quality & Quantity. https://doi.org/10.1007/s11135-017-0533-4

    CrossRef  Google Scholar 

  • Dickinson, T. L., & Zellinger, P. M. (1980). A comparison of the behaviorally anchored rating and mixed standard scale formats. Journal of Applied Psychology, 65(2), 147-154.

    CrossRef  Google Scholar 

  • French-Lazovik, G., & Gibson, C. L. (1984). Effects of verbally labeled anchor points on the distributional parameters of rating measures. Applied Psychological Measurement 8, 49–57.

    CrossRef  Google Scholar 

  • Friedman, H., Wilamowsky, Y., & Friedman, L. (1981). A comparison of balanced and unbalanced rating scales. The Mid-Atlantic Journal of Business 19, 1–7.

    Google Scholar 

  • Geiser, C., Eid, M. (2010). Item-Response-Theorie. In C. Wolf, & H. Best (Hrsg.): Handbuch der sozialwissenschaftlichen Datenanalyse, (S.311-332). Wiesbaden: VS Verlag für Sozialwissenschaften.

    CrossRef  Google Scholar 

  • Höhne, J. K., & Krebs, D. (2018). Scale direction effects in agree/disagree and item-specific questions: A comparison of question formats. International Journal of Social Research Methodology, 21(1), 91–103.

    CrossRef  Google Scholar 

  • Höhne, J. K., & Lenzner, T. (2018). New insights on the cognitive processing of agree/disagree and item-specific questions. Journal of Survey Statistics and Methodology, 6, 401-417.

    CrossRef  Google Scholar 

  • Höhne, J. K., Schlosser, S., & Krebs, D. (2017). Investigating cognitive effort and response quality of question formats in web surveys using paradata. Field Methods, 29(4), 365–382.

    CrossRef  Google Scholar 

  • Johnson, T., Kulesa, P., Cho, Y. I., & Shavitt, S. (2005). The relation between culture and response styles. Journal of Cross-Cultural Psychology 36, 264–277.

    CrossRef  Google Scholar 

  • Jöreskog, K. G. (1994). Structural equation modeling with ordinal variables. Lecture Notes-Monograph Series 24, 297-310.

    Google Scholar 

  • Kamoen, N., Holleman, B., Mak, P., Sanders, T., & van den Bergh, H. (2011). Agree or disagree? Cognitive processes in answering contrastive survey questions. Discourse Processes 48, 355–385.

    CrossRef  Google Scholar 

  • Klockars, A. J., & Yamagishi, M. (1988). The influence of labels and positions in rating scales. Journal of Educational Measurement 25, 85–96.

    CrossRef  Google Scholar 

  • Krosnick, J. A., & Berent, M. K. (1993). Comparisons of party identification and policy preferences: The impact of survey question format. American Journal of Political Science 37, 941-946.

    CrossRef  Google Scholar 

  • Krosnick, J. A., & Fabrigar, L. R. (1997). Designing rating scales for effective measurement in surveys. In L. Lyberg, P. Biemer, M. Collins, E. de Leeuw, C. Dippo, N. Schwarz, & D. Trewin (Hrsg.), Survey measurement and process quality (S. 141–164). Hoboken: John Wiley & Sons.

    Google Scholar 

  • Krosnick, J. A., & Presser, S. (2010). Question and questionnaire design. In J. D. Wright & P. V. Marsden (Hrsg.), Handbook of survey research (S. 263–313). San Diego: Elsevier.

    Google Scholar 

  • Kühnel, S. M. (1993). Lassen sich ordinale Daten mit linearen Strukturgleichungsmodellen analysieren? ZA-Information / Zentralarchiv für Empirische Sozialforschung, 33, 29-51.

    Google Scholar 

  • Lantz, B. (2013). Equidistance of Likert-type scales and validation of inferential methods using experiments and simulations. The Electronic Journal of Business Research Methods 11, 16–28.

    Google Scholar 

  • Liao, P.-S. (2014). More happy or less unhappy? Comparison of the balanced and unbalanced designs for the response scale of general happiness. Journal of Happiness Studies 15, 1407–1423.

    CrossRef  Google Scholar 

  • Menold, N. (2017). Rating-scale labeling in online surveys: An experimental comparison of verbal and numeric rating scales with respect to measurement quality and respondents’ cognitive processes. Sociological Methods & Research. https://doi.org/10.1177/0049124117729694

  • Menold, N., & Bogner, K. (2015). Gestaltung von Ratingskalen in Fragebögen (SDM - Survey Guidelines). Mannheim: GESIS – Leibniz-Institut für Sozialwissenschaften. https://doi.org/10.15465/sdm-sg_015

  • Menold, N., Kaczmirek, L., Lenzner, T., & Neusar, A. (2014). How do respondents attend to verbal labels in rating scales? Field Methods 26, 21–39.

    CrossRef  Google Scholar 

  • Menold, N., & Kemper, C. (2015). The impact of frequency rating scale formats on the measurement of latent variables in web surveys - an experimental investigation using a measure of affectivity as an example. Psihologija 48, 431–449.

    CrossRef  Google Scholar 

  • Menold, N., & Tausch, A. (2016). Measurement of latent variables with different rating scales. Sociological Methods & Research 45, 678–699.

    CrossRef  Google Scholar 

  • Millsap, R. E., & Yun-Tein, J. (2004). Assessing factorial invariance in ordered-categorical measures. Multivariate Behavioral Research 39, 479–515.

    CrossRef  Google Scholar 

  • Moors, G., Kieruj, N. D., & Vermunt, J. K. (2014). The effect of labeling and numbering of response scales on the likelihood of response bias. Sociological Methodology 44, 369–399.

    CrossRef  Google Scholar 

  • Moosbrugger, H. (2012). Klassische Testtheorie (KTT). In: H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 103–117). Berlin, Heidelberg: Springer.

    Google Scholar 

  • Mullahy, J. (1990). Weighted least squares estimation of the linear probability model, revisited. Economics Letters 32, 35–41.

    CrossRef  Google Scholar 

  • Muthén, B. O. (1984). A general structural equation model with dichotomous, ordered categorical, and continuous latent variable indicators. Psychometrika 49, 115–132.

    CrossRef  Google Scholar 

  • Muthén, L. K, & Muthén, B. O. (1998-2012). Mplus User’s Guide. Siebte Auflage. Los Angeles, Ca: Muthén & Muthén.

    Google Scholar 

  • Ostrom, T. M., & Gannon, K. M. (1996). Exemplar generation: Assessing how respondents give meaning to rating scales. In N. Schwarz & S. Sudman (Hrsg.), Answering questions: Methodology for determining cognitive and communicative processes in survey research (S. 293–318). San Francisco: Jossey-Bass.

    Google Scholar 

  • Parducci, A. (1983). Category ratings and the relational character of judgment. In H.-G. Geissler, H.F.J.M. Buffort, E.J. Leeuwenberg, & V. Sarris (Hrsg.), Advances in Psychology. Modern Issues in Perception (S. 262–282). Amsterdam: North-Holland Publishing Company.

    CrossRef  Google Scholar 

  • Rohrmann, B. (1978). Empirische Studien zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. Zeitschrift für Sozialpsychologie 9, 222–245.

    Google Scholar 

  • Saris, W. E., & Gallhofer, I. N. (2007). Design, evaluation, and analysis of questionnaires for survey research. Hoboken: John Wiley & Sons.

    CrossRef  Google Scholar 

  • Sudman, S., Bradburn, N. M., & Schwarz, N. (1996). Thinking about answers. The application of cognitive processes to survey methodology. San Francisco: Jossey-Bass Publishers.

    Google Scholar 

  • Tourangeau, R., Couper, M. P., & Conrad, F. (2004). Spacing, position, and order: Interpretive heuristics for visual features of survey questions. Public Opinion Quarterly 68, 368-393.

    CrossRef  Google Scholar 

  • van de Vijver, F. J. R. (2003). Bias and equivalence: cross-cultural perspectives. In J. A. Harkness, F. J. R. van de Vijver, & P. Ph. Mohler (Hrsg.) Cross-cultural survey methods, S.143-156. Hoboken: Wiley.

    Google Scholar 

  • Weng, L.-J. (2004). Impact of the number of response categories and anchor labels on coefficient alpha and test-retest reliability. Educational and Psychological Measurement 64, 956–972.

    CrossRef  Google Scholar 

  • Zaller, J. R. (Ed.) 1988. Vague questions vs. vague minds: Experimental attempts to reduce measurement error. Paper presented at the annual meeting of the American Political Science Association, Washington, D.C.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Antje Rosebrock .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and Permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Verify currency and authenticity via CrossMark

Cite this chapter

Rosebrock, A., Schlosser, S., Höhne, J.K., Kühnel, S.M. (2019). Einflüsse unterschiedlicher Formen der Verbalisierung von Antwortskalen auf das Antwortverhalten von Befragungspersonen. In: Menold, N., Wolbring, T. (eds) Qualitätssicherung sozialwissenschaftlicher Erhebungsinstrumente. Schriftenreihe der ASI - Arbeitsgemeinschaft Sozialwissenschaftlicher Institute. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-24517-7_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-24517-7_3

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-24516-0

  • Online ISBN: 978-3-658-24517-7

  • eBook Packages: Social Science and Law (German Language)