Advertisement

Effekte der Skalenrichtung bei Agree/Disagree (A/D) und Item-spezifischem (IS) Frageformat

  • Dagmar Krebs
  • Jürgen H. P. Hoffmeyer-Zlotnik
Chapter

Zusammenfassung

Dieses Kapitel behandelt den Effekt der absteigenden (positiv-negativ) und der aufsteigenden (negativ-positiv) Richtung von Antwortskalen auf die Beantwortung von Fragen im Agree/Disagree (A/D) und im item-spezifischen (IS) Antwortformat. Während Fragen im A/D-Format eine einheitliche Dimension der Zustimmung erfassen und üblicherweise in Matrixform (grids) präsentiert werden, sprechen IS Fragen die interessierende inhaltliche Dimension direkt in der Frage-Antwortskala-Verknüpfung an. Anhand verschiedener (positiver und negativer) Frageinhalte wird die generelle Vermutung untersucht, dass Fragen im A/D-Format anfälliger für Effekte formaler Merkmale von Fragen sind als Fragen im IS-Format. Darüber hinaus werden für beide Antwortformate die Reliabilitätskoeffizienten von Konstrukten mit mehreren Indikatoren auf der Basis eines Gruppenvergleichs geschätzt. Die dem IS-Format zugeschriebene bessere Datenqualität, die sich u. a. in hohen Reliabilitätswerten äußern kann, wird durch die Ergebnisse dieser Studie nicht belegt. Außerdem geben die Ergebnisse einen Hinweis darauf, dass Antworten auf Fragen im IS-Format in ähnlicher Weise anfällig für Richtungseffekte von Antwortskalen sind wie Antworten auf Fragen im A/D-Format. Die Analysen basieren auf den Angaben von n=1.030 Befragten.

Schlüsselbegriffe

Frageformat A/D und IS Fragen Mehrkomponenteninstrumente Skalenrichtung Reliabilität Konfidenzintervall 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Baumgartner, H., und J. B. E. M. Steenkamp. 2001. Response styles in marketing research: A cross-national investigation. Journal of Marketing Research 38: 143–156.Google Scholar
  2. Bishop, G., und A. Smith. 2001. Response-order effects and the early Gallup split-ballots. Public Opinion Quarterly 65(4): 479–505.Google Scholar
  3. Christian, L. M., N. L. Parsons, und D. A. Dillmann. 2009. Designing scalar questions for web surveys. Sociological Methods and Research 37: 393–425.Google Scholar
  4. Converse, J. M., und S. Presser. 1986. Survey Questions: Handcrafting the Standardized Questionnaire. Beverly Hills, CA: Sage.Google Scholar
  5. DeCastellarnau, A. 2017. A classification of response scale characteristics that affect data quality: A literature review. Quality and Quantity.  https://doi.org/10.1007/s11135-017-0533-4.
  6. Duckitt, J., und B. Bizumic. 2013. Multidimensionality of Right-Wing Authoritarian Attitudes: Authoritarianism-Conservatism-Traditionalism. Political Psychology 34: 841–862.Google Scholar
  7. Eagly, A. H., und S. Chaiken. 1993. The psychology of attitudes. Orlando/FL: Harcourt, Brace, Jovanovich.Google Scholar
  8. Fowler, F. 1995. Improving Survey Questions. Design and Evaluation. Thousand Oaks, CA: Sage.Google Scholar
  9. Fowler, F. J., und C. Cosenza. 2008. Writing Effective Questions. In International Handbook of Survey Methodology, Hrsg. E. D. de Leeuw, J. J. Hox, und D. A. Dillman, 136–159. New York: Taylor and Francis Group.Google Scholar
  10. Frieze, I. H. 2010. Cross Cultural Survey of Work and Gender Attitudes 1991–2010. https://sites.google.com/site/friezewebsite/cross-cultural-survey-of-work-and-gender-attitudes. Zugegriffen: 03. Dezember 2017.
  11. Funke, F. 2005. The dimensionality of right-wing authoritarianism: Lessons from the dilemma between theory and measurement. Political Psychology 26: 195–218.Google Scholar
  12. Gümüs, A., M. Gömleksiz, A. Glöckner-Rist, und D. Balke. 2014. Anomie. Zusammenstellung sozialwissenschaftlicher Items und Skalen.  https://doi.org/10.6102/zis145.
  13. Höhne, J. K., und D. Krebs. 2017. Scale direction effects in agree/disagree and item-specific questions: A comparison of question formats. International Journal of Social Research Methodology.  https://doi.org/10.1080/13645579.2017.1325566.
  14. Höhne, J. K., und T. Lenzner. 2015. Investigating response order effects in web surveys using eye tracking. Psihologia 48(4): 361–377.Google Scholar
  15. Höhne, J. K., M. Revilla, und T. Lenzner. (forthcoming). Comparing the Performance of Agree/Disagree and Item-Specific Questions across PCs and Smartphones. Methodology: European Journal of Research Methods for the Behavioral and Social Sciences.Google Scholar
  16. Höhne, J. K., S. Schlosser, und D. Krebs. 2017. Investigating Cognitive Effort and Response Quality of Question Formats in Web Surveys. Field Methods, 1–18.  https://doi.org/10.1177/1525822x17710640.
  17. Holbrook, A. L. 2008. Acquiescence response bias. In Encyclopedia of Survey Research Methods – First Volume, Hrsg. P. J. Lavrakas, 3–4. Thousand Oaks, CA: Sage.Google Scholar
  18. Krebs, D. 2012. The impact of response format on attitude measurement. In Methods, Theories, and Empirical Applications in the Social Sciences, Hrsg. S. Salzborn, E. Davidov und J. Reinecke, 105–113. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  19. Krebs, D., M. Berger, und A. Ferligoj. 2000. Approaching achievement motivation. Comparing factor analysis and cluster analysis. New Approaches in Statistical Applications: Metodoloski Zvezki 16: 147–171.Google Scholar
  20. Krebs, D., und J. H. P. Hoffmeyer-Zlotnik. 2007. Attitude toward Foreigners: Balanced Items and the Effect of Unipolar versus Bipolar Scaling. In Measuring Meaningful Data in Social Research, Hrsg. G. Loosveldt, M. Swyngedouw und B. Cambré, 257–280. Leuven: Acco.Google Scholar
  21. Krebs, D., und J. H. P. Hoffmeyer-Zlotnik. 2010. Positive first or negative first? Methodology: European Journal of Research Methods for the Behavioral and Social Sciences 6(3): 118–127.Google Scholar
  22. Krosnick, J. A. 1991. Response strategies for coping with the cognitive demands of attitude measurement in surveys. Applied Cognitive Psychology 5: 213–236.Google Scholar
  23. Krosnick, J. A., und D. F. Alwin. 1987. An evaluation of a cognitive theory of response-order effects in survey measurement. Public Opinion Quarterly 51: 201–219.Google Scholar
  24. Krosnick, J. A., und L. R. Fabrigar. 1997. Designing rating scales for effective measurement in surveys. In Survey measurement and process quality, Hrsg. L. Lyberg, P. Biemer, M. Collins, E. de Leeuw, C. Dippo, N. Schwarz und D. Trewin, 141–164. New York: Wiley.Google Scholar
  25. Krosnick, J. A., und S. Presser. 2010. Question and Questionnaire Design. In Handbook of Survey Research, Hrsg. Peter V. Marsden und James D. Wright, 264–313. Bingley, UK: Emerald.Google Scholar
  26. Krosnick, J. A., S. Narayan, und W. R. Smith. 1996. Satisficing in surveys: Initial evidence. In Advances in Survey Research, Hrsg. M. T. Braverman und J. K. Slater, 29–44. San Francisco: Jossey-Bass.Google Scholar
  27. Likert, R. 1932. A technique for the measurement of attitudes. Archives of Psychology 140: 5–53.Google Scholar
  28. Liu, M., und F. Keusch. 2017. Effects of Scale Direction on Response Style of Ordinal Rating Scales. Journal of Official Statistics 33(1): 137–154.Google Scholar
  29. Liu, M., S. Lee, und F. G. Conrad. 2015. Comparing extreme response styles between agree-disagree and item-specific scales. Public Opinion Quarterly 79: 952–975.Google Scholar
  30. Malhotra, N. 2008. Completion Time and Response Order Effects in Web Surveys. Public Opinion Quarterly 72: 914–934.Google Scholar
  31. Mathews, C. O. 1929. The effect of the order of printed response words on an interest questionnaire. Journal of Educational Psychology 30: 128–134.Google Scholar
  32. Menold, N., und K. Bogner. 2015. Gestaltung von Ratingskalen in Fragebögen. SDM Survey Guidelines. Version 1.0, Januar 2015. Mannheim: GESIS.Google Scholar
  33. Menold, N., L. Kaczmirek, T. Lenzner, und A. Neusar. 2014. How do respondents attend to verbal labels in rating scales? Field Methods 26(1): 21–39.Google Scholar
  34. Menold, N., und T. Raykov. 2015. Can reliability of multiple component measuring instruments depend on response option presentation mode? Educational and Psychological Measurement, 1–16,  https://doi.org/10.1177/0013164415593602.
  35. Rammstedt, B., und D. Krebs. 2007. Does Response Scale Format Affect the Answering of Personality Scales? Assessing the Big Five Dimensions of Personality with Different Response Scales in a Dependent Sample. European Journal of Psychological Assessment 23(1): 32–38.Google Scholar
  36. Raykov, T., und G. A. Marcoulides. 2011. Introduction to psychometric theory. New York, NY: Taylor and Francis.Google Scholar
  37. Rugg, D., und H. Cantril. 1944. The wording of questions. In Gauging Public Opinion, Hrsg. H. Cantril, 23–50. Princeton, NJ: Princeton University Press.Google Scholar
  38. Saris, W. E., und I. N. Gallhofer. 2007; 2014. Design, evaluation, and analysis of questionnaires for survey research. Hoboken, NJ: John Wiley and Sons, Inc.Google Scholar
  39. Saris, W. E., M. Revilla, J. A. Krosnick, und E. Shaeffer. 2010. Comparing questions with agree/disagree response options to questions with item-specific response options. Survey Research Methods 4: 61–79.Google Scholar
  40. Schuman, H., und S. Presser. 1996. Questions and Answers in Attitude Surveys: Experiments on Question Form, Wording, and Context. Thousand Oaks, CA: Sage.Google Scholar
  41. Schwarz, N., H. J. Hippler, und E. Noelle-Neumann. 1992. A cognitive model of response-order effects in survey measurement. In Context effects in social and psychological measurement, Hrsg. N. Schwarz und S. Sudman, 187–201. New York: Springer.Google Scholar
  42. Smyth, M., A. F. Collins, P. E. Morris, und P. Levy. 1994. Cognition in action. Hove and Hillsdale: Lawrence Earlbaum Ass. Publishers.Google Scholar
  43. Spence, J. T., und R. L. Helmreich. 1983. Achievement-related motives and behavior. In Achievement and Achievement Motives: Psychological and Sociological Approaches, Hrsg. J. T. Spence, 10–74. San Francisco, CA: Freeman.Google Scholar
  44. Sudman, S., N. M. Bradburn, und N. Schwarz. 1996. Thinking about answers. The application of cognitive processes to survey methodology. San Francisco, CA: Jossey-Bass Publishers.Google Scholar
  45. Toepoel, V., und D. A. Dillman. 2011. Words, numbers, and visual heuristics in web surveys: Is there a hierarchy of importance? Social Science Computer Review 29(2): 193–207.Google Scholar
  46. van Vaerenbergh, Y., und T. D. Thomas. 2013. Response styles in survey research: A literature review of antecedents, consequences, and remedies. International Journal of Public Opinion Research 25: 195–217.Google Scholar
  47. Yan, T., und F. Keusch. 2015. The effects of the direction of rating scales on survey responses in a telephone survey. Public Opinion Quarterly 79(1): 145–165.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  • Dagmar Krebs
    • 1
  • Jürgen H. P. Hoffmeyer-Zlotnik
    • 2
  1. 1.GießenDeutschland
  2. 2.LudwigshafenDeutschland

Personalised recommendations