Advertisement

Die „Kunst“ des Fragenstellens

Praxisorientierte Hinweise zur Optimierung der Fragebogenqualität
  • Alexandra MergenerEmail author
  • Jean Philippe Décieux
Chapter

Zusammenfassung

Wenn du etwas wissen willst, frage! – Was im Alltag so einfach klingt, ist in der Methodenforschung ein aufwendiger Prozess. Sowohl das Formulieren von Fragen als auch die Gestaltung des Fragebogens bedarf der Berücksichtigung unterschiedlicher Regeln, ohne die durch Befragungen gewonnene Daten schnell unbrauchbar werden können. So spielen in einem systematischen Frage-Antwort-Vorgang zentrale Kommunikationsregeln und psychologische Abläufe eine Rolle, die es als Forscher dringend zu beachten gilt. Aufbauend auf diesen zentralen Erkenntnissen befasst sich der folgende Beitrag mit unterschiedlichen Aspekten, die die Qualität von Fragebögen beeinflussen. Anhand von praxisbezogenen Beispielen, die aus Erfahrungen mit diversen Befragungen sowie einer systematischen Methodenforschung resultieren, werden dabei dem Leser Leitlinien zur Optimierung von eigenen Fragebögen an die Hand gegeben. Gleichwohl gilt es dabei zu beachten, dass es allgemeingültige Regeln, die auf jede Forschungsfrage, Untersuchungspopulation oder auch Erhebungsart anwendbar sind, nicht geben kann. Die hier erarbeiteten Instruktionen dienen vielmehr der Vermittlung wesentlicher Kenntnisse, die zum Vermeiden grober Fehler führen sollen und es dem Forscher zugleich erlauben, bei Bedarf die Leitlinien nach kritischer Betrachtung eigenständig anzupassen.

Literatur

  1. ADM [Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e. V.] (2016) Jahresbericht 2015. ADM [Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e. V.], Frankfurt a. M.Google Scholar
  2. Cannell C, Miller P, Oksenberg L (1981) Research on interviewing techniques. In: Leinhardt S (Hrsg) Social methodology. Jossey-Bass, San Francisco, S 389–437Google Scholar
  3. Décieux JP (2012) Modeeffekte bei Onlineumfragen: Ein multivariater Methodenvergleich unter Zuhilfenahme eines Propensity Score Matchings. Akademische Verlagsgemeinschaft, MünchenGoogle Scholar
  4. Décieux JP, Hoffmann M (2014) Antwortdifferenzen im Junk & Crime Survey: Ein Methodenvergleich mit goffmanscher Interpretation. In: Löw M (Hrsg) Vielfalt und Zusammenhalt. Verhandlungen des 36. Kongresses der Deutschen Gesellschaft für Soziologie. Campus, Frankfurt a. M.Google Scholar
  5. Décieux JP, Mergener A, Neufang K, Sischka P (2015) Implementation of the forced answering option within online surveys: do higher item response rates come at the expense of participation and answer quality? Psihologija Spec Issue Surv Particip Response 48:311–326Google Scholar
  6. De Leeuw E, De Heer W (2002) Trends in household survey nonresponse. A longitudinal and international comparison. In: Groves RM, Dillman DA, Eltinge JL, Little RJA (Hrsg) Survey nonresponse. Wiley, New York, S 41–54Google Scholar
  7. Faulbaum F, Prüfer P, Rexroth M (2009) Was ist eine gute Frage? Die systematische Evaluation der Fragenqualität. Springer VS, WiesbadenCrossRefGoogle Scholar
  8. Fowler F (2001) Why it is easy to write bad questions. Method Data Anal 48:49–66Google Scholar
  9. Groves RM (1989) Survey errors and survey costs. Wiley, New YorkCrossRefGoogle Scholar
  10. Groves RM, Singer E, Corning A (2000) Leverage-saliency theory of survey participation: description and an illustration. Public Opin Q 64:299–308CrossRefGoogle Scholar
  11. Heinz A, Steffgen G (2015) Führt eine negative Erfahrung mit der Polizei zwangsläufig zu einer negativen Bewertung der Polizei? Die Rolle von Assimilations- und Kontrasteffekten bei “part-whole question sequences”. Monatsschr Krimino Strafrechtsreform 98:320–334Google Scholar
  12. Jacob R, Heinz A, Décieux JP (2013) Umfrage: Einführung in die Methoden der Umfrageforschung. Oldenbourg Wissenschaftsverlag, MünchenCrossRefGoogle Scholar
  13. Lenzner T, Menold N (2015) GESIS Survey Guidelines Frageformulierung. Leibniz-Institut für Sozialwissenschaften, MannheimGoogle Scholar
  14. Lugtig P (2016) Mobile-Only Web Survey Respondents. Surv Pract 9:1–8CrossRefGoogle Scholar
  15. Mavletova A, Couper M (2015) Title a meta-analysis of breakoff rates in mobile web surveys. In: Toninelli R, Pinter R, Padraza P de (Hrsg) Mobile research methods: opportunities and challenges of mobile research methodologies. Ubiquity, London, S 81–98Google Scholar
  16. McCarthy J, Beckler D, Qualey S (2006) An analysis of the relationship between survey burden and nonresponse: if we bother them more, are they less cooperative? J Off Stat 22:97–112Google Scholar
  17. Mergener A, Sischka P, Décieux JP (2015) To force or not to force. That is the question! Die Auswirkungen des Einsatzes von Forced-Response-Fragen auf die Qualität der Befragungsergebnisse. In: Lessenich S (Hrsg) Routinen der Krise – Krise der Routinen. Verhandlungen des 37. Kongresses der Deutschen Gesellschaft für Soziologie in Trier 2014Google Scholar
  18. PEW Research Center (2016) Smartphones help those without broadband get online, but don’t necessarily bridge the digital divide. Factank News in NumbersGoogle Scholar
  19. Rolstad R, Adler J, Ryden A (2011) Response burden and questionnaire length: is shorter better? A review and meta-analysis. Value Health 14:1101–1108CrossRefGoogle Scholar
  20. Schnell R (2012) Survey-Interviews: Methoden standardisierter Befragungen. Springer VS, WiesbadenCrossRefGoogle Scholar
  21. Strack F, Martin L (1987) Thinking, judging and communicating: a process account of context effects in attitude surveys. In: Hippler HJ, Schwarz N, Sudman S (Hrsg) Social information processing and survey methodology. Springer, New York, S 123–148CrossRefGoogle Scholar
  22. Sudman S, Bradburn NM (1982) Asking questions. Jossey-Bass, San FranciscoGoogle Scholar
  23. Sudman S, Bradburn NM, Schwarz N (1996) Thinking about answers – the application of cognitive processes to survey methodology. Jossey-Bass, San FranciscoGoogle Scholar
  24. Taddicken M (2008) Methodeneffekte bei Web-Befragungen. Einschränkungen der Datengüte durch ein „reduziertes Kommunikationsmedium“. Halem, KölnGoogle Scholar
  25. Tourangeau R (1984) Cognitive science and survey methods: a cognitive perspective. In: Jabine T, Straf M, Tanur J, Tourangeau R (Hrsg) Cognitive aspects of survey methodology: building a bridge between disciplines. National Academy, Washington DC, S 73–100Google Scholar
  26. Tourangeau R, Rips LJ, Rasinski K (2000) The psychology of survey response. Cambridge University Press, CambridgeCrossRefGoogle Scholar
  27. Tuschl S, Meister S, Laube S (2016) Alles nur ein Spiel? Gamification-Ansätze in der Marktforschung. In: Keller B, Klein H, Tuschl S (Hrsg) Marktforschung der Zukunft – Mensch oder Maschine: Bewährte Kompetenzen in neuem Kontext. Springer Gabler, Wiesbaden, S 189–215CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.Bundesinstitut für Berufsbildung (BIBB)BonnDeutschland
  2. 2.Universität Duisburg-EssenDuisburgDeutschland

Personalised recommendations