Skip to main content

Fake Data?

Zur Trennung von sauberen und verschmutzten Daten bei selbstadministrierten Befragungsmodi

  • Chapter
  • First Online:
Book cover Kumulierte Evidenzen

Zusammenfassung

Onlinebefragungen haben sich in den letzten Jahren als Erhebungsmodus in Wissenschaft, Markt- und Sozialforschung aufgrund der vielen Vorteile gegenüber anderen Befragungsmodi zunehmend etabliert. Parallel zum verstärkten Einsatz entwickelte sich in der Methodenliteratur eine Debatte um die Qualität der über Onlinebefragungen gewonnenen Daten. Schätzungen hinsichtlich des Anteils der gefälschten, aussagelosen Daten variieren dabei stark. In dem Beitrag wird mit den Response-Sets ein Antwortverhalten von Befragten aufgegriffen, das schon seit Beginn der Umfrageforschung als Fehlerquelle erkannt und problematisiert wurde. Am Beispiel einer am Münchner Institut für Kommunikationswissenschaft und Medienforschung durchgeführten Studie diskutiert der Beitrag Ausprägungen, Auftretenswahrscheinlichkeit und Folgen von Response-Sets sowie das Indikatorpotential dieses offensichtlich falschen Antwortverhaltens für die Identifikation unsystematisch gefälschter Interviews.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 39.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 49.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  • ADM Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e. V. (2016). Jahresbericht 2015. Frankfurt am Main.

    Google Scholar 

  • Aust, F., & Schröder, H. (2009). Sinkende Stichprobenausschöpfung in der Umfrageforschung – ein Bericht aus der Praxis. In M. Weichbold, J. Bacher & C. Wolf (Hrsg.), Umfrageforschung (S. 195 –212). Wiesbaden: VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Bethlehem, J., & Biffignandi, S. (2012). Handbook of web surveys. Wiley Handbooks in Survey. Hoboken: Wiley.

    Google Scholar 

  • Bogner, K., & Landrock, U. (2015). Antworttendenzen in standardisierten Umfragen. Mannheim: GESIS – Leibniz Institut für Sozialwissenschaften, SDM Survey Guidelines. doi: 10.15465/sdm-sg_016

    Google Scholar 

  • Brosius, H.-B., Haas, A., & Koschel, F. (2016). Methoden der empirischen Kommunikationsforschung. Eine Einführung (7. Aufl.). Studienbücher zur Kommunikations- und Medienwissenschaft. Wiesbaden: VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Brosius, F. (2013). SPSS 21 (1. Aufl.). Heidelberg: mitp.

    Google Scholar 

  • Cantril, H. (1947). Gaugin Public Opinion. Princeton: Princeton University Press.

    Google Scholar 

  • Cronbach, L. J. (1946). Response Sets and Test Validity. Educational and Psychological Measurement, 6, 475–494.

    Google Scholar 

  • Cunningham, W. H., Cunningham, I.C.M., & Green, R. T. (1977). The Ipsative Process to Reduce Response Set Bias. Public Opinion Quarterly, 41, 379–384.

    Google Scholar 

  • Fahrmeir, L., Hammerle, A., & Tutz, G.(1996). Multivariate statistische Verfahren (2. Aufl.). Berlin: de Gruyter.

    Google Scholar 

  • Fowler, F.J. Jr. (2001). Why is it easy to write bad questions? ZUMA-Nachrichten, 48, 49–66.

    Google Scholar 

  • Gräf, L., & Heidingsfelder, M. (1999). Bessere Datenqualität bei WWW-Umfragen: Erfahrungen aus einem Methodenexperiment mit dem Internet-Rogator. In B. Batinic, A. Werner, L. Gräf & W. Bandilla (Hrsg.), Online Research. Methoden, Anwendungen und Ergebnisse (S. 113–126). Göttingen: Hogrefe Verlag.

    Google Scholar 

  • Groves, R. M. (1987). Research on Survey Data Quality. Public Opinion Quarterly, 51 (Supplement), 156–172.

    Google Scholar 

  • Groves, R. M., Fowler, F. J., Couper, M. P., Lepkowski, J. M., Singer, E., & Tourangeau, R. (2011). Survey Methodology (2. Aufl.). Hoboken: John Wiley & Sons.

    Google Scholar 

  • Gurwitz, P. M. (1987). Ipsative Rescaling. An Answer to the Response Set Problem in Segmentation Analysis. Journal of Advertising Research, 37–42.

    Google Scholar 

  • Haas, A., & Brosius, H.-B. (2006). Typen gibt’s! Zur Brauchbarkeit von Typologien in der Mediaforschung. In W. J. Koschnick (Hrsg.), Schwerpunkt: Lifestyle-Forschung: Mit weiteren Beiträgen über Neuro-Marktforschung, Zeitschriftennutzung, integrierte Kommunikation, Crossmedia, Multimediaforschung, Onlinemarktforschung, Zeitungsnutzung, Medienwissenschaft, Fernsehforschung und Werbewirkung (S. 159–179). FOCUS-Jahrbuch, 2006.

    Google Scholar 

  • He, J., & van de Vijver, F. J. R. (2015). Effects of a General Response Style on Cross-Cultural Comparisons: Evidence from the Teaching and Learning International Survey. Public Opinion Quarterly, 79(S1), 267–290.

    Google Scholar 

  • Hui, H. C., & Triandis, H. C. (1985). The Instability of Response Sets. Public Opinion Quarterly, 49, 253–260.

    Google Scholar 

  • Jandura, O., & Brosius, H.-B. (2008). Der Einfluss von Response-Sets auf die Ergebnisse und die Qualität von multivariaten Analyseverfahren. Vortrag auf dem Unipark-Anwendertag, Köln, 13.06.2008.

    Google Scholar 

  • Jandura, O., & Brosius, H.-B. (2010). The Influence of Response Sets on the Results and Quality of Multivariate Analyses. WAPOR Annual Conference “Opportunity through Diversity”, Chicago, 12.05.2010.

    Google Scholar 

  • Joinson, A. N. (1999). Social Desirability, Anonymity, and Internet-Based Questionnaires. Behavior Research Methods, Instruments & Computers, 31, 433–438.

    Google Scholar 

  • Kennedy, C., Mercer, A., Keeter, S., Hatley, N., McGeeney, K., & Gimenez, A. (2016). Evaluating Online Nonprobability Surveys. Vendor choice matters; widespread errors found for estimates based on blacks and Hispanics. Pew Research Center.

    Google Scholar 

  • Klein, M., Dülmer, H., Ohr, D., Quandt, M. & Rosar, U. (2004). Response Sets in the Measurement of Values: A Comparison of Rating and Ranking Procedures. International Journal of Public Opinion Research, 16, 474–483.

    Google Scholar 

  • Krosnick, J. A., & Fabrigar, L. R. (1998). Designing Good Questionaires. New York: Oxford University Press.

    Google Scholar 

  • Küchenhoff, H. (1996). An exact algorithm for estimating breakpoints in segmented generalized linear models. Sonderforschungsbereich 386, Paper 27. Abgerufen von http://epub.ub.uni-muenchen.de/ Zugegriffen: 24. April 2017.

  • Leiner, D. (2016). Too Fast, too Straight, too Weird: Post-hoc Identification of Meaningless Data in Internet Surveys. 66th ICA Annual Conference, Fukuoka.

    Google Scholar 

  • Mayer, H. O. (2001). Interview und schriftliche Befragung. München, Wien: R. Oldenburg Verlag.

    Google Scholar 

  • Menold, N., & Kemper, C. J. (2014). How Do Real and Falsified Data Differ? Psychology of Survey Response as a Source of Falsification Indicators in Face-to-Face Surveys. International Journal of Public Opinion Research, 2, 41–65.

    Google Scholar 

  • Muggeo, V. (2011). segmented: Segmented relationships in regression models. R package version 0.2-8.2, URL http://CRAN.R-project.org.

  • Mühlenfeld, H.-U. (2004). Der Mensch in der Online-Kommunikation. Zum Einfluss webbasierter, audiovisueller Fernkommunikation auf das Verhalten von Befragten. Wiesbaden: VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Noelle-Neumann, E., & Petersen, T. (2005). Alle, nicht jeder. Einführung in die Methoden der Demoskopie (4. Aufl.). Berlin: Springer.

    Google Scholar 

  • Oskamp, S. (1977). Attitudes and Opinions. Englewood Cliffs, NJ: Prentice-Hall.

    Google Scholar 

  • Pettigrew, T. F. (1958). The measurement and correlates of category width as a cognitive variable. Journal of Personality, 26, 532–544.

    Google Scholar 

  • Porst, R. (2000). Question Wording – Zur Formulierung von Fragebogen-Fragen. How to do. Abgerufen von http://www.gesis.org/fileadmin/upload/forschung/publikationen/gesis_reihen/howto/how-to2rp.pdf. Zugegriffen: 7. April 2017.

  • Raab, G., Unger, A., & Unger, F. (2016). Marktpsychologie: Grundlagen und Anwendung (4. überarb. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Reuband, K.-H. (2000). „Pseudo-Opinions“ in Bevölkerungsumfragen. Wie Bürger fiktive Politiker beurteilen. ZA-Information,46, 26–38.

    Google Scholar 

  • Reuband, K.-H. (2001). Erlauben vs. „nicht erlauben“ oder „verbieten“? Wie sich unterschiedliche Frage-Alternativen auf das Antwortverhalten auswirken. ZA-Information, 38, 42–56.

    Google Scholar 

  • Reuband, K.-H. (2002). Frageformen, themenspezifische Sensibilitäten und Antwortmuster: Wie Fragen in Statementform und in Form dichotomer Antwortvorgaben Antwortmuster beeinflussen. ZA-Information,51, 82–99.

    Google Scholar 

  • Schober, L., & Stuckard, C. (2012). Wie können Antworttendenzen identifiziert werden? Unveröffentlichter Forschungsbericht im Masterstudiengang Statistik der Ludwig-Maximilians-Universität München unter der Betreuung von Prof. Dr. Helmut Küchenhoff, München.

    Google Scholar 

  • Smith, D. h. (1967). Correcting for social desirability response sets in opinion-attitude survey research. Public Opinion Quarterly, 31, 87–94.

    Google Scholar 

  • Theobald, A. (2016). Praxis Online-Marktforschung: Grundlagen – Anwendungsbereiche – Durchführung. Wiesbaden: VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • van Vaerenbergh, Y., & Thomas, T. D. 2012. Response Styles in Survey Research: A Literature Review of Antecedents, Consequences, and Remedies. International Journal of Public Opinion Research, 25 (2), 195-217.

    Google Scholar 

  • Wiedenbeck, M., & Züll, C. (2001). Klassifikation mit Clusteranalyse: grundlegende Techniken hierarchischer und K-means-Verfahren. Zentrum für Umfragen, Methoden und Analysen -ZUMA-. Mannheim: GESIS. Abgerufen von http://nbn-resolving.de/urn:nbn:de:0168-ssoar-201428, Zugegriffen: 24. April 2017

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Olaf Jandura .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2018 Springer Fachmedien Wiesbaden GmbH

About this chapter

Cite this chapter

Jandura, O. (2018). Fake Data?. In: Rössler, P., Rossmann, C. (eds) Kumulierte Evidenzen. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-18859-7_10

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-18859-7_10

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-18858-0

  • Online ISBN: 978-3-658-18859-7

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics