Advertisement

Stichprobenprobleme bei Online-Umfragen

  • Nina Baur
  • Michael J. Florian
Chapter

Auszug

Geschlossene Online-Befragungen grenzen sich einerseits von offenen Befragungen, andererseits von anderen geschlossenen Befragungsmodi ab. Gegenüber anderen geschlossenen Befragungsmodi haben Online-Befragungen eine Reihe von Vorteilen, u. a. die schnellere Durchführbarkeit; die geringeren Erhebungskosten; den Wegfall von Interviewereinflüssen; eine geringere soziale Erwünschtheit; die Möglichkeit der Protokollierung des Befragtenverhaltens; erweiterte Möglichkeiten der optischen Darstellung, der komplexen Filterführung sowie der Variation der Fragereihenfolge.1 Gegenüber offenen haben geschlossene Befragungen v. a. den Vorteil, dass Forschungsergebnisse inferenzstatistisch verallgemeinert werden können. Voraussetzung hierfür ist allerdings, dass eine Zufallsstichprobe aus der Zielgesamtheit vorliegt.2 Um eine Zufallsstichprobe in der Praxis herstellen zu können, sind eine Reihe von Schritten erforderlich:3

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Amt für Statistik Berlin-Brandenburg (2006a): Statistischer Bericht B III ½-j / 06 — Studierende an Hochschulen im Land Brandenburg Wintersemester 2006//2007 Endgültiges Ergebnis. www.statistik-berlin-branden-burg.de/Publikationen/Stat_Berichte/2007/BIII1-2-e_j06_OnlinePDF.pdf (Zugriff: 02.02.08; 11:30Uhr).Google Scholar
  2. Amt für Statistik Berlin-Brandenburg (2006b): Statistischer Bericht B III ½-j 2006 — Studierende an Hochschulen im Land Berlin Wintersemester 2006/2007 Endgültiges Ergebnis. www.statistik-berlin-brandenburg.de /Publikationen/Stat_Berichte/2007/SB_160_1_2006J00_OnlinePDF.pdf (Zugriff: 02.02.08; 11:30Uhr).Google Scholar
  3. Archer, T. M. (2007): Charactistics Associated with Increasing the Response Rates of Web-Based Surveys. In: Practical Assessment, Research & Evaluation, 12/12.Google Scholar
  4. Bandilla, W. (2002): Web Surveys — An Appropriate Mode of Data Collection for the Social Sciences? In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hg.) (2002): Online Social Sciences. Seattle et al., S. 1–6.Google Scholar
  5. Bandilla, W., Bosnjak, M. & Altdorfer, P. (2001): Effekte des Erhebungsverfahrens? Ein Vergleich zwischen einer Webbasierten und einer schriftlichen Befragung zum ISSP-Modul Umwelt. In: ZUMA-Nachrichten, 48, S. 7–28.Google Scholar
  6. Baur, N. (2006): Ausfallgründe bei zufallsgenerierten Telefonstichproben am Beispiel des Gabler-Häder-Designs. In: Faulbaum, F. & Wolf, C. (Hrsg.) (2006): Stichprobenqualität in Bevölkerungsstichproben. Bonn, S. 159–184.Google Scholar
  7. Behnke, J., Baur, N. & Behnke, N. (2006): Empirische Methoden der Politikwissenschaft. Paderborn u. a.Google Scholar
  8. Bosnjak, M., Tuten, T. L. & Bandilla, W. (2001): Participaction in Web Surveys. A Typology. In: ZUMA-Nachrichten, 48, S. 7–17.Google Scholar
  9. Bosnjak, M. & Batinic, B. (2002): Understanding the Willingness to Participate in Online Surveys. The Case of EMail Questionnaires. In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hg.) (2002): Online Social Sciences. Seattle et al., S. 81–92.Google Scholar
  10. Brenner, V. (2002): Generalizability Issues in Internet-Based Survey Research: Implications for the Internet Addiction Controversy. In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hg.) (2002): Online Social Sciences. Seattle et al., S. 93–114.Google Scholar
  11. Burchell, B. (1992): The Effect of Quaestionnaire Length on Survey Response. In: Quality & Quantity, 26, S. 233–244.CrossRefGoogle Scholar
  12. Couper, Mick & Coutts, E. (2006): Online Befragung. Probleme und Chancen verschiedener Online-Erhebungen. In: Diekmann, A. (Hrsg.) (2006): Methoden der Sozialforschung. Wiesbaden, S. 217–243.Google Scholar
  13. De Leeuw, E. (2001): Reducing Missing Data in Surveys: An Overview of Methods. In: Quality & Quantity, 35, S. 147–160.CrossRefGoogle Scholar
  14. Diekmann, A. (2007): Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek.Google Scholar
  15. Dillman, D. A. (2000): Mail and Internet Surveys. The Tailored Design Method. New York et al.Google Scholar
  16. El-Menouar, Y. & Blasius, J. (2005): Abbrüche bei Online-Befragungen. Ergebnisse einer Befragung von Medizinern. In: ZA-Informationen, 56, S. 79–92.Google Scholar
  17. Engel, U., Pötschke, M., Schnabel, C. & Simonson, J. (2004): Nonresponse und Stichprobenqualität. Ausschöpfung in Umfragen der Markt-und Sozialforschung. Frankfurt a. M.Google Scholar
  18. Faas, T. (2003a): Umfragen im Umfeld der Bundestagswahl 2002: Offline und Online im Vergleich In: ZA-Informationen 52, S. 120–135.Google Scholar
  19. Faas, T. (2003b): Offline rekrutierter Access Panels: Königsweg der Online-Forschung? In: ZUMA-Nachrichten 53, S. 58–76.Google Scholar
  20. Faas, T. (2006): Online-Umfragen. Potenziale und Probleme. In: Rehberg, K.-S. (Hrsg.) (2006): Soziale Ungleichheit, kulturelle Unterschiede. Frankurt a.M., S. 4815–4825.Google Scholar
  21. Gabler, Siegfried (2006): Gewichtungsprobleme in der Datenanalyse. In: Diekmann, Andreas (Hrsg.) (2006): Methoden der Sozialforschung. Wiesbaden, S. 128–147Google Scholar
  22. Jäckel, M. & Wollscheid, S. (2004): Mediennutzung im Tagesverlauf: Ausweitung des Angebots und Strukturen der Zeitverwendung. In: Statistisches Bundesamt (Hrsg.) (2004): Alltag in Deutschland. Analysen zur Zeitverwendung. Wiesbaden, S. 373–411.Google Scholar
  23. Knapp, F. & Heidingsfelder, M. (2001): Drop-Out Analysis: The Effects of Research Design. In: Reips, U.-D. & Bosnjak, M. (Hrsg.) (2001): Dimensions of Internet Science. Lengerich et al., S. 221–230.Google Scholar
  24. Lang, R. (2005): Organizational Survey. In: Kühl, S., Strodtholz, P. & Taffertshofer, A. (Hrsg.) (2005): Quantitative Methoden der Organisationsforschung. Ein Handbuch. Wiesbaden, S. 85–114.Google Scholar
  25. Lück, D. (2008): Mängel im Datensatz beseitigen. In: Baur, N. & Fromm, S. (Hrsg.) (2008): Datenanalyse mit SPSS für Fortgeschrittene. Wiesbaden, S. 73–87.Google Scholar
  26. Lukawetz, G. (2002): Empirically Quantifying Unit-Nonresponse-Errors in Online Surveys and Suggestions for Computational Correction Methods. In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hrsg.) (2002): Online Social Sciences. Seattle et al., S. 403–416.Google Scholar
  27. Pötschke, M. & Simonson, J. (2001): Online-Erhebung in der empirischen Sozialforschung: Erfahrungen mit einer Umfrage unter Sozial-, Markt-, und Meinungsforschern. In: ZA-Informationen, 49, S. 6–28.Google Scholar
  28. Schneekloth, U. & Leven, I. (2003): Woran bemisst sich eine ”gute“ Allgemeine Bevölkerungsumfrage? Analysen zu Ausmaß, Bedeutung und zu den Hintergründen von Nonresponse in zufallsbasierten Stichprobenerhebungen am Beispiel des ALLBUS. In: Zuma-Nachrichten, 27/53, S. 16–57.Google Scholar
  29. Schnell, R. (1997): Nonresponse in Bevölkerungsumfragen. Ausmaß, Entwicklung und Ursachen. Opladen.Google Scholar
  30. Schoen, H. (2004): Online-Umfragen — schnell, billig, aber auch valide? Ein Vergleich zweier Internetbefragungen mit persönlichen Interviews zur Bundestagswahl 2002. In: ZA-Informationen, 54, S. 27–52.Google Scholar
  31. Spellerberg, A. (2007): Ländliche Räume in der hoch technisierten Dienstleistungsgesellschaft: Mitten drin oder draußen vor? Vortrag auf der Tagung ”Peripherisierung — eine neue Form sozialer Ungleichheit?“ der Sektion ”Soziale Ungleichheit und Sozialstrukturanalyse“ in der DGS. 22.-23.6.2007, Rostock.Google Scholar
  32. Statistisches Bundesamt (Hrsg.) (2004a): IKT in Deutschland. Informations-und Kommunikationstechnologien 1995 — 2003. Computer, Internet und mehr. Wiesbaden.Google Scholar
  33. Statistisches Bundesamt (Hrsg.) (2006a): Datenreport 2006. Zahlen und Fakten über die Bundesrepublik Deutschland. Bonn, S. 124–129; 430; 524-533; 577.Google Scholar
  34. Statistisches Bundesamt (Hrsg.) (2006b): Informationstechnologie in Haushalten 2005. Tabellenanhang zur Pressebroschüre. Wiesbaden.Google Scholar
  35. Statistisches Bundesamt (Hrsg.) (2006c): Informationstechnologie in Unternehmen und Haushalten 2005. Wiesbaden.Google Scholar
  36. Statistisches Bundesamt (Hrsg.) (2007a): Entwicklung der Informationsgesellschaft. IKT in Deutschland. Ausgabe 2007. Wiesbaden.Google Scholar
  37. Statistisches Bundesamt (Hrsg.) (2007b): IKT in Unternehmen. Nutzung von Informationstechnologie in Unternehmen. Ergebnisse für das Jahr 2006. Wiesbaden.Google Scholar
  38. Statistisches Bundesamt (Hrsg.) (2007c): IKT in Unternehmen. Nutzung von Informationstechnologie in Unternehmen im europäischen Vergleich. Ergebnisse für das Jahr 2006. Wiesbaden.Google Scholar
  39. Statistisches Bundesamt (Hrsg.) (2007d): Private Haushalte in der Informationsgesellschaft. Nutzung von Informations-und Kommunikationstechnologien (IKT) 2006. Wiesbaden.Google Scholar
  40. Stegbauer, C. & Rausch, A. (2002): Lurkers in Mailing Lists. In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hrsg.) (2002): Online Social Sciences. Seattle et al., S. 263–274.Google Scholar
  41. TNS Infratest (Hrsg.) (2007): (N)Onliner Atlas 2007. Eine Topographie des digitalen Grabens durch Deutschland. www.nonliner.de.Google Scholar
  42. Tuten, T. L., Urban, D. J. & Bosnjak, M. (2002): Internet Surveys and Data Quality: A Review. In: Batinic, B., Reips, U.-D. & Bosnjak, M. (Hrsg.) (2002): Online Social Sciences. Seattle et al., S 7-26.Google Scholar
  43. Universität Potsdam (2006): Studierende nach Abschlussarten und Fächergruppen (Stand: 29.11.2006). http://www.uni-potsdam.de/u/verwaltung/dezernat1/statistik/studenten/WS/stabschw_OnlinePDF.pdf (Zugriff: 02.02.08; 11:30Uhr). Graphik 1.Google Scholar
  44. Weber, S. & Brake, A. (2005): Internetbasierte Befragung. In: Kühl, S., Strodtholz, P. & Taffertshofer, A. (Hrsg.) (2005): Quantitative Methoden der Organisationsforschung. Ein Handbuch. Wiesbaden, S. 59–84.Google Scholar

Copyright information

© VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2009

Authors and Affiliations

  • Nina Baur
  • Michael J. Florian

There are no affiliations available

Personalised recommendations