Skip to main content
Log in

Die „Sonntagsfrage“, soziale Erwünschtheit und die AfD: Wie alternative Messmethoden der Politikwissenschaft weiterhelfen können

Vote Intention, Social Desirability Bias, and AfD: How Alternative Measurement Techniques can Improve Political Research

  • Abhandlung
  • Published:
Politische Vierteljahresschrift Aims and scope Submit manuscript

Zusammenfassung

Die Wahlabsichtsfrage, populärwissenschaftlich auch als „Sonntagsfrage“ bezeichnet, wird kritisiert, weil mit ihr der Stimmenanteil der „Alternative für Deutschland“ (AfD) nicht valide zu messen sei. Wir argumentieren, dass alternative Messinstrumente, die Verzerrungen aufgrund von sozialer Erwünschtheit berücksichtigen, besser geeignet sind. Dazu testen wir erstmalig drei alternative Messmethoden – das doppelte Listenexperiment, die kreuzweise Randomisierte-Antwort-Technik und die Weisheit-der-Vielen-Methode – hinsichtlich des geschätzten AfD-Stimmenanteils und vergleichen sie mit der klassischen „Sonntagsfrage“. Unsere Ergebnisse zeigen, dass insbesondere die Weisheit-der-Vielen-Methode eine kostengünstige und gute Erweiterung der politikwissenschaftlichen Fragebatterie ist.

Abstract

In Germany, the standard vote intention survey item has come under attack because it failed to correctly measure the vote share of the German party “Alternative für Deutschland” (AfD). We argue that alternative measurement techniques that aim to reduce social desirability bias are better suited for this task. We test three measurement techniques to forecast AfD vote share—a double list experiment, the crosswise-model randomized response technique, and the wisdom of crowds design—and compare their performance to the standard vote intention item. Our results indicate that the wisdom of crowds design is an easily implementable and promising addition to political scientists’ toolbox of survey items.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Subscribe and save

Springer+ Basic
$34.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or eBook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2
Abb. 3
Abb. 4

Notes

  1. In Abhängigkeit vom durchführenden Meinungsforschungsinstitut kann die genaue Formulierung der „Sonntagsfrage“ leicht abweichen (Groß 2010, S. 48).

  2. Wir können anhand unserer Daten und der vorgestellten Verfahren nicht herausfinden, inwiefern weitere Fehlerquellen Einfluss auf den Vorhersagefehler der „Sonntagsfrage“ nehmen, obwohl sie auch sehr relevant sein könnten. Etwa könnten Befragte zwischen Befragung und Stimmabgabe noch ihre Meinung ändern. Zudem könnte es zu Selektionseffekten durch Nicht-Teilnahme bzw. Antwortverweigerung kommen, die gerade bei sogenannten Protestwählerinnen und -wählern wahrscheinlich sind.

  3. Eine äußerst seltene Ausnahme sind Fälle, in denen die Forscherinnen und Forscher jederzeit wissen, wie groß der Fehler ist und ihn deshalb korrigieren können. Ebenso können auch Veränderungen zwischen fehlerhaften Ergebnissen aussagekräftig sein, wenn die Fehler bei allen Messungen gleichgroß sind.

  4. Zur Überprüfung dieser Annahme haben wir die Verteilung der ersten Ziffern der Hausnummern aller GIP-Befragten ausgewertet. Da es sich um eine repräsentative Stichprobe handelt, zeigt diese Auswertung, dass die Verteilungsannahme gerechtfertigt ist, und dass circa 70 % der Hausnummern in Deutschland mit Ziffern zwischen 1 und 4 beginnen. Abb. 6 im Online-Anhang verdeutlicht dies.

  5. Selbstverständlich könnte es auch eine Frage sein, der niemand zustimmt.

  6. Yu et al. (2008) bestimmen auch die Variabilität des Schätzers analytisch. Aus unten genannten Gründen verwenden wir aber die durch Bootstrapping bestimmte Variabilität.

  7. Der genaue Wortlaut der Frage ist: „Wie viele dieser Punkte werden Sie wahrscheinlich in den nächsten drei Monaten tun?“.

  8. Auch Droitcour et al. (1991) bestimmen die Variabilität des Schätzers analytisch. Im Gegensatz dazu nutzen wir jedoch Bootstrap-Standardfehler, um die Vergleichbarkeit der getesteten Methoden zu wahren.

  9. Die Variabilität des Schätzers ist deshalb die übliche Variabilität des Mittelwertes.

  10. Wir stellen in der Tabelle nur Befragte dar, die die „Sonntagsfrage“, die WdV-Frage sowie entweder die RAT-Fragen oder beide ICT-Fragen gestellt bekommen haben. 17 Befragte beantworteten die „Sonntagsfrage“, stiegen dann aber aus der Umfrage aus, bevor die anderen Fragen gestellt werden konnten.

  11. In Online-Anhang zeigen wir, dass die zufällige Aufteilung erreicht, dass die Befragtengruppen in wesentlichen anderen Merkmalen gleich sind und daher Unterschiede zwischen den Gruppen auf die Gruppenzugehörigkeit (Fragetyp) zurückzuführen sind.

  12. Publizierte Umfragen werden freundlicherweise vom Internetportal wahlrecht.de gesammelt und aufbereitet (http://www.wahlrecht.de/umfragen/).

  13. Knapp 5 % der Befragten verweigern auf die „Sonntagsfrage“ die Antwort, weil sie ihre Wahlintention nicht preisgeben wollen. Einige Befragte tun dies vermutlich auch aufgrund sozialer Erwünschtheit.

  14. 13,7 % der Befragten antworten auf die „Sonntagsfrage“ mit „weiß nicht“, wozu auch unentschlossene Wähler gehören können.

  15. Allerdings ist absehbar, dass der Markt an (online implementierten) Umfrageinstrumenten mit einem größeren Stichprobenumfang wachsen wird. Solange diese größeren Stichproben auch qualitativ hoch sind, könnte dies die geringe Effizienz der verwendeten Methoden möglicherweise ausgleichen. Wir danken dem zweiten Gutachten für diesen wertvollen Hinweis.

  16. Wir danken dem anonymen Gutachter/der anonymen Gutachterin für diesen hervorragenden Hinweis.

  17. Die Wahlabsichtsfrage ist ein Instrument basierend auf nur einer Frage. Die Analyse nimmt an, dass wir diese Wahlabsicht ohne Messfehler messen können. Denkbar ist aber auch, dass sich Befragte bei der Wahlabsichtsfrage unsicher sind und daher inkonsistente Antworten geben, wenn sie erneut zu einer Wahlabsicht befragt werden. Außerdem könnte diese Unsicherheit auch dazu führen, dass, obwohl Befragte angeben, AfD zu wählen, sie dies aber am Wahltag nicht tun.

  18. CDU und CSU wurden dabei als CDU/CSU abgefragt.

  19. Entsprechende Tests zeigen, dass der Korrelationskoeffizient 0,25 beträgt und statistisch signifikant ist (p < 0,001).

  20. Befragte, die nicht beide Fragen beantworten, wurden bereits in den anderen Analysen ausgeschlossen. Wir tun dies auch hier.

  21. Genau genommen handelt es sich um die Wahrscheinlichkeit, mehr affirmative Antworten in der Treatmentliste des doppelten Listenexperiments zu geben als in der Kontrollliste. Da wir davon ausgehen können, dass die Randomisierung in Experimentalgruppen funktioniert (siehe Online-Anhang), entspricht diese Wahrscheinlichkeit aber genau der Wahrscheinlichkeit, in den nächsten drei Monaten AfD zu wählen. Wir danken dem anonymen Gutachter/der anonymen Gutachterin für diesen sehr hilfreichen Hinweis.

Literatur

  • Adams, James, Michael Clark, Lawrence Ezrow, und Garrett Glasgow. 2004. Understanding change and stability in party ideologies: do parties respond to public opinion or to past election results? British Journal of Political Science 34(4):589–610. https://doi.org/10.1017/S0007123404000201.

    Article  Google Scholar 

  • Adams, James F., Samuel Merrill, und Bernard Grofman. 2005. A unified theory of party competition: a cross-national analysis integrating spatial and behavioral factors. Cambridge: Cambridge University Press.

    Book  Google Scholar 

  • Aichholzer, Julian, Sylvia Kritzinger, Markus Wagner, und Eva Zeglovits. 2014. How has radical right support transformed established political conflicts? The case of Austria. West European Politics 37(1):113–137. https://doi.org/10.1080/01402382.2013.814956.

    Article  Google Scholar 

  • Bergmann, Knut, und Matthias Diermeier. 2017. Die AfD: Eine unterschätzte Partei. Soziale Erwünschtheit als Erklärung für fehlerhafte Prognosen. No. 7/2017. IW-Report.

    Google Scholar 

  • Blom, Annelies G., Jessica M. E. Herzing, Carina Cornesse, Joseph W. Sakshaug, Ulrich Krieger, und Dayana Bossert. 2017. Does the recruitment of offline households increase the sample representativeness of probability-based online panels? Evidence from the German Internet panel. Social Science Computer Review 35(4):498–520. https://doi.org/10.1177/0894439316651584.

    Article  Google Scholar 

  • Boland, Philip J. 1989. Majority systems and the condorcet jury theorem. Journal of the Royal Statistical Society. Series D (The Statistician) 38(3):181–189. https://doi.org/10.2307/2348873.

    Google Scholar 

  • Boruch, Robert F. 1971. Assuring confidentiality of responses in social research: a note on strategies. The American Sociologist 6(4):308–311. https://doi.org/10.2307/27701807.

    Google Scholar 

  • Bräuninger, Thomas. 2009. Responsivität und strategische Adaption im Parteienwettbewerb in den deutschen Bundesländern. In Parteienwettbewerb, Wählerverhalten und Koalitionsbildung: Festschrift zum 70. Geburtstag von Franz Urban Pappi, Hrsg. Christian Henning, Eric Linhart, und Susumu Shikano, 27–46. Baden-Baden: Nomos.

    Chapter  Google Scholar 

  • Bräuninger, Thomas, und Marc Debus. 2012. Parteienwettbewerb in den deutschen Bundesländern. Wiesbaden: Springer VS.

    Book  Google Scholar 

  • de Condorcet, Marquis. 1785. Essai sur l’application de l’analyse à la probabilité des décisions rendues à la pluralité des voix. Paris: De I’Imprimerie Royale.

    Google Scholar 

  • Coutts, Elisabeth, und Ben Jann. 2011. Sensitive questions in online surveys: experimental results for the Randomized Response Technique (RRT) and the Unmatched Count Technique (UCT). Sociological Methods & Research 40(1):169–193. https://doi.org/10.1177/0049124110390768.

    Article  Google Scholar 

  • Crowne, Douglas P., und David Marlowe. 1960. A new scale of social desirability independent of psychopathology. Journal of Consulting Psychology 24(4):349–354. https://doi.org/10.1037/h0047358.

    Article  Google Scholar 

  • Diekmann, Andreas. 2012. Making use of “Benford’s law” for the randomized response technique. Sociological Methods & Research 41(2):325–334. https://doi.org/10.1177/0049124112452525.

    Article  Google Scholar 

  • Droitcour, Judith, Rachel A. Caspar, Michael L. Hubbard, Teresa L. Parsley, Wendy Visscher, und Trena M. Ezzati. 1991. The item-count technique as a method of indirect questioning: a review of its development and a case study application. In Measurement errors in surveys, Hrsg. Paul P. Biemer, Robert M. Groves, Lars E. Lyberg, Nancy A. Mathiowetz, und Seymour Sudman, 185–210. Hoboken: John Wiley & Sons Inc.

    Google Scholar 

  • Evans, Jocelyn, und Gilles Ivaldi. 2010. Comparing forecast models of Radical Right voting in four European countries (1973–2008). International Journal of Forecasting 26(1):82–97. https://doi.org/10.1016/J.IJFORECAST.2009.04.001.

    Article  Google Scholar 

  • Galton, Francis. 1907. Vox populi. Nature 75:450–451.

    Article  Google Scholar 

  • Glynn, Adam N. 2013. What can we learn with statistical truth serum? Public Opinion Quarterly 77(S1):159–172. https://doi.org/10.1093/poq/nfs070.

    Article  Google Scholar 

  • Graefe, Andreas. 2014. Accuracy of vote expectation surveys in forecasting elections. Public Opinion Quarterly 78(S1):204–232. https://doi.org/10.1093/poq/nfu008.

    Article  Google Scholar 

  • Grofman, Bernard, Guillermo Owen, und Scott L. Feld. 1983. Thirteen theorems in search of the truth. Theory and Decision 15(3):261–278. https://doi.org/10.1007/BF00125672.

    Article  Google Scholar 

  • Groß, Jochen. 2010. Die Prognose von Wahlergebnissen. Ansätze und empirische Leistungsfähigkeit. Wiesbaden: Springer VS.

    Book  Google Scholar 

  • Höglinger, Marc, und Andreas Diekmann. 2017. Uncovering a blind spot in sensitive question research: false positives undermine the crosswise-model RRT. Political Analysis 25(1):131–137. https://doi.org/10.1017/pan.2016.5.

    Article  Google Scholar 

  • Höglinger, Marc, Ben Jann, und Andreas Diekmann. 2016. Sensitive questions in online surveys: an experimental comparison of the randomized response technique and the crosswise model. Survey Research Methods 10(3):171–187. https://doi.org/10.18148/srm/2016.v10i3.6703.

    Google Scholar 

  • Jann, Ben, Julia Jerke, und Ivar Krumpal. 2012. Asking sensitive questions using the crosswise model: an experimental survey measuring plagiarism. Public Opinion Quarterly 76(1):32–49. https://doi.org/10.1093/poq/nfr036.

    Article  Google Scholar 

  • Johann, David, Kathrin Thomas, Thorsten Faas, und Sebastian Fietkau. 2016. Alternative Messverfahren rechtspopulistischen Wählens im Vergleich: Empirische Erkenntnisse aus Deutschland und Österreich. In Wahlen und Wähler: Analysen aus Anlass der Bundestagswahl 2013, Hrsg. Harald Schoen, Bernhard Weßels, 447–470. Wiesbaden: Springer.

    Google Scholar 

  • Kollman, Ken, John H. Miller, und Scott E. Page. 1992. Adaptive parties in spatial elections. American Political Science Review 86(4):929–937. https://doi.org/10.2307/1964345.

    Article  Google Scholar 

  • Kreuter, Frauke, Stanley Presser, und Roger Tourangeau. 2008. Social desirability bias in CATI, IVR, and web surveys: the effects of mode and question sensitivity. Public Opinion Quarterly 72(5):847–865. https://doi.org/10.1093/poq/nfn063.

    Article  Google Scholar 

  • Krogh, Anders, und Jesper Vedelsby. 1994. Neural network ensembles, cross validation and active learning. Proceedings of the 7th International Conference on Neural Information Processing Systems. NIPS’94., 231–238. Cambridge: MIT Press.

    Google Scholar 

  • Krosnick, Jon A. 1991. Response strategies for coping with the cognitive demands of attitude measures in surveys. Applied Cognitive Psychology 5(3):213–236. https://doi.org/10.1002/acp.2350050305.

    Article  Google Scholar 

  • Krosnick, Jon A. 1999. Survey research. Annual Review of Psychology 50(1):537–567. https://doi.org/10.1146/annurev.psych.50.1.537.

    Article  Google Scholar 

  • Krumpal, Ivar. 2012. Estimating the prevalence of xenophobia and anti-semitism in Germany: a comparison of randomized response and direct questioning. Social Science Research 41(6):1387–1403. https://doi.org/10.1016/j.ssresearch.2012.05.015.

    Article  Google Scholar 

  • Kuklinski, James H., Paul M. Sniderman, Kathleen Knight, Thomas Piazza, Philip E. Tetlock, Gordon R. Lawrence, und Barbara Mellers. 1997. Racial prejudice and attitudes toward affirmative action. American Journal of Political Science 41:402–419.

    Article  Google Scholar 

  • Lehmbruch, Gerhard. 2000. Parteienwettbewerb im Bundesstaat: Regelsysteme und Spannungslagen im politischen System der Bundesrepublik Deutschland. Wiesbaden: Springer VS.

    Book  Google Scholar 

  • Lewandowsky, Marcel. 2015. Eine rechtspopulistische Protestpartei? Die AfD in der öffentlichen und politikwissenschaftlichen Debatte. Zeitschrift für Politikwissenschaft 25(1):119–134. https://doi.org/10.5771/1430-6387-2015-1-119.

    Article  Google Scholar 

  • Lewandowsky, Marcel, Heiko Giebler, und Aiko Wagner. 2016. Rechtspopulismus in Deutschland. Eine empirische Einordnung der Parteien zur Bundestagswahl 2013 unter besonderer Berücksichtigung der AfD. Politische Vierteljahresschrift 57(2):247–275. https://doi.org/10.5771/0032-3470-2016-2-247.

    Article  Google Scholar 

  • Lewis-Beck, Michael S. 2005. Election forecasting: principles and practice. The British Journal of Politics and International Relations 7(2):145–164. https://doi.org/10.1111/j.1467-856X.2005.00178.x.

    Article  Google Scholar 

  • Lewis-Beck, Michael S., und Andrew Skalaban. 1989. Citizen forecasting: can voters see into the future? British Journal of Political Science 19(1):146–153. https://doi.org/10.1017/S000712340000538X.

    Article  Google Scholar 

  • Lewis-Beck, Michael S., und Mary Stegmaier. 2011. Citizen forecasting: can UK voters see the future? Electoral Studies 30(2):264–268. https://doi.org/10.1016/j.electstud.2010.09.012.

    Article  Google Scholar 

  • Lewis-Beck, Michael S., und Charles Tien. 1999. Voters as forecasters: a micromodel of election prediction. International Journal of Forecasting 15(2):175–184. https://doi.org/10.1016/S0169-2070(98)00063-6.

    Article  Google Scholar 

  • List, Christian, und Robert E. Goodin. 2001. Epistemic democracy: generalizing the condorcet jury theorem. Journal of Political Philosophy 9(3):277–306. https://doi.org/10.1111/1467-9760.00128.

    Article  Google Scholar 

  • Munzert, Simon, Lukas Stötzer, Thomas Gschwend, Marcel Neunhoeffer, und Sebastian Sternberg. 2017. Zweitstimme.org. Ein strukturell-dynamisches Vorhersagemodell für Bundestagswahlen. Politische Vierteljahresschrift 58(3):418–441. https://doi.org/10.5771/0032-3470-2017-3-418.

    Article  Google Scholar 

  • Murr, Andreas E. 2011. ‘Wisdom of crowds’ ? A decentralised election forecasting model that uses citizens’ local expectations. Electoral Studies 30(4):771–783. https://doi.org/10.1016/j.electstud.2011.07.005.

    Article  Google Scholar 

  • Murr, Andreas E. 2015. The wisdom of crowds: applying Condorcet’s jury theorem to forecasting US presidential elections. International Journal of Forecasting 31(3):916–929. https://doi.org/10.1016/j.ijforecast.2014.12.002.

    Article  Google Scholar 

  • Murr, Andreas E. 2016. The wisdom of crowds: What do citizens forecast for the 2015 British General Election? Electoral Studies 41:283–288. https://doi.org/10.1016/j.electstud.2015.11.018.

    Article  Google Scholar 

  • Murr, Andreas E. 2017. Wisdom of crowds. In Handbook of political behavior, Hrsg. Kai Arzheimer, Jocelyn Evans, und Michael S. Lewis-Beck, 835–860. Los Angeles: SAGE.

    Google Scholar 

  • Page, Scott E. 2007. The difference: how the power of diversity creates better groups, firms, schools, and societies. Princeton: Princeton University Press.

    Google Scholar 

  • Phillips, Derek L., und Kevin J. Clancy. 1972. Some effects of „social desirability“ in survey studies. American Journal of Sociology 77(5):921. https://doi.org/10.1086/225231.

    Article  Google Scholar 

  • Rosenfeld, Bryn, Kosuke Imai, und Jacob N. Shapiro. 2016. An empirical validation study of popular survey methodologies for sensitive questions. American Journal of Political Science 60(3):783–802. https://doi.org/10.1111/ajps.12205.

    Article  Google Scholar 

  • Rosenfelder, Joel. 2017. Die Programmatik der AfD: Inwiefern hat sie sich von einer primär euroskeptischen zu einer rechtspopulistischen Partei entwickelt? Zeitschrift für Parlamentsfragen 48(1):123–140. https://doi.org/10.5771/0340-1758-2017-1-123.

    Article  Google Scholar 

  • Roth, Dieter, und Andreas M. Wüst. 2015. Missgeschick oder Trend? Zur Prognosetauglichkeit von Wahlumfragen. Zeitschrift für Staats- und Europawissenschaften 13(2):298–330. https://doi.org/10.5771/1610-7780-2015-2-298.

    Article  Google Scholar 

  • Schmitt-Beck, Rüdiger, Hans Rattinger, Sigrid Roßteutscher, Bernhard Weßels, Christof Wolf, Ina Bieber, Manuela S. Blumenberg, Jan Eric Blumenstiel, Thorsten Faas, André Förster, Heiko Giebler, Isabella Glogger, Tobias Gummer, Sascha Huber, Mona Krewel, Patrick Lamers, Jürgen Maier, Julia Partheymüller, Thomas Plischke, Joss Roßmann, Anne Schäfer, Philipp Scherer, Markus Steinbrecher, Aiko Wagner, und Elena Wiegand. 2014. Zwischen Fragmentierung und Konzentration: Die Bundestagswahl 2013. Baden-Baden: Nomos.

    Book  Google Scholar 

  • Schnell, Rainer, und Marcel Noack. 2014. The accuracy of pre-election polling of German general elections. Methods, Data, Analyses 8(1):5–24. https://doi.org/10.12758/mda.2014.001.

    Google Scholar 

  • Surowiecki, James. 2004. The wisdom of the crowd: why the many are smarter than the few. London: Abacus.

    Google Scholar 

  • Wüst, Andreas M. 2003. Stimmung, Projektion, Prognose? In Politibarometer, Hrsg. Andreas M. Wüst, 83–107. Wiesbaden: Springer VS.

    Chapter  Google Scholar 

  • Yu, Jun-Wu, Guo-Liang Tian, und Man-Lai Tang. 2008. Two new models for survey sampling with sensitive characteristic: design and analysis. Metrika 67(3):251–263. https://doi.org/10.1007/s00184-007-0131-x.

    Article  Google Scholar 

Download references

Danksagung

Für hilfreiche Kommentare danken wir den anonymen Gutachterinnen und Gutachtern sowie Christel Selzer für ihre redaktionelle Arbeit am Manuskript. Ebenso möchten wir uns beim Team des German Internet Panels (GIP) und insbesondere Ulrich Krieger für die hervorragende Unterstützung bedanken. Die Forschung, die diesem Artikel zugrunde liegt, wurde maßgeblich von der DFG durch den Sonderforschungsbereich 884 „Politische Ökonomie von Reformen“ (Teilprojekte C2 und C4) an der Universität Mannheim finanziert. Sebastian Juhls Forschung wurde zusätzlich vom Center for Doctoral Studies in Social and Behavioral Sciences an der Graduate School of Economic and Social Sciences der Universität Mannheim unterstützt.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Roni Lehrer.

Caption Electronic Supplementary Material

11615_2018_106_MOESM1_ESM.pdf

Online-Material beinhaltet Evidenz, dass die Randomisierung in die Gruppen die Ergebnisse nicht verzerrt, einen Überblick über die Häufigkeitsverteilung der ersten Ziffer der Hausnummern der GIP-Befragten sowie eine Replikation der Analysen in Abschnitt 4.1 mit Ausschluss nach abgelaufener Zeit in Sekunden

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Gschwend, T., Juhl, S. & Lehrer, R. Die „Sonntagsfrage“, soziale Erwünschtheit und die AfD: Wie alternative Messmethoden der Politikwissenschaft weiterhelfen können. Polit Vierteljahresschr 59, 493–519 (2018). https://doi.org/10.1007/s11615-018-0106-8

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s11615-018-0106-8

Schlüsselwörter

Keywords

Navigation