Zusammenfassung
Digitale Kommunikationsumgebungen wie soziale Netzwerke und Messengerdienste bieten vielfältige Möglichkeiten zur Auseinandersetzung mit einer Vielzahl von Themen und Ansichten und zur Teilhabe an gesellschaftlich und politisch relevanten öffentlichen Diskursen. Sie tragen gleichzeitig aber auch zu „tiefgreifenden gesellschaftlichen Wandlungsprozessen“ (Knüpfer et al., 2020: 83) und zur Entstehung dissonanter Öffentlichkeitskonstellationen bei, die mit einer Reihe von potenziellen Risiken und Herausforderungen für die private und öffentliche Meinungsbildung einhergehen (Stark et al., 2020). Die über diese Kanäle verbreiteten Ansichten und Informationen sind häufig ungeprüft, fehlerbehaftet und nicht unabhängig.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
Ein absolutes Verbot von Social Bots ist unter dem Gesichtspunkt der Meinungsfreiheit zu verwerfen. Eine Einschränkung der Meinungsfreiheit unterliegt dem Grundsatz der Verhältnismässigkeit und lässt sich nur dadurch begründen, wenn sie dem öffentlichen Interesse dient oder durch den Schutz der Grundrechte Dritter gerechtfertigt ist (Oehmer & Pedrazzi, 2020).
- 2.
Einheitliche Definitionen hierzu fehlen. In der Literatur sind die mehrheitlich aus dem Englischen entlehnten Begriffe Desinformation, Misinformation und früher auch Fake News anzufinden, die teilweise synonym verwendet werden. Die Unterscheidung zwischen Misinformation und Desinformation erfolgt meistens auf der Ebene des:r Urhebers:in, dem:r im Falle von Desinformation eine böswillige Absicht oder zumindest wissentliches Handeln unterstellt wird. Ob dem:r (oft unbekannten) Urheber:in allerdings eine täuschende oder böswillige Absicht unterstellt werden kann, ist in den meisten Fällen nicht eindeutig. Dementsprechend fehlt es dem Begriff Desinformation an Trennschärfe für empirische Untersuchungen, weshalb in diesem Beitrag der Begriff Misinformation verwendet wird, wenn es um falsche oder irreführende Inhalte geht, unabhängig von der dahinterstehenden Absicht.
Literatur
Abelson, H., Anderson, R., Bellovin, S. M., Benaloh, J., Blaze, M., & Callas, Jon et al. (2021). Bugs in our pockets: The risks of client-side scanning. arXiv preprint arXiv:2110.07450. https://doi.org/10.48550/arXiv.2110.07450.
Avram, M., Micallef, N., Patil, S., & Menczer, F. (2020). Exposure to social engagement metrics increases vulnerability to misinformation. In: Harvard Kennedy School (HKS) Misinformation Review 1 (5). https://doi.org/10.37016/mr-2020-033.
Bennett, W. L., & Livingston, S. (2018). The disinformation order: Disruptive communication and the decline of democratic institutions. European Journal of Communication, 33(2), 122–139. https://doi.org/10.1177/0267323118760317
Bessi, A., Coletto, M., Davidescu, G. A., Scala, A., Caldarelli, G., & Quattrociocchi, W. (2015). Science vs conspiracy: Collective narratives in the age of misinformation. In: PLOS ONE 10 (2), e0118093. https://doi.org/10.1371/journal.pone.0118093.
Bessi, A., & Ferrara, E. (2016). Social bots distort the 2016 US Presidential election online discussion. In: First Monday 21 (11). https://doi.org/10.5210/fm.v21i11.7090.
Bobkowski, P. S. (2015). Sharing the news: Effects of informational utility and opinion leadership on online news sharing. Journalism & Mass Communication Quarterly, 92(2), 320–345. https://doi.org/10.1177/1077699015573194
Bode, L., & Vraga, E. K. (2018). See something, say something: Correction of global health misinformation on social media. Health Communication, 33(9), 1131–1140. https://doi.org/10.1080/10410236.2017.1331312
Broniatowski, D. A., Jamison, A. M., Qi, S., AlKulaib, L., Chen, T., Benton, A., &, et al. (2018). Weaponized health communication: Twitter bots and russian trolls amplify the vaccine debate. American Journal of Public Health, 108(10), 1378–1384. https://doi.org/10.2105/ajph.2018.304567
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., & et al. (2020). Language models are few-shot learners. In: ArXiv e-prints, arXiv:2005.14165. https://doi.org/10.48550/arXiv.2005.14165.
Caldarelli, G., De Nicola, R., Del Vigna, F., Petrocchi, M., & Saracco, F. (2020). The role of bot squads in the political propaganda on Twitter. In: Communications Physics 3 (1). https://doi.org/10.1038/s42005-020-0340-4.
Cammaerts, B., & Mansell, R. (2020). Digital platform policy and regulation: Toward a radical democratic turn. International Journal of Communication, 14, 135–154.
Carey, J. M., Chi, V., Flynn, D. J., Nyhan, B., & Zeitzoff, T. (2020) The effects of corrective information about disease epidemics and outbreaks: Evidence from Zika and yellow fever in Brazil. Science Advances 6(5), eaaw7449. https://doi.org/10.1126/sciadv.aaw7449.
Chan, M.-pui S., Jones, C. R., Hall Jamieson, K., & Albarracín, D. (2017). Debunking: A meta-analysis of the psychological efficacy of messages countering misinformation. Psychological Science, 28(11), 1531–1546. https://doi.org/10.1177/0956797617714579
Cheng, C., Luo, Y., & Yu, C. (2020). Dynamic mechanism of social bots interfering with public opinion in network. Physica A: Statistical Mechanics and its Applications, 551, 124163. https://doi.org/10.1016/j.physa.2020.124163
Clayton, K., Blair, S., Busam, J. A., Forstner, S., Glance, J., Green, G., & et al. (2019). Real solutions for fake news? Measuring the effectiveness of general warnings and fact-check tags in reducing belief in false stories on social media. Political Behavior. https://doi.org/10.1007/s11109-019-09533-0.
Davis, C. A., Varol, O., Ferrara, E., Flammini, A., & Menczer, F. (2016). BotOrNot: A system to evaluate social bots. In: Proceedings of the 25th International Conference Companion on World Wide Web (S. 273–274). Montréal, QC. https://doi.org/10.1145/2872518.2889302.
Dechêne, A., Stahl, C., Hansen, J., & Wänke, M. (2010). The truth about the truth: A meta-analytic review of the Truth Effect. Personality and Social Psychology Review, 14(2), 238–257. https://doi.org/10.1177/1088868309352251
Edwards, C., Beattie, A. J., Edwards, A., & Spence, P. R. (2016). Differences in perceptions of communication quality between a Twitterbot and human agent for information seeking and learning. Computers in Human Behavior, 65, 666–671. https://doi.org/10.1016/j.chb.2016.07.003
Edwards, C., Edwards, A., Spence, P. R., & Shelton, A. K. (2014). Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter. Computers in Human Behavior, 33, 372–376. https://doi.org/10.1016/j.chb.2013.08.013
Ehm, S. (13. April 2019). Wahlkampf mit dem Social Bot. ZDF Online. https://headtopics.com/de/zdfcheck19-wahlkampf-mit-dem-social-bot-5303520.
Fan, R., Talavera, O., & Tran, V. (2020). Social media bots and stock markets. European Financial Management, 26(3), 753–777. https://doi.org/10.1111/eufm.12245
Ferrara, E., Varol, O., Davis, C., Menczer, F., & Flammini, A. (2016). The rise of social bots. Communications of the ACM, 59(7), 96–104. https://doi.org/10.1145/2818717
Ferree, M. M., Gamson, W. A., Gerhards, J., & Rucht, D. (2002). Four models of the public sphere in modern democracies. Theory and Society, 31(3), 289–324. https://doi.org/10.1023/A:1016284431021
Franklin, S., & Graesser, A. (1997). Is it an agent, or just a program?: A taxonomy for autonomous agents. In J. P. Müller, M. J. Wooldridge, & N. R. Jennings (Hrsg.), Intelligent Agents III Agent Theories, Architectures, and Languages (S. 21–35). Springer.
Fürst, S. (2021). Neue Öffentlichkeitsdynamiken: Zu selbstverstärkenden, plattformübergreifenden Effekten von ‚Popularität‘. In M. Eisenegger, M. Prinzing, N. R. Ettinger & R. Blum, R. (Hrsg.), Digitaler Strukturwandel der Öffentlichkeit: Historische Verortung, Modelle und Konsequenzen (S. 339–359). Springer.
Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Hrsg.), Media technologies: Essays on communication, materiality, and society (S. 167–194). The MIT Press.
Gillespie, T. (2018). Governance of and by platforms. In J. Burgess, A. Marwick, & T. Poell (Hrsg.), The SAGE handbook of social media (S. 254–278). SAGE Publications Ltd.
Gorwa, R. (2019). What is platform governance? Information, Communication & Society, 22(6), 854–871. https://doi.org/10.1080/1369118X.2019.1573914
Gorwa, R., & Guilbeault, D. (2020). Unpacking the social media bot: A typology to guide research and policy. Policy & Internet, 12(2), 225–248. https://doi.org/10.1002/poi3.184
Gritsenko, D., & Wood, M. (2022). Algorithmic governance: A modes of governance approach. Regulation & Governance, 16(1), 45–62. https://doi.org/10.1002/poi3.184
Halvani, O., Freifrau Heereman von Zuydtwyck, W., Herfert, M., Kreutzer, M., Liu, H., Simo Fhom, H.-C., & et al. (2020). Automatisierte Erkennung von Desinformationen. In M. Steinebach, K. Bader, L. Rinsdorf, N. Krämer & A. Roßnagel (Hrsg.), Desinformation aufdecken und bekämpfen: Interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität 1 (Bd. 45, S. 101–148). Nomos.
Helberger, N., Pierson, J., & Poell, T. (2018). Governing online platforms: From contested to cooperative responsibility. The Information Society, 34(1), 1–14. https://doi.org/10.1080/01972243.2017.1391913
Hermann, Jonas (18. Dezember 2018). Unterwandern Social Bots die Politik? In: NZZ Online. https://www.nzz.ch/international/social-bots-bedrohung-oder-hysterie-ld.1445732?reduced=true. [23.09.2022].
Hjarvard, S. (2018). Public service in the age of social network media. In G. F. Lowe, H. Van den Bulck & K. Donders (Hrsg.), Public service media in the networked society (S. 59–74). Nordicom.
Horowitz, M., Cushion, S., Dragomir, M., Gutiérrez Manjón, S., & Pantti, M. (2022). A framework for assessing the role of public service media organizations in countering disinformation. Digital Journalism, 10(5), 843–865. https://doi.org/10.1080/21670811.2021.1987948
Howard, P. N., & Kollanyi, B. (2016). Bots, #strongerIn, and #brexit: Computational propaganda during the UK-EU referendum. Abrufbar auf SSRN: https://doi.org/10.2139/ssrn.2798311.
Howard, P. N., Woolley, S., & Calo, R. (2018). Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics, 15(2), 81–93. https://doi.org/10.1080/19331681.2018.1448735
Jarren, O. (2019). Fundamentale Institutionalisierung: Social Media als neue globale Kommunikationsinfrastruktur. Publizistik, 64(2), 163–179. https://doi.org/10.1007/s11616-019-00503-4
Jolley, D., & Paterson, J. L. (2020). Pylons ablaze: Examining the role of 5G COVID-19 conspiracy beliefs and support for violence. British Journal of Social Psychology, 59(3), 628–640. https://doi.org/10.1111/bjso.12394
Just, N., & Latzer, M. (2017). Governance by algorithms: Reality construction by algorithmic selection on the Internet. Media Culture & Society, 39(2), 238–258. https://doi.org/10.1177/0163443716643157
Katzenbach, C. (2018). Die Regeln digitaler Kommunikation: Governance zwischen Norm, Diskurs und Technik. Springer VS.
Katzenbach, C. (2020). Die Governance sozialer Medien. In J.-H. Schmidt & M. Taddicken (Hrsg.), Handbuch Soziale Medien (S. 1–24). Springer Fachmedien Wiesbaden.
Katzenbach, C., & Ulbricht, L. (2019). Algorithmic governance. Internet Policy Review 8(4), 1–18. https://doi.org/10.14763/2019.4.1424.
Keller, T. R., & Klinger, U. (2019). Social bots in election campaigns: Theoretical, empirical, and methodological implications. Political Communication, 36(1), 171–189. https://doi.org/10.1080/10584609.2018.1526238
Knobloch-Westerwick, S., Sharma, N., Hansen, D. L., & Alter, S. (2005). Impact of popularity indications on readers’ selective exposure to online news. Journal of Broadcasting & Electronic Media, 49(3), 296–313. https://doi.org/10.1207/s15506878jobem4903_3
Knüpfer, C., Pfetsch, B., & Heft, A. (2020). Demokratischer Wandel, dissonante Öffentlichkeit und die Herausforderungen vernetzter Kommunikationsumgebungen. In M. Oswald & I. Borucki (Hrsg.), Demokratietheorie im Zeitalter der Frühdigitalisierung (S. 83–101). Springer Fachmedien Wiesbaden.
Kruschinski, S., Jürgens, P., Stark, B., Maurer, M., & Schemer, C. (2019). In search of the known unknowns. The methodological challenges in developing a heuristic multi-feature framework for detecting social bot behavior on Facebook. In P. Müller, S. Geiss, C. Schemer, T. K. Naab & C. Peter (Hrsg.), Dynamische Prozesse der öffentlichen Kommunikation: Methodische Herausforderungen (S. 103–146). Herbert von Halem Verlag.
Kunda, Z. (1990). The case for motivated reasoning. Psychological bulletin, 108(3), 480–498. https://doi.org/10.1037/0033-2909.108.3.480
Langvardt, K. (2018). A New Deal for the online public sphere. George Mason Law Review, 26(1), 341–394.
Latzer, M., & Festic, N. (2019). A guideline for understanding and measuring algorithmic governance in everyday life. Internet Policy Review 8(2). https://doi.org/10.14763/2019.2.1415.
Latzer, M., & Just, N. (2020). Governance by and of Algorithms on the Internet: Impact and Consequences. Oxford University Press.
Lewandowsky, S., Ecker, U., & K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and its correction. Psychological Science in the Public Interest, 13(3), 106–131. https://doi.org/10.1177/1529100612451018
Lewandowsky, S., & Van Der Linden, S. (2021). Countering misinformation and fake news through inoculation and prebunking. In: European Review of Social Psychology (S. 1–38). https://doi.org/10.1080/10463283.2021.1876983.
Löber, L. I., & Roßnagel, A. (2020). Desinformation aus der Perspektive des Rechts. In M. Steinebach, K. Bader, L. Rinsdorf, N. Krämer & A. Roßnagel. (Hrsg.), Desinformation aufdecken und bekämpfen: Interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität 1 (Bd. 45, S. 149–194). Nomos.
Loomba, S., De Figueiredo, A., Piatek, S. J., De Graaf, K., & Larson, H. J. (2021). Measuring the impact of COVID-19 vaccine misinformation on vaccination intent in the UK and USA. Nature Human Behaviour, 5(3), 337–348. https://doi.org/10.1038/s41562-021-01056-1
Makhortykh, M., Urman, A., Münch, F. V., Heldt, A., Dreyer, S., & Kettemann, M. C. (2022). Not all who are bots are evil: A cross-platform analysis of automated agent governance. New Media & Society, 24(4), 964–981. https://doi.org/10.1177/14614448221079035
Maréchal, N. (2016). When bots tweet: Toward a normative framework for bots on social networking sites. International Journal of Communication, 2016(10), 5022–5031.
Mayntz, R. (2004). Governance im modernen Staat. In A. Benz (Hrsg.), Governance – Regieren in komplexen Regelsystemen: Eine Einführung (S. 65–76). VS.
Mena, P. (2020). Cleaning up social media: The effect of warning labels on likelihood of sharing false news on Facebook. Policy & Internet, 12(2), 165–183. https://doi.org/10.1002/poi3.214
Messing, S., & Westwood, S. J. (2014). Selective exposure in the age of social media: Endorsements trump partisan source affiliation when selecting news online. Communication Research, 41(8), 1042–1063. https://doi.org/10.1177/0093650212466406
Mønsted, B., Sapieżyński, P., Ferrara, E., & Lehmann, S. (2017). Evidence of complex contagion of information in social media: An experiment using Twitter bots. PLoS ONE, 12(9), e0184148. https://doi.org/10.1371/journal.pone.0184148
Napoli, P. M. (2015). Social media and the public interest: Governance of news platforms in the realm of individual and algorithmic gatekeepers. Telecommunications Policy, 39(9), 751–760. https://doi.org/10.1016/j.telpol.2014.12.003
Newman, N., Fletcher, R., Robertson, C. T., Eddy, K., & Nielsen, R. K. (2022). Reuters Institute Digital News Report 2022 (No. 1907384995). Oxford: Reuters Institute for the Study of Journalism. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2022-06/Digital_News-Report_2022.pdf. [23.09.2022].
Oehmer, F., & Pedrazzi, S. (2020). Was schützt (vor) Social Bots? Vorschläge zur Governance von computergenerierten Softwareagenten im Internet. UFITA, 84(1), 7–35. https://doi.org/10.5771/2568-9185-2020-1-7
Oentaryo, R. J., Murdopo, A., Kokoh Prasetyo, P., Lim, E.-P. (2016). On profiling bots in social media. In: ArXiv e-prints. https://doi.org/10.48550/arXiv.1609.00543.
Ognyanova, K., Lazer, D., Robertson, R. E., & Wilson, C. (2020). Misinformation in action: Fake news exposure is linked to lower trust in media, higher trust in government when your side is in power. Harvard Kennedy School (HKS) Misinformation Review 1 (4). https://doi.org/10.37016/mr-2020-024.
Osmundsen, M., Bor, A., Vahlstrup, P. B., Bechmann, A., & Petersen, M. B. (2021). Partisan polarization is the primary psychological motivation behind political fake news sharing on Twitter. American Political Science Review, 115(3), 999–1015. https://doi.org/10.1017/S0003055421000290
Papakyriakopoulos, O., Serrano, J. C. M., & Hegelich, S. (2020). Political communication on social media: A tale of hyperactive users and bias in recommender systems. In: Online Social Networks and Media 15 (Article 100058). https://doi.org/10.1016/j.osnem.2019.100058.
Pedrazzi, S., & Oehmer, F. (2021). Bot or No Bot? Digital Media Literacy als Governance-Instrument für die Identifikation von und den Umgang mit Social Bots. In K. Guido & W. Wibke (Hrsg.), Media Literacy (S. 189–206). Nomos. https://doi.org/10.5771/9783748920656-189.
Pennycook, G., Bear, A., Collins, E. T., & Rand, D. G. (2020). The implied truth effect: Attaching warnings to a subset of fake news headlines increases perceived accuracy of headlines without warnings. Management Science 66(11). https://doi.org/10.1287/mnsc.2019.3478.
Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in Cognitive Sciences, 25(5), 388–402. https://doi.org/10.1016/j.tics.2021.02.007
Porten-Cheé, P., Haßler, J., Jost, P., Eilders, C., & Maurer, M. (2018). Popularity cues in online media: Theoretical and methodological perspectives. SCM Studies in Communication and Media, 7(2), 208–230. https://doi.org/10.5771/2192-4007-2018-2-80
Puppis, M. (2010). Media governance: A new concept for the analysis of media policy and regulation. Communication, Culture & Critique, 3(2), 134–149. https://doi.org/10.1111/j.1753-9137.2010.01063.x
Puppis, M. (2020). Governance der Vermittlung öffentlicher Kommunikation. In O. Jarren & C. Neuberger (Hrsg.), Gesellschaftliche Vermittlung in der Krise: Medien und Plattformen als Intermediäre (S. 189–224). Nomos. doi.org/https://doi.org/10.5771/9783748909729-189.
Rauchfleisch, A., & Kaiser, J. (2020). The alse positive problem of automatic bot detection in social science research. In: Social Science Research, Berkman Klein Center Research Publication (2020–3). https://doi.org/10.2139/ssrn.3565233.
Ross, B., Pilz, L., Cabrera, B., Brachten, F., Neubaum, G., & Stieglitz, S. (2019). Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks. European Journal of Information Systems, 28(4), 394–412. https://doi.org/10.1080/0960085X.2018.1560920
Saurwein, F., & Spencer-Smith, C. (2020). Combating disinformation on social media: Multilevel governance and distributed accountability in Europe. Digital Journalism, 8(6), 820–841. https://doi.org/10.1080/21670811.2020.1765401
Schäfer, F., Evert, S., & Heinrich, P. (2017). Japan’s 2014 general election: Political bots, right-wing internet activism, and prime minister Shinzō Abe’s hidden nationalist agenda. Big Data, 5(4), 294–309. https://doi.org/10.1089/big.2017.0049
Schweiger, W., Weber, P., Prochazka, F., & Brückner, L. (2019). Algorithmisch personalisierte Nachrichtenkanäle. In: Dieselben (Hrsg.), Algorithmisch personalisierte Nachrichtenkanäle (S. 7–25). Springer Fachmedien Wiesbaden.
Shao, C., Ciampaglia, G. L., Varol, O., Yang, K.-C., Flammini, A., & Menczer, F. (2018). The spread of low-credibility content by social bots. Nature Communications, 9(1), 4787. https://doi.org/10.1038/s41467-018-06930-7
Sharma, K., Seo, S., Meng, C., Rambhatla, S., & Liu, Y. (2020). COVID-19 on social media: Analyzing misinformation in Twitter conversations. arXiv preprint arXiv: 2003.12309. https://doi.org/10.48550/arXiv.2003.12309.
Shin, J., & Thorson, K. (2017). Partisan selective sharing: The biased diffusion of fact-checking messages on social media. Journal of Communication, 67(2), 233–255. https://doi.org/10.1111/jcom.12284
Stark, B., Magin, M., & Geiß, S. (2020). Meinungsbildung in und mit sozialen Medien. In J.-H. Schmidt & M. Taddicken (Hrsg.), Handbuch Soziale Medien (S. 1–19). Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-658-03895-3_23-1.
Stieglitz, S., Brachten, F., Ross, B., & Jung, A.-K. (2017). Do social bots dream of electric sheep? A categorisation of social media bot accounts. arXiv preprint arXiv:1710.04044. https://doi.org/10.48550/arXiv.1710.04044.
Tsvetkova, M., García-Gavilanes, R., Floridi, L., & Yasseri, T. (2017). Even good bots fight: The case of Wikipedia. PLoS ONE, 12(2), e0171774. https://doi.org/10.1371/journal.pone.0171774
Ulbricht, L., & Yeung, K. (2022). Algorithmic regulation: A maturing concept for investigating regulation of and through algorithms. Regulation & Governance, 16(1), 3–22. https://doi.org/10.1111/rego.12437
Van Bavel, J. J., Harris, E. A., Pärnamets, P., Rathje, S., Doell, K. C., & Tucker, J. A. (2021). Political Psychology in the digital (mis)information age: A model of news belief and sharing. Social Issues and Policy Review, 15(1), 84–113. https://doi.org/10.1111/sipr.12077
Van Der Linden, S. (2022). Misinformation: Susceptibility, spread, and interventions to immunize the public. Nature Medicine, 28(3), 460–467. https://doi.org/10.1038/s41591-022-01713-6
van Dijck, J., Poell, T., & de Waal, M. (2018). The Platform Society: Public Values in a Connective World. Oxford University Press.
Varol, O., Ferrara, E., Davis, C. A., Menczer, F., & Flammini, A. (2017): Online human-bot interactions: Detection, estimation, and characterization. Paper presented at the Eleventh International AAAI Conference on Web and Social Media. https://doi.org/10.48550/arXiv.1703.03107.
Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559
Walter, N., Cohen, J., Holbert, R. L., & Morag, Y. (2020). Fact-checking: A meta-analysis of what works and for whom. Political Communication, 37(3), 350–375. https://doi.org/10.1080/10584609.2019.1668894
Walter, N., & Murphy, S. T. (2018). How to unring the bell: A meta-analytic approach to correction of misinformation. Communication Monographs, 85(3), 423–441. https://doi.org/10.1080/03637751.2018.1467564
Walter, N., & Tukachinsky, R. (2019). A meta-analytic examination of the continued influence of misinformation in the face of correction: How powerful is it, why does it happen, and how to stop it? Communication Research, 47(2), 155–177. https://doi.org/10.1177/0093650219854600
Wischnewski, M., Ngo, T., Bernemann, R., Jansen, M., & Krämer, N. (2022). „I agree with you, bot!“ How users (dis)engage with social bots on Twitter. New Media & Society (online first). https://doi.org/10.1177/14614448211072307.
Wood, M. J. (2018). Propagating and debunking conspiracy theories on Twitter during the 2015–2016 Zika virus outbreak. Cyberpsychology, Behavior, and Social Networking, 21(8), 485–490. https://doi.org/10.1177/14614448211072307
Yan, H. Y., Yang, K.-C., Menczer, F., & Shanahan, J. (2020). Asymmetrical perceptions of partisan political bots. New Media & Society, 23(10), 3016–3037. https://doi.org/10.1177/1461444820942744
Yang, J. (2016). Effects of popularity-based news recommendations („most-viewed“) on users’ exposure to Online News. Media Psychology, 19(2), 243–271. https://doi.org/10.1080/15213269.2015.1006333
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Pedrazzi, S. (2024). Governance durch Social Bots? Das Potenzial von automatisierten Accounts als Governance-Instrument in digitalen Kommunikationsumgebungen. In: Prinzing, M., Seethaler, J., Eisenegger, M., Ettinger, P. (eds) Regulierung, Governance und Medienethik in der digitalen Gesellschaft. Mediensymposium. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-42478-7_10
Download citation
DOI: https://doi.org/10.1007/978-3-658-42478-7_10
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-42477-0
Online ISBN: 978-3-658-42478-7
eBook Packages: Social Science and Law (German Language)