Zusammenfassung
Social Bots zur Verbreitung von Fake News und Propaganda sind in aller Munde – aber wie funktionieren künstliche Accounts eigentlich? Und welche Rolle könnten Social Bots für die Positionierung gegen Hass und Fake News spielen? Nicht selten führen Unkenntnis über die Funktionsweise sowie technische Möglichkeiten dieser künstlichen Accounts zu großen Unsicherheiten bei den Rezipient*innen sozialer Plattformen. Dieser Beitrag beschreibt die grundsätzlichen Einsatzmöglichkeiten von Social Bots und gibt einen Einblick in die technische Umsetzung. Des Weiteren beleuchten wir Social Bots als Sprachrohr ihrer Nutzer*innen insbesondere im Hinblick auf ihre Nutzbarkeit für (teil-)automatisierte Gegenrede.
Schlüsselwörter
- Social Bots
- Gegenrede
- Digitalisierung
- Hassrede
- Automatisierung
This is a preview of subscription content, access via your institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsNotes
- 1.
Da die Bewertung von Äußerungen als zivil oder inzivil subjektiv und kontextabhängig ist, existiert keine einheitliche Definition von Inzivilität (Herbst 2010; Coe et al. 2014). Verschiedene Definitionen haben jedoch gemein, dass inzivile Äußerungen im Allgemeinen als normverletzende Kommunikation verstanden werden können (Kenski et al. 2020; Papacharissi 2004).
Literatur
Assenmacher, D., Clever, L., Frischlich, L., Quandt, T., Trautmann, H., & Grimme, C. (2020): Demystifying social bots: On the intelligence of automated social media actors. In: Social Media + Society, 6(3). https://doi.org/10/gg9fts.
Benesch, S., Ruths, D., Dillon, K., Saleem, H. M. & Wright, L. (2017): Considerations for successful counterspeech, online verfügbar: https://dangerousspeech.org/considerations-for-successful-counterspeech/. [Stand : 10.11.2020].
Boberg, S., Schatto-Eckrodt, T., Frischlich, L., & Quandt, T. (2018): The moral gatekeeper? Moderation and deletion of user-generated content in a leading news forum. In: Media and Communication, 6(4), S. 58–69.
Coe, K., Kenski, K., & Rains, S. A. (2014): Online and uncivil? Patterns and determinants of incivility in newspaper website comments. In: Journal of Communication, 64(4), S. 658–679. https://doi.org/10/f6dxrx
Daws, R. (2020): Medical chatbot using OpenAI’s GPT-3 told a fake patient to kill themselves. AI News. Online verfügbar: https://artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/ [Stand 20.10.2021].
Doosje, B., Moghaddam, F. M., Kruglanski, A. W., Wolf, A. D., Mann, L., & Feddes, A. R. (2016): Terrorism, radicalization and de-radicalization. Current Opinion in Psychology, 11, S. 79–84. https://doi.org/10/gf3g84.
Frischlich, L., Mede, N. G., & Quandt, T. (2020): The markets of manipulation: The trading of social bots on clearnet and darknet markets. In: Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 12021 LNCS, S. 89–100. https://doi.org/10/ggpwn3.
Geiger, R. S. (2016): Bot-based collective blocklists in twitter: the counterpublic moderation of harassment in a networked public space. In: Information, Communication & Society, 19(6), S. 787–803.
Grimme, C., Assenmacher, D., & Adam, L. (2018): Changing perspectives: Is it sufficient to detect social bots?. In International conference on social computing and social media, S. 445–461. Springer, Cham.
Grimme, C., Preuss, M., Adam, L., & Trautmann, H. (2017): Social bots: Human-like by means of human control?. Big data, 5(4), S. 279–293.
Herbst, S. (2010): Rude democracy: Civility and incivility in American politics. Philadelphia, PA: Temple University Press.
Kenski, K., Coe, K., & Rains, S. A. (2020): Perceptions of uncivil discourse online: An examination of types and predictors. Communication Research, 47(6), S. 795–814. https://doi.org/10/gghcnf.
Kollanyi, B., Howard, P. N., & Woolley, S. C. (2016): Bots and automation over twitter during the u.s. election (Tech. Rep. No. Data Memo 2016.4). Oxford, UK: Project on Computational Propaganda.
Kreißel, P., Ebner, J., Urban, A., & Guhl, J. (2018): Hass auf Knopfdruck—Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz. In: Institute for Strategic Dialogue, S. 28–28.
Naab, T. K., Kalch, A., & Meitz, T. G. (2018): Flagging uncivil user comments: Effects of intervention information, type of victim, and response comments on bystander behavior. In: New Media & Society, 20(2), S. 777–795. https://doi.org/10/gc22p4.
Papacharissi, Z. (2004): Democracy online: Civility, politeness, and the democratic potential of online political discussion groups. In: New Media & Society, 6(2), S. 259–283. https://doi.org/10/dz4rp6.
Quandt, T. (2018): Dark participation. In: Media and Communication, 6(4), S. 36–48.
Reinemann, C., Ninierza, A., Fawzi, N., Riesmeyer, C., & Neumann, K. (2019): Jugend—Medien—Extremismus. Wo Jugendliche mit Extremismus in Kontakt kommen und wie sie ihn erkennen. Springer Fachmedien VS.
Rieger, D., Frischlich, L., Rack, S., & Bente, G. (2020): Digitaler Wandel, Radikalisierungsprozesse und Extremismusprävention im Internet. In B. Ben Slama & U. Kemmesies (Hrsg.): Handbuch Extremismusprävention. Bundeskriminalamt, S. 351–388.
Ross, B., Pilz, L., Cabrera, B., Brachten, F., Neubaum, G., & Stieglitz, S. (2019): Are social bots a real threat? An agent- based model of the spiral of silence to analyse the impact of manipulative actors in social networks. In: European Journal of Information Systems, 28, S. 394–412.
Schmitt, J. B., Ernst, J., Frischlich, L., & Rieger, D. (2017): Rechtsextreme und islamistische Propaganda im Internet: Methoden, Auswirkungen und Präventionsmöglichkeiten. In R. Altenhof, S. Bunk, & M. Piepenschneider (Hrsg.): Politischer Extremismus im Vergleich: Beiträge zur politischen Bildung. LIT Verlag. S. 171–210.
Singer, J. B., Domingo, D., Heinonen, A., Hermida, A., Paulussen, S., Quandt, T., Reich, Z. & Vujnovic, M. (2011): Participatory journalism: Guarding open gates at online newspapers. John Wiley & Sons.
Ziegele, M., & Jost, P. B. (2016): Not funny? The effects of factual versus sarcastic journalistic responses to uncivil user comments. In: Communication Research, S. 1–30.
Ziegele, M., Jost, P., Frieß, D., & Naab, T. K. (2019): Aufräumen im Trollhaus: zum Einfluss von Community-Managern und Aktionsgruppen in Kommentarspalten. In: Institute for Internet and Democracy, S. 1–12.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Clever, L., Klapproth, J., Frischlich, L. (2022). Automatisierte (Gegen-)Rede? Social Bots als digitales Sprachrohr ihrer Nutzer*innen. In: Ernst, J., Trompeta, M., Roth, HJ. (eds) Gegenrede digital. Interkulturelle Studien. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-36540-0_2
Download citation
DOI: https://doi.org/10.1007/978-3-658-36540-0_2
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-36539-4
Online ISBN: 978-3-658-36540-0
eBook Packages: Social Science and Law (German Language)