Advertisement

Technische Faktoren bei der Verbreitung propagandistischer Inhalte im Internet und den sozialen Medien

  • Cornelius PuschmannEmail author
Chapter
  • 140 Downloads
Part of the Interkulturelle Studien book series (IKS)

Zusammenfassung

Dieser Beitrag nimmt die technischen Faktoren in den Blick, die bei der Erstellung, Weitergabe, Verbreitung und Rezeption von Propagandainhalten im Netz eine Rolle spielen. Folgend wird die Rolle von automatisierten Algorithmen diskutiert, die mittlerweile bei zahlreichen Online-Plattformen im Hintergrund agieren und in diesen Prozessen wirken. Konkret werden zunächst die Verfahren des Rankings, der Selektion und der Filterung von Inhalten besprochen, und dann die algorithmische Personalisierung als Form des Informationsmanagements beschrieben, die zu negativen Auswirkungen führen kann (etwa sog. Filterblasen und Echokammern), um anschließend auf automatisierte Programme einzugehen, die in Social Media-Plattformen wirken. Zum Abschluss werden knapp Maßnahmen und konkrete Handlungsstrategien vorgestellt.

Literatur

  1. Allcott, H., & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives, 31(2), 211–236.  https://doi.org/10.1257/jep.31.2.211.
  2. Baehr, D. (2012). Salafistische Propaganda im Internet: Von der reinen Mission bis zum globalen Jihad – Die wesentlichen ideentheoretischen Unterschiede unter den salafistischen Strömungen in Deutschland. Magdeburger Journal Zur Sicherheitsforschung, 2, 236–269.Google Scholar
  3. Bar-Ilan, J. (2007). Google bombing from a time perspective. Journal of Computer-Mediated Communication, 12(3), 910–938.  https://doi.org/10.1111/j.1083-6101.2007.00356.x.
  4. Bastos, M. T., & Mercea, D. (2017). The Brexit Botnet and User-Generated Hyperpartisan News. Social Science Computer Review.  https://doi.org/10.1177/0894439317734157.CrossRefGoogle Scholar
  5. Bolsover, G., & Howard, P. (2017). Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda. Big Data, 5(4), 273–276.  https://doi.org/10.1089/big.2017.29024.cpr.CrossRefGoogle Scholar
  6. Cheng, J., Adamic, L. A., Dow, P. A., Kleinberg, J., & Leskovec, J. (2014). Can cascades be predicted? In W. Lee, H.-C. Rim, & D. Schwabe (Hrsg.), Proceedings of the 23rd International World Wide Web Conference (WWW ’14) (S. 1–11). Seoul, Republic of Korea: ACM Press.  https://doi.org/10.1145/2566486.2567997.
  7. Ernst, J., Schmitt, J. B., Rieger, D., Trompeta, M., Bente, G., Vorderer, P., & Roth, H.-J. (2016). Klick, klick, Propaganda. Grundzüge eines Präventionsprogramms gegen Radikalisierung durch Internet-Propaganda an Schulen im EU-Forschungsprojekt CONTRA. Zmi-Magazin, 4(1), 16–20.  https://doi.org/10.1026/1616-1041.4.1.16.
  8. Ferrara, E., Varol, O., Davis, C., Menczer, F., & Flammini, A. (2016). The rise of social bots. Communications of the ACM, 59(7), 96–104.  https://doi.org/10.1145/2818717.
  9. Ford, H., Dubois, E. & Puschmann, C. (2016). Keeping Ottawa honest—One tweet at a time? Politicians, journalists, wikipedians and their Twitter bots. International Journal of Communication, 10, 4891–4914.Google Scholar
  10. Glaser, S. (2016). Multimedialer Hass – Medienpädagogische Workshops zur Auseinandersetzung mit Rechtsextremismus im Web. In Strategien der extremen Rechten (S. 631–638). Wiesbaden: Springer Fachmedien Wiesbaden.  https://doi.org/10.1007/978-3-658-01984-6_29.
  11. Grimme, C., Preuss, M., Adam, L., & Trautmann, H. (2017). Social Bots: Human-Like by Means of Human Control? Big Data, 5(4), 279–293.  https://doi.org/10.1089/big.2017.0044.
  12. Hölig, S.; Hasebrink, U. (2017): Reuters Institute Digital News Survey 2017 – Ergebnisse für Deutschland. Hamburg: Verlag Hans-Bredow-Institut, Juni 2017 (Arbeitspapiere des Hans-Bredow-Institut Nr. 42).Google Scholar
  13. Narayanan, V., Howard, P. N., Kollanyi, B., & Elswah, M. (2017). Russian Involvement and Junk News during Brexit (COMPROP Data Memo No. 2017.10). Oxford. Abgerufen am 14. Juni 2018 von http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2017/12/Russia-and-Brexit-v27.pdf.
  14. Pariser, E. (2012). The filter bubble: How the new personalized web is changing what we read and how we think. New York: Penguin.CrossRefGoogle Scholar
  15. Puschmann, C., & Peters, I. (2015). Informationsverbreitung in sozialen Medien. In J.-H. Schmidt & M. Taddicken (Eds.), Handbuch Soziale Medien (S. 1–23). Wiesbaden: Springer Fachmedien Wiesbaden.  https://doi.org/10.1007/978-3-658-03895-3_12-1.
  16. Sandvig, C. (2014). Corrupt personalization. Abgerufen am 14. Juni 2018 von http://socialmediacollective.org/2014/06/26/corrupt-personalization/.
  17. Schmidt, J.-H. (2008). Was ist neu am Social Web? Soziologische und kommunikationswissenschaftliche Grundlagen. In A. Zerfaß, W. Martin, & J.-H. Schmidt (Hrsg.), Kommunikation, Partizipation und Wirkungen im Social Web (S. 18–40). Köln: Herbert von Halem Verlag.Google Scholar
  18. Schmitt, J. B., Ernst, J., Rieger, D., & Frischlich, L. (2017). Rechtsextreme und islamistische Propaganda im Internet: Methoden, Auswirkungen und Präventionsmöglichkeiten. In R. Altenhof, S. Bunk, & M. Piepenschneider (Hrsg.), Politischer Extremismus im Vergleich. Schriftenreihe Politische Bildung der Konrad-Adenauer-Stiftung (S. 171–208). Berlin: LIT Verlag.Google Scholar
  19. Stark, B., Magin, M., & Jürgens, P. (2017). Ganz meine Meinung? Informationsintermediäre und Meinungsbildung – Eine Mehrmethodenstudie am Beispiel von Facebook. Düsseldorf: Landesanstalt für Medien Nordrhein-Westfalen (LfM).Google Scholar
  20. Sunstein, C. R. (2001). Republic.Com. Princeton, NJ: Princeton University Press.Google Scholar
  21. Turcotte, J., York, C., Irving, J., Scholl, R. M., & Pingree, R. J. (2015). News Recommendations from Social Media Opinion Leaders: Effects on Media Trust and Information Seeking. Journal of Computer-Mediated Communication, 20(5), 520–535.  https://doi.org/10.1111/jcc4.12127.
  22. Van Dijck, J., & Poell, T. (2013). Understanding Social Media Logic. Media and Communication, 1(1), 2–14.  https://doi.org/10.17645/mac.v1i1.70.
  23. Wehner, M. (2016). Unser Mädchen Lisa. Retrieved am 05. Februar 2018 von http://www.faz.net/aktuell/politik/russlands-informationskrieg-hat-angela-merkel-als-ziel-14043618.html.
  24. Woolley, S. C. (2016). Automating power: Social bot interference in global politics. First Monday, 21(4), 1–10.  https://doi.org/10.5210/fm.v21i4.6161.CrossRefGoogle Scholar
  25. Woolley, S. C., & Howard, P. N. (2016). Political Communication, Computational Propaganda, and Autonomous Agents. International Journal of Communication, 10, 4882–4890.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020

Authors and Affiliations

  1. 1.Universität BremenBremenDeutschland

Personalised recommendations