Advertisement

Algorithmenbasierte Demagogie

  • Ralf T. Kreutzer
Chapter

Zusammenfassung

Welche Informationen uns bei unseren Online-Recherchen präsentiert werden, welche Inhalte wir in den sozialen Medien sehen und welche Musik bzw. welche Filme uns auf den Streaming-Plattformen präsentiert werden, entscheiden heute Algorithmen. Welche Kriterien diese Algorithmen im Einzelnen nutzen, bleibt uns unbekannt. Wir wissen nur, dass unser Such- und Nutzungsverhalten intensiv ausgewertet wird und uns Angebote präsentiert werden, auf die wir mit höchster Wahrscheinlichkeit reagieren werden. So werden wir degradiert zu Versuchsmäusen, denen nur solche Häppchen vorgesetzt werden, nach denen wir schnappen werden – und wir merken es nicht einmal. So besteht die Gefahr, dass uns eine Weltsicht vermittelt wird, die mit der Realität nichts oder nur wenig zu tun hat.

Literatur

  1. Block, H., & Riesewieck, M. (2018). The cleaners. http://www.thecleaners-film.de/. Zugegriffen am 02.08.2019.
  2. CHT. (2019). About us. https://humanetech.com/about-us/. Zugegriffen am 07.08.2019.
  3. Costa, P. T., & McCrae, R. R. (1985). The NEO personality inventory: Manual, form S and form R. Odessa: Psychological Assessment Resources.Google Scholar
  4. Das Gupta, O. (2019). Maßnahme gegen Hass-Kommentare: Österreich bekommt „digitales Vermummungsverbot“. https://www.sueddeutsche.de/digital/oesterreich-massnahme-gegen-hass-kommentare-im-netz-1.4400029. Zugegriffen am 31.07.2019.
  5. Diehl, J., Lehberger, R., Müller, A.-K., & Seibt, P. (27. April 2019). Die rechte Welle surfen. Der Spiegel, S. 18–19.Google Scholar
  6. Dunning, D. (2010). The anosognosic’s dilemma: Something’s wrong but you’ll never know what it is (Part 1). Interview mit Morris, E. https://opinionator.blogs.nytimes.com/2010/06/20/the-anosognosics-dilemma-1/. Zugegriffen am 01.08.2019.
  7. Ebenfeld, T., & Ziems, D. (2018). Influencer – die neue Macht im Marketing. Köln/Berlin: insights +strategies publishing.Google Scholar
  8. EU. (2018). EU-Verhaltenskodex zur Bekämpfung von Desinformation, Brüssel. http://europa.eu/rapid/press-release_STATEMENT-19-2174_de.pdf. Zugegriffen am 29.08.2019.
  9. EuGH. (2019). Pressemitteilung Nr. 99/19, Urteil in der Rechtssache C-40/17, Fashion ID GmbH & Co. KG/Verbraucherzentrale NRW eV, Luxemburg, 29. Juli 2019. http://docs.dpaq.de/15155-cp190099de.pdf. Zugegriffen am 29.08.2019.
  10. EUvsDisinfo. (2019). News and analysis. https://euvsdisinfo.eu/. Zugegriffen am 13.08.2019.
  11. Groschupf, J. (2019). Berlin Prepper. Berlin: Suhrkamp.Google Scholar
  12. Gutschker, T. (27. Januar 2019). Angriff auf die Europawahl? Frankfurter Allgemeine Sonntagszeitung, S. 6.Google Scholar
  13. Hacke, A. (2018). Über den Anstand in schwierigen Zeiten und die Frage, wie wir miteinander umgehen (5. Aufl.). München: Goldmann.Google Scholar
  14. HateAid. (2019). Über uns: Ziele. https://hateaid.org/ziele-hateaid/. Zugegriffen am 09.08.2019.
  15. Hill, K. (2014). Facebook manipulated 689,003 users’ emotions for science. https://www.forbes.com/sites/kashmirhill/2014/06/28/facebook-manipulated-689003-users-emotions-for-science/#2017b0f4197c. Zugegriffen am 08.07.2019.
  16. Iaconesi, S., & Persico, O. (2017). Constrained cities: Filter bubbles in the physical space of the city. http://www.artisopensource.net/2017/06/20/constrained-cities-filter-bubbles-in-the-physical-space-of-the-city/. Zugegriffen am 13.08.2019.
  17. Kaes, W. (6./7. April 2019). Digitale Drecksarbeit. General Anzeiger, S. 5.Google Scholar
  18. Köpke, J., & Sternberg, J. (2019). Wegen russischer Trolle: EU-Justizkommissarin Vera Jourová warnt vor Manipulation der Europawahl. https://www.haz.de/Nachrichten/Politik/Deutschland-Welt/Europawahl-EU-Justizkommissarin-Vera-Jourova-warnt-vor-Wahlmanipulation. Zugegriffen am 29.07.2019.
  19. Kreutzer, R. T. (2018). Praxisorientiertes Online-Marketing. Konzepte – Instrumente – Checklisten (3. Aufl.). Wiesbaden: Springer Gabler.CrossRefGoogle Scholar
  20. Kreutzer, R. T., & Land, K.-H. (2016). Digitaler Darwinismus. Der stille Angriff auf Ihr Geschäftsmodell und Ihre Marke (2. Aufl.). Wiesbaden: Springer Gabler.Google Scholar
  21. Kreutzer, R. T., & Sirrenberg, M. (2019). Künstliche Intelligenz verstehen. Grundlagen – Use-Cases – unternehmenseigene KI-Journey. Wiesbaden: Springer Gabler.CrossRefGoogle Scholar
  22. Kroeber-Riel, W., & Gröppel-Klein, A. (2013). Konsumentenverhalten (10. Aufl.). München: Vahlen.Google Scholar
  23. Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychologie, 77(6), 1121–1134.CrossRefGoogle Scholar
  24. Lobe, A. (3. Februar 2019). Gebaute Filterblasen.: Frankfurter Allgemeine Sonntagszeitung, S. 39.Google Scholar
  25. Mayer-Kuckuk, F. (30. Juli 2019). Webseiten müssen wegen Like-Buttons fragen. General Anzeiger, S. 6.Google Scholar
  26. Mayntz, G. (18. Juni 2019a). Online-Netzwerke: Wirkung überschätzt. General Anzeiger, S. 4.Google Scholar
  27. Mayntz, G. (14. Mai 2019b). Die Grenzen des Sagbaren verschieben sich. General Anzeiger, S. 3.Google Scholar
  28. NetzDG. (2017). Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz). https://www.gesetze-im-internet.de/netzdg/BJNR335210017.html. Zugegriffen am 23.07.2019.
  29. Newton, C. (2018). Google’s new focus on well-being started five years ago with this presentation. https://www.theverge.com/2018/5/10/17333574/google-android-p-update-tristan-harris-design-ethics. Zugegriffen am 02.08.2019.
  30. Pariser, E. (2011). Filter bubble: How the new personalized web is changing what we read and how we think. New York: Penguin Books.Google Scholar
  31. Pokorny, S. (2019). Der Einfluss der Facebook-Nutzung auf die Sprach- und Streitkultur. www.kas.de. Zugegriffen am 18.06.2019.
  32. Pörksen, B. (2018). Medienwissenschaftler Bernhard Pörksen: „Die Grenzen des Sagbaren verschieben sich“. https://www.suedkurier.de/ueberregional/kultur/Medienwissenschaftler-Bernhard-Poerksen-Die-Grenzen-des-Sagbaren-verschieben-sich;art10399,9647236. Zugegriffen am 01.08.2019.
  33. Rahwan, I. (15. Juni 2019). Unwissen macht uns manipulierbar. Der Spiegel, S. 102–104.Google Scholar
  34. Rathi, R. (2019). Effect of Cambridge Analytica’s Facebook ads on the 2016 US Presidential Election. https://towardsdatascience.com/effect-of-cambridge-analyticas-facebook-ads-on-the-2016-us-presidential-election-dacb5462155d. Zugegriffen am 08.07.2019.
  35. Schweiger, W. (2017). Der (des)informierte Bürger im Netz. Wie soziale Medien die Meinungsbildung verändern. Wiesbaden: Springer.CrossRefGoogle Scholar
  36. Seemann, M., & Kreil, M. (2017). Digitaler Tribalismus und Fake News. http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/. Zugegriffen am 01.08.2019.
  37. Sumpter, D. (2018). Outnumbered: From Facebook and Google to fake news and filter-bubbles – The algorithms that control our lives. London: Bloomsbury Sigma.Google Scholar
  38. Van Lijnden, C. (3. Juli 2019). Die Filterblase zum Platzen bringen. Frankfurter Allgemeine Zeitung, S. 1.Google Scholar
  39. Willnow, S. (2019). Verfassungsschutz-Symposium: Die Verschiebung des Sagbaren. https://twnews.de/de-news/verfassungsschutz-symposium-die-verschiebung-des-sagbaren. Zugegriffen am 01.08.2019.
  40. Yao, M. (2017). Chihuahua or muffin? My search for the best n API. https://medium.freecodecamp.org/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d. Zugegriffen am 03.07.2018.

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020

Authors and Affiliations

  • Ralf T. Kreutzer
    • 1
  1. 1.Hochschule für Wirtschaft und Recht BerlinBerlinDeutschland

Personalised recommendations