Zusammenfassung
Welche Informationen uns bei unseren Online-Recherchen präsentiert werden, welche Inhalte wir in den sozialen Medien sehen und welche Musik bzw. welche Filme uns auf den Streaming-Plattformen präsentiert werden, entscheiden heute Algorithmen. Welche Kriterien diese Algorithmen im Einzelnen nutzen, bleibt uns unbekannt. Wir wissen nur, dass unser Such- und Nutzungsverhalten intensiv ausgewertet wird und uns Angebote präsentiert werden, auf die wir mit höchster Wahrscheinlichkeit reagieren werden. So werden wir degradiert zu Versuchsmäusen, denen nur solche Häppchen vorgesetzt werden, nach denen wir schnappen werden – und wir merken es nicht einmal. So besteht die Gefahr, dass uns eine Weltsicht vermittelt wird, die mit der Realität nichts oder nur wenig zu tun hat.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Literatur
Block, H., & Riesewieck, M. (2018). The cleaners. http://www.thecleaners-film.de/. Zugegriffen am 02.08.2019.
CHT. (2019). About us. https://humanetech.com/about-us/. Zugegriffen am 07.08.2019.
Costa, P. T., & McCrae, R. R. (1985). The NEO personality inventory: Manual, form S and form R. Odessa: Psychological Assessment Resources.
Das Gupta, O. (2019). Maßnahme gegen Hass-Kommentare: Österreich bekommt „digitales Vermummungsverbot“. https://www.sueddeutsche.de/digital/oesterreich-massnahme-gegen-hass-kommentare-im-netz-1.4400029. Zugegriffen am 31.07.2019.
Diehl, J., Lehberger, R., Müller, A.-K., & Seibt, P. (27. April 2019). Die rechte Welle surfen. Der Spiegel, S. 18–19.
Dunning, D. (2010). The anosognosic’s dilemma: Something’s wrong but you’ll never know what it is (Part 1). Interview mit Morris, E. https://opinionator.blogs.nytimes.com/2010/06/20/the-anosognosics-dilemma-1/. Zugegriffen am 01.08.2019.
Ebenfeld, T., & Ziems, D. (2018). Influencer – die neue Macht im Marketing. Köln/Berlin: insights +strategies publishing.
EU. (2018). EU-Verhaltenskodex zur Bekämpfung von Desinformation, Brüssel. http://europa.eu/rapid/press-release_STATEMENT-19-2174_de.pdf. Zugegriffen am 29.08.2019.
EuGH. (2019). Pressemitteilung Nr. 99/19, Urteil in der Rechtssache C-40/17, Fashion ID GmbH & Co. KG/Verbraucherzentrale NRW eV, Luxemburg, 29. Juli 2019. http://docs.dpaq.de/15155-cp190099de.pdf. Zugegriffen am 29.08.2019.
EUvsDisinfo. (2019). News and analysis. https://euvsdisinfo.eu/. Zugegriffen am 13.08.2019.
Groschupf, J. (2019). Berlin Prepper. Berlin: Suhrkamp.
Gutschker, T. (27. Januar 2019). Angriff auf die Europawahl? Frankfurter Allgemeine Sonntagszeitung, S. 6.
Hacke, A. (2018). Über den Anstand in schwierigen Zeiten und die Frage, wie wir miteinander umgehen (5. Aufl.). München: Goldmann.
HateAid. (2019). Über uns: Ziele. https://hateaid.org/ziele-hateaid/. Zugegriffen am 09.08.2019.
Hill, K. (2014). Facebook manipulated 689,003 users’ emotions for science. https://www.forbes.com/sites/kashmirhill/2014/06/28/facebook-manipulated-689003-users-emotions-for-science/#2017b0f4197c. Zugegriffen am 08.07.2019.
Iaconesi, S., & Persico, O. (2017). Constrained cities: Filter bubbles in the physical space of the city. http://www.artisopensource.net/2017/06/20/constrained-cities-filter-bubbles-in-the-physical-space-of-the-city/. Zugegriffen am 13.08.2019.
Kaes, W. (6./7. April 2019). Digitale Drecksarbeit. General Anzeiger, S. 5.
Köpke, J., & Sternberg, J. (2019). Wegen russischer Trolle: EU-Justizkommissarin Vera Jourová warnt vor Manipulation der Europawahl. https://www.haz.de/Nachrichten/Politik/Deutschland-Welt/Europawahl-EU-Justizkommissarin-Vera-Jourova-warnt-vor-Wahlmanipulation. Zugegriffen am 29.07.2019.
Kreutzer, R. T. (2018). Praxisorientiertes Online-Marketing. Konzepte – Instrumente – Checklisten (3. Aufl.). Wiesbaden: Springer Gabler.
Kreutzer, R. T., & Land, K.-H. (2016). Digitaler Darwinismus. Der stille Angriff auf Ihr Geschäftsmodell und Ihre Marke (2. Aufl.). Wiesbaden: Springer Gabler.
Kreutzer, R. T., & Sirrenberg, M. (2019). Künstliche Intelligenz verstehen. Grundlagen – Use-Cases – unternehmenseigene KI-Journey. Wiesbaden: Springer Gabler.
Kroeber-Riel, W., & Gröppel-Klein, A. (2013). Konsumentenverhalten (10. Aufl.). München: Vahlen.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychologie, 77(6), 1121–1134.
Lobe, A. (3. Februar 2019). Gebaute Filterblasen.: Frankfurter Allgemeine Sonntagszeitung, S. 39.
Mayer-Kuckuk, F. (30. Juli 2019). Webseiten müssen wegen Like-Buttons fragen. General Anzeiger, S. 6.
Mayntz, G. (18. Juni 2019a). Online-Netzwerke: Wirkung überschätzt. General Anzeiger, S. 4.
Mayntz, G. (14. Mai 2019b). Die Grenzen des Sagbaren verschieben sich. General Anzeiger, S. 3.
NetzDG. (2017). Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz). https://www.gesetze-im-internet.de/netzdg/BJNR335210017.html. Zugegriffen am 23.07.2019.
Newton, C. (2018). Google’s new focus on well-being started five years ago with this presentation. https://www.theverge.com/2018/5/10/17333574/google-android-p-update-tristan-harris-design-ethics. Zugegriffen am 02.08.2019.
Pariser, E. (2011). Filter bubble: How the new personalized web is changing what we read and how we think. New York: Penguin Books.
Pokorny, S. (2019). Der Einfluss der Facebook-Nutzung auf die Sprach- und Streitkultur. www.kas.de. Zugegriffen am 18.06.2019.
Pörksen, B. (2018). Medienwissenschaftler Bernhard Pörksen: „Die Grenzen des Sagbaren verschieben sich“. https://www.suedkurier.de/ueberregional/kultur/Medienwissenschaftler-Bernhard-Poerksen-Die-Grenzen-des-Sagbaren-verschieben-sich;art10399,9647236. Zugegriffen am 01.08.2019.
Rahwan, I. (15. Juni 2019). Unwissen macht uns manipulierbar. Der Spiegel, S. 102–104.
Rathi, R. (2019). Effect of Cambridge Analytica’s Facebook ads on the 2016 US Presidential Election. https://towardsdatascience.com/effect-of-cambridge-analyticas-facebook-ads-on-the-2016-us-presidential-election-dacb5462155d. Zugegriffen am 08.07.2019.
Schweiger, W. (2017). Der (des)informierte Bürger im Netz. Wie soziale Medien die Meinungsbildung verändern. Wiesbaden: Springer.
Seemann, M., & Kreil, M. (2017). Digitaler Tribalismus und Fake News. http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/. Zugegriffen am 01.08.2019.
Sumpter, D. (2018). Outnumbered: From Facebook and Google to fake news and filter-bubbles – The algorithms that control our lives. London: Bloomsbury Sigma.
Van Lijnden, C. (3. Juli 2019). Die Filterblase zum Platzen bringen. Frankfurter Allgemeine Zeitung, S. 1.
Willnow, S. (2019). Verfassungsschutz-Symposium: Die Verschiebung des Sagbaren. https://twnews.de/de-news/verfassungsschutz-symposium-die-verschiebung-des-sagbaren. Zugegriffen am 01.08.2019.
Yao, M. (2017). Chihuahua or muffin? My search for the best n API. https://medium.freecodecamp.org/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d. Zugegriffen am 03.07.2018.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Kreutzer, R.T. (2020). Algorithmenbasierte Demagogie. In: Die digitale Verführung. Springer, Wiesbaden. https://doi.org/10.1007/978-3-658-27781-9_4
Download citation
DOI: https://doi.org/10.1007/978-3-658-27781-9_4
Published:
Publisher Name: Springer, Wiesbaden
Print ISBN: 978-3-658-27780-2
Online ISBN: 978-3-658-27781-9
eBook Packages: Business and Economics (German Language)