Advertisement

Algorithmen

  • Christian Humborg
  • Thuy Anh Nguyen
Chapter
  • 3.9k Downloads
Part of the essentials book series (ESSENT)

Zusammenfassung

Algorithmen sind heutzutage in der zunehmend digitalisierten Welt nicht mehr wegzudenken und werden zu verschiedenen Zwecken wie Automatisierung, Mustererkennung, Risikoanalyse oder Kontrolle angewandt. Hinter ihnen stehen Menschen, Institutionen, Unternehmen usw., die wiederum bestimmte Interessen und Ziele verfolgen. Aufgrund der Potenziale und den tief greifenden Auswirkungen auf gesellschaftliche Prozesse stellt sich die Frage, wie Machtmissbrauch und Manipulation zu verhindern sind.

Ein Algorithmus bezeichnet eine Reihe von schrittweisen Befehlen, die durchgeführt werden sollen, um aus einer Eingabe eine Ausgabe zu erzeugen und damit ein Problem zu lösen (vgl. Mahnke 2015). Heute werden Algorithmen zu verschiedenen Zwecken wie Automatisierung, Mustererkennung, Risikoanalyse oder Kontrolle in sämtlichen Gesellschaftsbereichen angewendet.

In der Medienbranche erstellen Dienste wie Narrative Science oder Quakebot die ersten automatisierten Texte, Grafiken und Visualisierungen. Unternehmen wie Netflix oder Buzzfeed analysieren Nutzungsmuster ihrer Nutzer, um zu prognostizieren, welche Inhalte auf dem Werbe- und Publikumsmarkt gefragt sind (vgl. Heise 2016, S. 202). Bei Werbeplattformen bilden algorithmische Prozesse die Grundlage für die Sortierung und Filterung der Inhalte. Während journalistische Redaktionen eine Reihe von Nachrichtenwerten heranziehen, um die Relevanz eines Themas zu messen, befolgen Facebook und Google keine auf erkenntnistheoretischer Basis vordefinierten Kriterien. Lischka und Stöcker (2017) sprechen von einer „komplexen Wechselwirkung zwischen Nutzerverhalten und algorithmischen Systemen“ (ebd., S. 8), bei der die Plattformen eine vorselektierte Auswahl an Inhalten bereitstellen und den Nutzer mit dieser interagieren lassen. Welche Inhalte er anklickt, gefällt, teilt oder ignoriert, wird von dem Algorithmus erfasst, ausgewertet und für den nächsten Selektionsprozess verwendet (vgl. ebd., S. 19 ff.). Hinzu kommt eine Vielzahl anderer Faktoren wie das Surfverhalten, die Profilinformationen, die Interaktion mit anderen Nutzern. Für Facebook und Google ist Relevanz sozusagen personalisiert: „Die optimale Passung von Inhalten an die Präferenzen Einzelner ist das oberste Ziel“ (ebd., S. 26). Dies könnte im Hinblick auf die Meinungsbildung problematisch sein und zu einer stärkeren gesellschaftlichen Polarisierung führen (siehe Kap.  8). Durch ihre Fähigkeit, die Sichtbarkeit von Inhalten und Personen zu steuern, können die Werbeplattformen sogar Trends setzen oder kulturelle und soziale Erfahrungen der Nutzer prägen (vgl. Foer 2017, S. 74 ff.). Schuster et al. (2015) weisen ihnen eine Gatekeeper-Funktion zu.

Algorithmen sind für den Nutzer oft undurchsichtig in Form, Funktionsweisen und Ergebnissen. Erstens basieren viele algorithmische Dienste auf einer dezentralen Softwarearchitektur. Sie setzen sich aus Prozessen zusammen, die oft unabhängig voneinander entwickelt worden sind. Zweitens werden sie permanent optimiert: „[…] algorithms are made and remade in every instance of their use because every click, every query, changes the tool incrementally“ (Gillespie 2014, S. 173). Selbst für die Entwickler wird es im Laufe der Zeit immer schwieriger, sie in ihrer Gänze zu verstehen oder ihr „Verhalten“ vorherzusagen (vgl. Napoli 2014). Drittens sind die Software und Code von den Anbietern aus geschäftspolitischen Gründen geschützt oder um Missbrauch und Manipulation zu verhindern. Obwohl Nutzer nur sehr wenig darüber wissen, gehen viele von ihnen aus, dass zum Beispiel die Ergebnisse von Suchmaschinen neutral, unvoreingenommen und relevant sind (vgl. Schuster et al. 2015). Tatsächlich stehen hinter den Algorithmen Menschen, die diese entwickeln, modifizieren und anpassen. Diese wiederum sind eingebunden in Institutionen, Unternehmen, Werbetreibende usw. und von deren Interessen und Zielen geprägt. Dadurch kann es zu Verzerrungen kommen (vgl. Napoli 2014), was zu unbeabsichtigten Folgen führen kann, aber auch zur systematischen, unfairen Diskriminierung und Manipulation von Individuen oder Gruppen (vgl. Heise 2016; Introna und Wood 2004; Cheney-Lippold 2011; Zwitter 2014). Aufgrund dieser gewaltigen Potenziale und den tief greifenden Auswirkungen auf gesellschaftliche Prozesse stellt sich die Frage, wie Machtmissbrauch und Manipulation zu verhindern sind.

Ein Ansatz sind Selbstverpflichtungen der Anbieter, sich an normative Grundsätze wie Fairness zu binden sowie soziale Verantwortung zu übernehmen (vgl. Heise 2016, S. 206). Eng mit der Selbstverpflichtung verbunden ist auch die Forderung an Anbieter, mehr Transparenz zu zeigen – hinsichtlich der Ziele und Zwecke, der genutzten Daten und der Einsatz von Filtern und Personalisierungsmechanismen (vgl. Diakopoulous 2015).

Die Selbstregulierung allein reicht jedoch nicht aus. In einem Manifest fordert die gemeinnützige Organisation AlgorithmWatch unter anderem: „Demokratische Gesellschaften haben die Pflicht, [die] Nachvollziehbarkeit von [ADM-Prozessen] herzustellen: durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen“ (AlgorithmWatch 2017). Es sollen klare gesetzliche Rahmen entwickelt werden, die konkret regeln, welche Daten gesammelt und verarbeitet werden sowie welche technischen Mechanismen angewandt werden dürfen (vgl. Heise 2016, S. 207).

Parallel soll der Nutzer in seiner Medienkompetenz, in seiner kritisch-reflexiven Umgang mit algorithmischen Medien gefördert werden (vgl. Schuster et al. 2015). Ebenso liegt es an Forschern, Hackern und Journalisten, über ihre Wirkweisen zu berichten sowie eventuelle Missstände öffentlich zu machen (vgl. Diakopoulous 2015).

Copyright information

© Springer Fachmedien Wiesbaden GmbH 2018

Authors and Affiliations

  • Christian Humborg
    • 1
  • Thuy Anh Nguyen
    • 2
  1. 1.CORRECTIV – Recherchen für die GesellschaftBerlinDeutschland
  2. 2.BerlinDeutschland

Personalised recommendations