1 Einleitung

In den letzten Jahren sind einige Versuche in Richtung einer Theoretisierung der digitalen Transformationen gemacht worden (Lupton 2015; Daniels et al. 2017; Marres 2017; Selwyn 2019; Maasen und Passoth 2020). Dabei geht es diesen Ansätzen um die Untersuchung der digitalen Transformation in der Gesellschaft als Ganze (vgl. Seyfert und Roberge 2017; Baecker 2018; Nassehi 2019) oder in deren Teilbereichen, z. B. der gesellschaftlichen Infrastrukturen (Latour et al. 2012; Healy 2015), der Wirtschaft (Pfeiffer 2021), des Finanzmarktes (MacKenzie 2021), der Subjektivierungsformen (Reckwitz 2017; Goriunova 2019), des Alltagslebens (Amoore und Piotukh 2016).

Im Folgenden mache ich im Anschluss an und in Weiterführung von bereits existierenden konzeptuellen Ansätzen einen Vorschlag für eine Theorie algorithmischer Sozialität (TaS).

2 Eine relationale Theorie Algorithmischer Sozialität (TaS)

Die grundsätzliche Notwendigkeit einer solchen Theorie ergibt sich aus einer veränderten gesellschaftlichen Situation. Die digitale Transformation der letzten Jahrzehnte hat das soziale Zusammenleben, die Institutionen und Organisationen der Gesellschaft als Ganze in einem Maße verändert, die auch eine Transformation der soziologischen Theorie nötig macht. Um konzeptuellen Zugriff auf die digitale Transformation der Gesellschaft zu erlangen, kann man in einem ersten Schritt das aktuelle (algorithmische) Zeitalter als Digitalisierung 2.0 vom Zeitalter der Digitalisierung 1.0 unterscheiden.

Ganz abstrakt lässt sich Digitalisierung als die „Umwandlung analoger Werte in digitale Formate [innerhalb einer] binären Unterscheidung“ bestimmen (Baecker 2018, S. 60). Im Vordergrund steht dabei die Hervorbringung digitaler Repräsentationen physischer Entitäten (digitale Bilder, Musik etc.) (Hedrick et al. 2020).

Die zentralen Probleme der Digitalisierung 1.0 drehten sich in den späten 1990er und frühen 2000er Jahren um Fragen der Übertragung dieser digitalen Repräsentationen, der Vernetzung (Netzwerkgesellschaft) und des Informationsaustausches (Informationsgesellschaft), darum also, wie Informationen und Daten „are produced, circulated, and remediated via networked digital technologies“ (Grusin 2010, S. 6; vgl. Payne 2013). Dabei handelte es sich zunächst jedoch um kein gesellschaftsumfassendes Phänomen, vielmehr bezog es sich auf spezifische Industriesektoren, Expert*innenkulturen und Nischenmilieus.

Die Digitalisierung 2.0 kann verstanden werden als die verallgemeinerte Vergesellschaftung dieser Phänomene, als die umfassende digitale Transformation der Gesellschaft, in der die konventionellen face-to-face-Beziehungen von digital und algorithmisch vermittelten Beziehungen als die dominanten Beziehungsweisen der Gesellschaft abgelöst werden. Dieses Dominant-Werden von Beziehungen zu und mit digitalen Systemen macht die in der Soziologie traditionell untersuchten intersubjektiven und leib-körperblichen Präsenzbeziehungen jedoch keineswegs obsolet. Jene erweitern vielmehr die Vielfalt und Heterogenität bereits existierender Sozialbeziehungen, wohingegen diese durch die Hegemonie digitaler Beziehungen sogar besondere Wertschätzung und kulturellen Status erfahren können.

Die Digitalisierung 2.0Footnote 1 lässt sich durch zwei zentrale Kriterien bestimmen, die sie zugleich von der Digitalisierung 1.0 unterscheidbar machen. Zum einen wird sie durch digitale Kollaboration und Teilhabe definiert (Jenkins et al. 2006). Dabei kommt es zu einer Überwindung der Trennung von Produzent*innen und Konsument*innen: jede*r wird zum Produzent*en als auch zum Konsument*en digitaler Phänomene. Exemplarisch stehen dafür das Web 2.0 (z. B. Soziale Medien im Gegensatz zu statischen Webseiten als Phänomene der Digitalisierung 1.0), in denen alle (potenziell) sowohl konsumieren als auch produzieren können. Ein zweites Kriterium besteht in der raum-zeitlichen Mobilisierung und Flexibilisierung durch die tatsächlich die Digitalisierung aller Bereiche des Alltags möglich wird: „technology itself—in terms of both applications and operating software—moves from desktop to WebTop“ (Lash 2006, S. 580).

Häufig wird im Zusammenhang der Digitalisierung 2.0 auch von einer zunehmenden Demokratisierung gesprochen. Im Gegensatz zu Teilhabe und raumzeitlicher Mobilisierung ist das allerdings kein empirischer Befund, sondern vielmehr eine Rhetorik (Beer und Burrows 2007). Angesichts des privatwirtschaftlichen Status der digitalen Plattformen, in denen sich die zentralen sozialen Beziehungen heute abspielen, kann von einer Demokratisierung kaum die Rede sein (Zuboff 2018). Man kann die Rhetorik der Demokratisierung jedoch soziologisch übersetzen, nämlich als verallgemeinerte Teilhabe: Zwar ist die Teilhabe an den zentralen sozialen Medien nicht demokratisch organisiert, aber sie ist weitverbreitet. Diese Verallgemeinerung verweist auf den angesprochenen Unterschied zwischen Digitalisierung 1.0 und Digitalisierung 2.0: auf den Übergang von einer Nischenkultur zu einem gesamtgesellschaftlichen Phänomen, auf die Ausbreitung von Algorithmen in alle Bereiche des sozialen Lebens (Roberge und Seyfert 2017).

Der vorliegende Text möchte mit einer Theorie algorithmischer Sozialität (TaS) einen Beitrag leisten diese allgemeine Verbreitung digitaler Beziehungen theoretisch zu fassen. Dabei lassen sich umfangreiche Anschlüsse an aktuelle Debatten der Techniksoziologie, der Science and Technology Studies, der Soziologie des Digitalen (bzw. Digital Sociology) und andere vornehmen. Grundsätzlich interessieren sich diese Theorieansätze nicht für die soziologische Analyse mit und durch Algorithmen (wie z. B. die Data Science), sondern für die soziologische Aufklärung einer Gesellschaft, die zunehmend durch algorithmisch vermittelte Beziehungen (individuell, institutionell, organisational etc.) bestimmt ist. Dabei ist der Beziehungsbegriff recht weit gefasst, umfasst Interaktionen (Rammert 2016; Rammert und Schulz-Schaeffer 2016) genauso wie Interpassionen (Seyfert 2019, Kapitel 10). Ein solcher Ansatz verweist auf einen methodologischen Relationalismus, der die Beziehungen zwischen den Individuen und Elementen (z. B. menschlichen Individuen und algorithmischen Objekten) als konstitutiv und primär gegenüber diesen Einheiten ansieht. Versteht man Algorithmen als relationale Mechanismen, kann man davon ausgehen, dass sowohl der Algorithmus als auch die Individuen aus dieser Beziehung erst hervorgehen bzw. durch sie verändert werden und (im Fall der maschinell lernenden Algorithmen sogar) voneinander lernen (Gillespie 2017; Brooker et al. 2017). Damit richten sich solche Theorien gegen zwei dominante Traditionen. Sie richtet sich (1.) gegen einen algorithmischen Determinismus, der Algorithmen in erster Linie für ein Instrument der Konfiguration der Nutzer*innen (Woolgar 1991), oder sogar der Manipulation und Kontrolle von menschlichen Individuen hält (vgl. Harari 2017). Und er richtet sich (2.) gegen einen algorithmischen Instrumentalismus, der in Algorithmen lediglich ein passives Werkzeug von Menschen sieht (vgl. Steiner 2012). Algorithmen sind weder als objektive Repräsentationen der sozialen Welt noch als Subjektivierungstechnologien angemessen beschrieben. Die ‚Wahrheit‘ der Algorithmen steckt genauso wenig in ihrem Code, wie die Wahrheit der Individuen in ihren Gehirnstrukturen steckt. Beide gehen aus den Wechselbeziehungen im Sinne Simmel (1992, S. 55) hervor, d. h. Menschen ko-produzieren Algorithmen, genauso wie Algorithmen umgekehrt Menschen ko-produzieren (Kalpokas 2019, S. 70). In diesem Zusammenhang nehmen Algorithmen innerhalb der digitalen Transformation der Gesellschaft eine besondere Rolle ein, weil sie eine der entscheidenden Arten der Wechselseitigkeit in digitalen Gesellschaften darstellen.

Die Relationalität der Theorie behauptet nun aber keine Auflösung der in ihnen verwobenen Elemente und Individuen. Durch ihre Wechselbeziehung befinden sie sich zwar in einer permanenten Veränderung, zugleich bleiben sie als Elemente aber erhalten. Mit Gilbert Simondon werde ich ihr Verhältnis als das einer Disparation bezeichnen. Dabei handelt es sich um ein metastabiles Gleichgewicht, d. h. (1.) eine quasi-kohärente Einheit, in der (2.) ein problematisches und spannungsgeladenes Verhältnis der Elemente bestehen bleibt. Dieses problematische Verhältnis wird weder dialektisch aufgehoben noch verschmelzen die Elemente zu eine*m sozio-technischen Symbionten. Eine solche theoretische Konstellation hat u. a. zur Folge, von postdigitalen Ansätzen Abstand zu nehmen, von Ansätzen also, die die Unterscheidung von digital und analog gerade einebnen wollen. Ich argumentiere für eine Theorie sozialer Beziehungsweisen (Seyfert 2019), die die Unterscheidung von digital und analog nicht überwindet, sondern vielmehr von der Vervielfältigung und Heterogenisierung sozialer Beziehungen ausgeht: Die neuen Formen digitaler (bzw. algorithmischer) Sozialbeziehungen treten neben die klassischen analogen (bzw. intersubjektiven und leib-körperlichen) Beziehungen, ergänzen und vervielfältigen diese.

Demgemäß wird die Theorie (TaS) in folgender Reihenfolge entfaltet (1.) die Individuen bzw. Elemente (z. B. menschliche Individuen und algorithmische Technologien), (2.) die Beziehungen, die diese Elemente eingehen und (3.) die Prozesse, die mit diesen Beziehungen verbunden sind.

Um den Theoriezusammenhang angemessen darzustellen, werde ich zuerst die Umwelt und die Elemente nachzeichnen, in der sich diese Beziehungen abspielen (und die wiederum die Elemente prägen). Damit soll keineswegs ein Primat einer (natürlichen oder technischen) Umwelt oder der Elemente (Menschen, Algorithmen) angezeigt sein. Eine gute Theorie hat keinen Kern oder hierarchischen Aufbau, sie hat kein Anfang und kein Ende (Deleuze 2007, S. 169ff.). Alle Theorieteile (Elemente, Beziehungen, Prozesse) sind für die Theoriesystematik im gleichen Maße wichtig. Wenn ich in der Darstellung mit der Umwelt und den Elementen der algorithmischen Sozialität beginne, dann aufgrund der Konvention, dass eine Theoriedarstellung irgendwo beginnen muss.

2.1 Elemente algorithmischer Sozialität

Der Einfachheit halber möchte ich die TaS anhand der heuristischen Unterscheidung zweier Systeme und Umwelten vornehmenFootnote 2: digitale und analoge Umwelten bzw. digitale und analoge Systeme.

Bevor ich darauf näher eingehe, möchte ich die Unterscheidung in analog und digital begründen, die möglicherweise überholt erscheinen mag. Vor allem Vertreter*innen postdigitaler Ansätze werden hier unzeitgemäße Theorieübernahmen vermuten. Diese Ansätze argumentieren, dass gerade der Umstand der Verallgemeinerung und Verselbstverständlichung digitaler Beziehung eine Unterscheidung in digital und analog obsolet werden lässt. So beobachtet Nicholas Negroponte (1998) – also während der Digitalisierung 1.0 – im Zusammenhang von Computern, dass wir diese nur noch dann wahrnehmen, wenn sie fehlen oder wenn sie nicht funktionieren. Dasselbe scheint heute für Algorithmen zu gelten. So wie damals haben es wir auch heute – in der zweiten Welle der (algorithmischen) Digitalisierung – mit einer radikalen strukturellen Transformation der Gesellschaft und aller sozialer Beziehungen zu tun. Analog zur These der Postdigitalität könnte man heute also von einem post-algorithmischen Zeitalter sprechen, was darauf verweisen würde, dass gerade die Ubiquität und Selbstverständlichkeit von Algorithmen die Unterscheidung in algorithmische und nicht-algorithmische Phänomene überflüssig macht. Ohne die Diskussion über das Konzept der postdigitalen Konstellation im Detail nachzeichnen zu können, müsste man in diesem Zusammenhang zuerst auf die fortschrittsideologischen Aspekte dieser Theorie hinweisen, was sich u. a. dann zeigt, wenn die Unterscheidung in digital und analog bzw. online und offline aufgrund unserer permanenten digitalen Vernetzung als „anachronistisch“ bezeichnet wird (Berry 2015, S. 50). In dieser Perspektive ist die Digitalisierung 2.0 das Zeitalter des Postdigitalen. Ich halte die These eines postdigitalen (bzw. eines post-algorithmischen) Zeitalters insbesondere hinsichtlich der Transformation sozialer Beziehungen für unplausibel, und das in empirischer und theoriesystematischer Hinsicht. Zum einen hat die pandemische Gesellschaftslage allen Beteiligten die Unterschiede und die Wertigkeiten der verschiedenen Beziehungsweisen – digital-analog, digital-digital, analog-analog – am eigenen Leib erfahrbar gemacht. Innerhalb der pandemischen Situation gewannen die leib-körperlichen Präsenzbeziehungen gerade wegen der Dominanz digitaler Beziehungen eine besondere Wertschätzung. Diese Valorisierung intersubjektiver Beziehungen in Zeiten der Pandemie setzt aber eine Unterscheidung in digitale und analoge Beziehungen voraus. Der Begriff der Postdigitalität ebnet solche empirischen Unterschiede jedoch theoriesystematisch ein. Neue Formen sozialer Beziehungen – wie z. B. zwischen Algorithmen und Subjekten – werden invisibilisiert, und das deshalb, weil der Vergleich zu anderen Formen (z. B. zu analogen face-to-face-Interaktionen), der die Spezifika solche Beziehungsformen überhaupt sichtbar machen könnte, verloren geht.

Die Transformation der sozialen Beziehungen und die Entstehung neuer Formen (inklusive subjekt-algorithmischer Beziehungen) geht auch nicht mit der Auflösung der beteiligten Elemente (menschliche Subjekte, algorithmische Objekte etc.) und mit dem Verschmelzen zu soziotechnischen Symbionten einher. Vielmehr werden die Individuen und Elemente eigenen Transformationsprozessen unterworfen, z. B. in dem sich neue Subjektivitätsformen ausbilden. Überall wird die Unterscheidung von algorithmischem Objekt und menschlichem Subjekt performativ hervorgebracht und stabilisiert (z. B. durch die Valorisierung intersubjektiver Beziehungen während der Pandemie oder durch regulatorische Demarkationen von algorithmischen Objekten [Seyfert 2022]). Zugleich ist das Verhältnis zwischen beiden kontextabhängig: Manche menschlichen Subjekte beanspruchen die vollständige Kontrolle über ‚ihre‘ algorithmischen Werkzeuge, andere wiederum sind in viel stärkerem Maße bereit, sich den Algorithmen ‚auszuliefern‘ und sich von ihnen leiten zu lassen. Streng genommen kann man nicht mehr von algorithmischen Objekten und menschlichen Subjekten sprechen, sondern (in Anlehnung an Michel Serres) von algorithmischen und menschlichen Quasi-Subjekten und Quasi-Objekten (Lange et al. 2019, S. 604ff.).

Wenn die Vertreter*innen postdigitaler Ansätze eine zunehmende Ununterscheidbarkeit digitaler und analoger Phänomene bzw. Lebenswelten geltend machen – als dialektische Aufhebung der Unterscheidung oder sogar als Übergang in symbiotische Beziehungen – konzeptualisiert die TaS das Verhältnis analoger und digitaler Elemente (in Abschn. 2.2) mit Gilbert Simondon als eine Disparation und ein metastabiles Gleichgewicht.

Zum Bereich des Analogen gehören analoge Systeme (Tiere, Pflanze, Menschen etc.) und die analoge Umwelt (die Naturumwelt der materiellen Dinge und Artefakte etc.). Zur analogen Umwelt gehören auch technische Artefakte, die nicht digital sind. Aus Raumgründen wird die analoge Umwelt im Folgenden nur am Rande Erwähnung finden, z. B. im Zusammenhang der Objekterkennung autonomer Fahrzeuge. Ich erwähne sie hier aus Gründen der theoriesystematischen Vollständigkeit. Dagegen werden die analogen Systeme eine wichtigere Rolle spielen, insbesondere menschliche Subjekte.

Zum Bereich des Digitalen gehört die digitale Umwelt: Das sind technische Infrastrukturen, Netzwerke, Server, „integrated circuits, printed circuit boards, cables, power supplies, memories, and printers“ etc. (Tanenbaum und Austin 2013, S. 8). Dabei müssen Infrastrukturen als relational und prozessual, nicht aber als statisch und fixiert gedacht werden. Star und Ruhleder schlagen folgende Definition vor: „infrastructure is a fundamentally relational concept. It becomes infrastructure in relation to organized practices“ (Star und Ruhleder 1996, S. 113). So kann auch ein Algorithmus selbst zur Infrastruktur und digitalen Umwelt eines anderen Algorithmus werden, z. B. (im Fall des maschinellen Lernens) wenn ein Algorithmus in Trainingsdaten Muster erkennt und daraus ein Modell entwickelt. Ein solches Model kann wiederum die digitale Umwelt bzw. die Infrastruktur für einen Algorithmus bilden, der in Live Daten Inferenzen identifizieren soll.

Zur digitalen Umwelt gehören außerdem (große und kleine) Daten. Auch Daten sind nicht als singuläre Entitäten, sondern als relationale Komponenten zu denken, d. h. sie gewinnen nur ausgehend von ihrer spezifischen Position und den Beziehungen die sie in der Datenstruktur eingehen können, ihren eigenständigen Wert: „Digitale Daten sind demnach darauf angelegt, mit anderen Daten für bestimmte Kalkulationen verknüpft zu werden, um daraus algorithmisch Ergebnisdaten zu produzieren“ (Häußling 2020, S. 141). Daten sind nicht einfach nur rohe Daten, sondern spezifisch strukturierte Informationen. Jedes Phänomen das ein Algorithmus prozessieren soll, muss auf eine algorithmusspezifische Weise modelliert werden (Manovich 1999, S. 84). Mit anderen Worten müssen Daten in eine konkrete Datenform übertragen und so formalisiert werden, sodass Algorithmen automatisch mit ihnen operieren können. Man kann Algorithmen dann auch analysieren, indem man sich anschaut, wie Informationen auf die Algorithmen zugeschnitten werden müssen, wie Informationen algorithmusbereit gemacht werden (Gillespie 2014, S. 171). Im Zusammenhang einer relationalen Theorie algorithmischer Sozialität ist die Entwicklung relationaler objektorientierter Datenbanksysteme wichtig. Während ältere Systeme Daten in inflexiblen Hierarchien organisiert haben, gilt für diese Systeme „information can be organized in more flexible ways, where bits of data can have multiple associations with other bits of data, categories can change over time, and data can be explored without having to navigate or even understand the hierarchical structure by which it is archived.“ (Gillespie 2014, S. 171).

Darüber hinaus ist die digitale Umwelt auch ein kodifizierter Raum, ein vermessener und digital kartographierter Raum. Eine digitale Umwelt ist z. B. eine Umwelt für die eine digitale Karte existiert, die man herunterladen und zur Orientierung nutzen kann. Existiert eine solche Karte nicht, handelt es sich um eine analoge Umwelt. Man sieht an diesem Beispiel, dass es sich bei den Begriffen wie digitale Umwelt, analoge Umwelt, digitale Systeme und analoge Systeme um heuristische Begriffe handelt, deren Realbezug allein in empirischen Untersuchungen zu klären ist. So wird ein digitaler Raum (für den prinzipiell eine digitale Karte existiert) für diejenigen zu einem analogen Raum, denen der Zugang fehlt (die diese Karte nicht besitzen, keinen Online-Zugang oder keine Zugriffsrechte haben etc.).

Zu den digitalen Systemen gehören nun Algorithmen, z. B. in digitalen Plattformen, automatisierten Systemen, sozialen Medien etc. Daten sind grundlegend Teil der digitalen Umwelt, sie werden aber erst im Moment ihrer algorithmischen Relationierung Teil digitaler Systeme, d. h., wenn sie vom Status der Virtualität (in der Datenbank) in den Status der Aktualisierung übergehen. Daten können nur dann als Schnittstellen zwischen sozialen und algorithmischen Prozessen operieren (Häußling 2019, S. 144), wenn Algorithmen die Verbindung zwischen Daten und sozialen Prozessen vermitteln, wenn sie sie aktualisieren.

Auch für die Unterscheidung zwischen digitalen Umwelten und digitalen Systemen gilt, was für die Unterscheidung von analoger und digitaler Umwelt gilt, nämlich dass es sich hier um eine weitestgehend heuristische Unterscheidung handelt. Davon zeugt die bekannte Einsicht: „Hardware and software are logically equivalent“ (Tanenbaum und Austin 2013, S. 8). Gemeint ist damit das „softening of hardware“, also der Umstand, dass die prozessierenden Systeme zunehmend direkt in die Hardware eingebettet werden (Vahid 2003, S. 27ff). Der Hinweis auf die Einbettung der Software in Hardware hilft zugleich bei der genaueren Bestimmung der digitalen Umwelt. Diese muss man sich nicht notwendigerweise als etwas Äußerliches vorstellen, als eine Zone ‚da draußen‘. Vielmehr kann die Umwelt sehr nah sein. Es handelt sich bei den digitalen Umwelten nicht nur um ‚große‘ Infrastrukturen, wie Kabeltrassen, Funktürme und Satelliten, sondern um alle Arten digitaler Hüllen und Infrastrukturen, in die digitale Systeme eingebettet sind. Ich hatte bereits darauf hingewiesen, dass auch ein Model oder virtuelle Daten eine Umwelt bilden können.

Entscheidend ist, dass Algorithmen die zentralen Mechanismen digitaler Systeme in digitalen Umwelten sind. Für die TaS stellen sie damit die zentralen Elemente einer digital transformierten Gesellschaft dar. Damit geht dieser Ansatz über die Idee einer Informationsgesellschaft (Beck et al. 2014) oder einer Netzwerkgesellschaft (Castells 2001) hinaus und wird damit der Algorithmisierung der Gegenwartsgesellschaft gerecht. Algorithmische Sozialität bezieht sich nicht so sehr darauf, dass der Zugang zur sozialen Welt über Daten oder Netzwerke vermittelt ist (vgl. z. B. Häußling 2020), vielmehr sind Algorithmen die Relationen und Prozesse, die Daten überhaupt zum Teil eines Datennetzwerkes werden lassen. Ohne die Relationierung von Daten (deren Aktualisierung) durch Algorithmen sind Daten Objekte im Sinne Latours, d. h. sie sind unverbundene Elemente ohne soziale Existenz. Für Daten und Algorithmen gilt, was Latour für archäologische Ausgrabungsobjekte und Archäologen gesagt hat: „Sobald jedoch ein Archäologe die armseligen fossilen und staubigen Objekte in den Händen hält, hören diese Reliquien auf, Objekte zu sein“ und kehren in die soziale (relationierende) Welt zurück (Latour 1996, S. 39).

Im Folgenden möchte ich auf die hier spezifizierte Definition von Algorithmen näher eingehen. In den sozial- und kulturwissenschaftlichen Untersuchung werden Algorithmen auf verschiedene Weise konzeptualisiert, z. B. als Regeln, Rezepte, Funktionen oder mathematische Abstraktionen, und situierte Praktiken (Mackenzie 2017, S. 8).

Zentral für die TaS sind relationale und operative (aktualisierende) Aspekte: „relationships between real-world surveillance data and machines capable of making statistically relevant inferences about what that data can mean“ (Cheney-Lippold 2011, S. 178). In diesem Zusammenhang ist ein Algorithmus nicht nur eine formale Handlungsanweisung, nicht allein ein „set of rules proceeding form inputs to output“, das durch einen Computer ausgeführt wird (Soare 1997, S. 222). Er ist nicht nur eine Symboltabelle bzw. ein Rezept (vgl. Cleland 2001). Die Vorstellung eines Algorithmus als formale Handlungsanweisung trennt Handlungsanweisungen von deren Implementierung. Algorithmen sind aber nicht nur formale Ablaufschemata, sondern vor allem Prozesse. Wenn Daten die „Produkte von Relationierungen“ sind (Häußling 2020, S. 139), dann sind Algorithmen die Prozesse, die diese Relationierung auf den Weg bringen. Sie stellen nicht nur Beziehungen zwischen verschiedenen Umwelten und Systemen her, sondern schreiben spezifische Temporalitäten und Zeitlichkeiten in die soziale Welt ein; sie „müssen sich entfalten und verkörpern somit Zeit“ (Miyazaki 2017, S. 174). Insofern verstehe ich unter Algorithmen nicht nur formale Schemata, sondern real ablaufende Prozesse und Operationen. Vielmehr folge ich der Definition eines Algorithmus von Gurevich und Blass: „by definition, a computable function is a function computable by an algorithm“ (Gurevich 2000, S. 80). Für die TaS gilt insofern: „an algorithm is a machine“ (Blass und Gurevich 2004a, S. 216). Damit wird auch die Unterscheidung von Algorithmen als formale Regeln von deren technischer Implementierung überwunden. Diejenigen, die Algorithmen und Implementierung trennen wollen, benutzen das Wort „implementation for the things that we call algorithms“ (Blass und Gurevich 2004a, S. 234).

Im Zusammenhang der Herstellung von Beziehungen zwischen verschiedenen Umwelten und Systemen ist eine weitere Spezifikation verbreitet, nämlich Algorithmen als „rekursive Funktionen“ zu bestimmen (Moschovakis 2001). So sehen Totaro und Ninno in der Rekursion das zentrale Definitionsmerkmal von Algorithmen und zugleich den interpretativen Schlüssel zum Verständnis der modernen Rationalität (2014, 2020). Eine rekursive Funktion ist ein Prozess, in dem der Output in einer potenziell unendlichen Schleife als Input verarbeitet wird (Wirth 1996, S. 140). Es handelt sich um eine „Verschachtelung und Varianten von Verschachtelung“ (Hofstadter 2013, S. 137). Zur Illustration wird häufig auf einen Gegenstand verwiesen, der zwischen zwei sich direkt gegenüberstehenden Spiegeln positioniert ist, wodurch eine unendliche Kette von Spiegelbildern dieses Gegenstands hervorgebracht wird (Totaro und Ninno 2014, S. 30). Allerdings wird die Definition eines Algorithmus als rekursive Funktion der Vielfalt von Algorithmen nicht gerecht. Für eine allgemeine Theorie algorithmischer Sozialität ist sie geradezu unbrauchbar. Eine solche Definition umfasst nämlich offensichtlich nicht solche Arten von Algorithmen, die mit einer unbekannten (digitalen) Umwelt in Wechselbeziehungen stehen und auch nicht-rekursive Funktionen berechnen können (Blass und Gurevich 2004b, S. 296 und S. 289). Die TaS folgt deshalb solchen Definitionen, die Algorithmen als ‚interaktiv‘ verstehen (ohne der aktivistischen Schlagseite der interaktionistischen Begrifflichkeit an dieser Stelle viel Bedeutung beizumessen). Interaktive Algorithmen stehen in Wechselbeziehungen mit einer unbekannten (digitalen) Umwelt, die Zufallsbits liefert (Blass und Gurevich 2004b, S. 289f.). Nur eine solche Definition wird einem relationalen Ansatz gerecht, in der sich Algorithmen nicht ontologisch über den Inhalt einer Handlungsanweisung oder einen Code definieren, sondern als Maschinen, die in der Beziehung mit der Umwelt strukturiert werden. Algorithmen sind relationale Mechanismen, die Elemente (z. B. Daten) in Beziehung zueinander setzen (d. h. sie verarbeiten) und sie dabei hervorbringenFootnote 3 bzw. ko-produzierenFootnote 4 (Seyfert 2022). An diesen Prozess schließt sich jeweils ein weiterer Algorithmus an, der die so hervorgebrachten Daten in neue Beziehungen setzt (weiterverarbeitet) usw. Wenn Daten strukturell relational sind, d. h. sich aus der Konstellation zu anderen Daten bestimmen, sind Algorithmen prozessual relational, d. h. sie setzen Daten in Beziehungen, aktualisieren sie und bringen sie so hervor. Der prozessual-relationale Charakter von Algorithmen ist auch der Grund, warum Daten selbst nicht Teil von Algorithmen sind, vielmehr bilden sie die Umwelt algorithmischer Systeme: Daten werden erst durch Algorithmen in Beziehung zueinander gesetzt (d. h. verarbeitet), aktualisiert und hervorgebracht. Algorithmen sind Maschinen, die sich Elementen der digitalen Umwelt bedienen.

Über diese recht allgemeine Definition von Algorithmen lassen sich nun noch weitere Formen spezifizieren, die ich aufgrund des begrenzten Raumes jedoch nur andeuten kann. Gewöhnlich unterscheidet man in der Diskussion lernende von nicht-lernenden (auf menschlichen Regeln basierten) Algorithmen. Allerdings ist das keine ganz triviale Unterscheidung, die die Unterschiede größer erscheinen lässt, als sie tatsächlich sind. Man kann diese Unterscheidung zum einen als eine qualitative Differenz erscheinen lassen: Während regelbasierte Algorithmen einen Output durch die Bearbeitung eines Inputs auf der Basis explizierter Regeln hervorbringen, erreichen Maschinenlerner (Mackenzie 2017) dieses Ziel auf der Basis automatisch erlernten Wissens. Die dadurch hervorgebrachten Outputs sind (für die menschlichen) Teilnehmer ambivalent (worauf ich in Abschn. 2.3 noch näher eingehen werde). Man kann diese Unterscheidung aber auch als eine interne Komplexitätssteigerung verstehen, wodurch die prominente Unterscheidung Lernen-Nichtlernen an Bedeutung verliert. Dann gilt, während regelbasierte Algorithmen einen Output durch die Bearbeitung eines Inputs nach einer festgelegten Regel hervorbringen, bringen Maschinenlerner ausgehend von vorgegebenen Inputs und Outputs selber Algorithmen hervor: „Learning algorithms […] are algorithms that make other algorithms. With machine learning, computers write their own programs“ (Domingos 2015, S. 6).

Darüber hinaus existieren noch hybride Formen (Chiticariu et al. 2013, S. 827), und Unterformen (überwacht, unüberwacht, bestärkend etc.), auf die ich an dieser Stelle aufgrund von Platzgründen nicht näher eingehen kann.

In dieser grundlegenden Darstellung (Abb. 1) der System-Umwelten-Unterscheidung wird die zentrale Bedeutung von Beziehungen und Prozessen bereits deutlich. Um die neuen Formen sozialer Beziehungen, die durch die TaS sichtbar werden, soll es nun im nächsten Abschnitt gehen.

Abb. 1
figure 1

Elemente algorithmischer Sozialität

2.2 Beziehungen algorithmischer Sozialität

Klassischerweise versteht die Soziologie unter sozialen Beziehungen intersubjektive Beziehungen, also die Interaktionen und Interpassionen von Menschen. Darüber hinaus finden sich – wenn auch nicht in ähnlicher Verbreitung – Ansätze, die sich für subjekt-objektive Beziehungen interessiert, also das Verhältnis von Menschen zu nicht-menschlichen und mehr-als-menschlichen Entitäten und Dingen, so z. B. in den Theorien postsozialer (Knorr Cetina 2007) und interobjektiver Beziehungen (Latour 2001), des Neuen Materialismus (Lemke 2015), der heterologischen Ökologien (Kwek und Seyfert 2018) oder der Techniksoziologie (Rammert 2016; Rammert und Schulz-Schaeffer 2016; Häußling 2019). Die TaS nimmt nun auch diese sozialen Beziehungen in den Blick, die mit der digitalen Transformation auftauchen. Damit ergibt sich bereits ein erster Hinweis auf die Heterogenität der sozialen Beziehungen. Die intersubjektiven und subjekt-objektiven-Beziehungen werden durch inter-algorithmische, subjekt-algorithmische und objekt-algorithmische Beziehungen ergänzt. Eine objekt-algorithmische Beziehung ist beispielsweise das Verhältnis von automatisierten Systemen zu einer natürlichen (analogen) Umwelt. Ein klassisches Beispiel finden wir in der automatisierten Objekterkennung autonomer Fahrzeuge (vgl. Hind 2019). Autonome Fahrzeuge sollen nicht nur andere Fahrzeuge oder Passanten, sondern auch Dinge in der natürlichen Umwelt (wie z. B. Bäume, Wege, aber auch Wetter- und Lichtverhältnisse) erkennen und auf sie reagieren. In diesem Zusammenhang ist es wichtig darauf hinzuweisen, dass digitale Systeme nur vermittelt über die digitale Umwelt Zugriff auf die analoge Umwelt haben. Streng genommen ist eine objekt-algorithmische Beziehung eher eine heuristische Idee als ein empirischer Gegenstand. Kein algorithmisches System hat Vollzugriff auf die natürliche Umwelt. Jedes dieser Systeme erkennt Objekte in der natürlichen (analogen) Umwelt nur vermittelt über die digitale Umwelt, d. h. sie sind hochgradig digital vermittelt. So greifen autonome Fahrzeuge auf ihre Umwelt mithilfe einer Vielzahl von Sensoren zu (Lidar, 360 % Kameras, GPS etc.). Mit diesen Daten erstellt der Algorithmus in der digitalen Umwelt ein Umfeldmodell, also eine Repräsentation der Fahrzeugumgebung in Echtzeit. Die gewonnen Daten und das Modell dienen dem Fahrzeug zur Erkennung des Umfelds (Objekterkennung, Ampelsignale etc.), zur Bestimmung der Position, zur Planung der Bewegung (z. B. Ausweichmanöver) und zur Kontrolle (z. B. Bremsen und Beschleunigen) etc. (Devi et al. 2020, S. 2123).

Wenn auch nicht auf demselben Niveau, findet sich ein ähnlich digital vermitteltes Bild auch in subjekt-objektiven Beziehungen, also z. B. für unsere Beziehung zur analogen natürlichen Umwelt. Auch diese Beziehung ist zunehmend nur durch und über die digitale Umwelt möglich, z. B. wenn wir uns mithilfe digitaler Landkarten in einer kodierten Umgebung bewegen (Bestimmung der Position), in der uns ein Algorithmus mögliche Routen vorschlägt (Planung) oder uns durch Warn-Apps über Gefahrenlagen informiert (Kontrolle). Stets sind Algorithmen präsent. Das heißt z. B. auch, dass die natürliche Umwelt zunehmend ausgehend von ihrer algorithmischen Repräsentierbarkeit wahrgenommen wird: die Bewegung im Raum wird von den Affordanzen von Navigationsgeräten mitbestimmt. So werden Urlaubsorte z. B. ausgehend von der Frage gewählt, ob sie sich angemessen auf sozialen Medien repräsentieren lassen (Sari und Trinanda 2020).

Algorithmen setzen Daten (Elemente in der digitalen Umwelt) in eine Beziehung und bringen sie damit zum Strömen (bzw. verarbeiten sie), z. B. wenn sie Daten sortieren. Für die hier relevanten Algorithmen (interaktive Algorithmen) gilt, dass Daten selbst (strukturell) relationale Objekte sind, d. h. sie können wiederum Einfluss auf die Aktivitäten von Algorithmen nehmen (Häußling 2020, S. 142). Den relationalen Charakter algorithmischer Sozialität kann man sich an den verschiedenen Formen algorithmischer Diskriminierung verdeutlichen (vgl. Hajian et al. 2016). Hier handelt es sich um die relationale Verschränkung spezifischer Elemente in der digitalen Umwelt (z. B. Datensätzen), digitaler Systeme (z. B. Algorithmen) und analoger Systeme (z. B. Menschen) und analoger Umwelt. So weist die analoge (gesellschaftliche) Umwelt Formen von Diskriminierung auf, die maschinell lernende Algorithmen aufgreifen und reproduzieren können. Hier verhält es sich ähnlich zu anderen Sozialisationsprozessen: Sozialisiere bzw. trainiere ich einen lernenden Algorithmus z. B. ausschließlich an Personen mit einer ähnlichen körperlichen Eigenschaft (z. B. Hautfarbe), entstehen daraus Modelle, die für davon abweichende Eigenschaften blind werden. Wird nun ein Algorithmus dieses Modell mit Live-Daten genutzt, führt das konsequenterweise zu parteiischen und diskriminierten Outputs. Das gilt umso mehr, wenn er an Datensätzen, die diversere körperliche Eigenschaften berücksichtigen, eingesetzt wird. In diesem Fall führt das Training an parteiischen Daten zu einem diskriminierenden Modell bzw. Algorithmus. Es ist auch denkbar, dass die Daten (der digitalen Umwelt) Diskriminierungen aufweisen, die in der analogen (gesellschaftlichen) Umwelt nicht zu finden sind, dass Algorithmen die Diskriminierung also sogar verstärken. Dann stellt sich die z. B. Frage, welche Daten zu berücksichtigen sind, um die Diskriminierung zu überwinden (Williams et al. 2018). Ein Lösungsvorschlag besteht darin, Datensätze so auszubalancieren, dass sie die soziale Welt besser repräsentieren (Pessach und Shmueli 2020, S. 17). Es sind darüber noch komplexere Formen der Diskriminierung denkbar, z. B. durch die Anwendung von Modellen auf Daten, die mit den Trainingsdaten wenig zu tun haben (vgl. Tal et al. 2019). Bereits dieser kurze Überblick verweist auf die tiefe relationale Verkettung analoger Umwelt (soziale Diskriminierung), analoger Systeme (subjektiver Bias), digitaler Umwelt (data bias) und digitaler Systeme (algorithmic processing bias).

Trotz dieser grundlegenden Verkettung ist es notwendig, wie zu Anfang erläutert, algorithmische von nicht-algorithmischen Beziehungen, Beziehungen zwischen Menschen und Algorithmen bzw. Beziehungen zwischen Algorithmen zu unterscheiden. Karin Knorr Cetina und Donald MacKenzie haben gezeigt, wie man die Operationen von Algorithmen mit dem in der Soziologie klassischerweise für menschliche Beziehungen reservierten Begriff der Interaktion untersuchen kann (Knorr Cetina 2013; MacKenzie 2019). Jenseits der Vorstellung einer Interaktion von Algorithmen konzeptualisieren anderen Ansätze interalgorithmische Beziehungen z. B. durch das Konzept der algorithmischen Masse bzw. der Lawine (Borch 2020) und der algorithmischen Reihe bzw. Warteschlange (Pardo-Guerra 2019). In solchen Ansätzen werden Vorstellungen von der Hervorbringung von Technologien entwickelt, die über die Vorstellung einer rein technischen Evolution bzw. ökonomischen Effizienz hinausgehen. Donald MacKenzie interessiert sich in seinen Untersuchungen des algorithmischen Börsenhandels dafür, wie Algorithmen miteinander kommunizieren bzw. interagieren. Deren Interaktion ist auch Teil einer komplexen politischen Ökonomie. Es geht MacKenzie auch um die Frage, wie die interalgorithmische Kommunikation durch politische und soziale Prozesse ermöglicht und ko-produziert wird, ist doch die Entstehung des algorithmischen Börsenhandels nicht zu erklären ohne die sehr spezifische Regulierung von Finanzmärkten und der Marktmikrostruktur, die diese Regulierung mit hervorgebracht hat (MacKenzie 2021).

Ergänzend zur Konzeptualisierung der interalgorithmischen Beziehungen möchte ich eine andere Form sozialer Beziehungen hervorheben, die, so meine These, die zentrale Beziehungsform algorithmischer Sozialität darstellt. Es geht dabei um subjekt-algorithmische Beziehungen. Das ist keine algorithmisch vermittelte Form von Intersubjektivität (wie z. B. in sozialen Medien) oder eine Art interalgorithmischer Sozialität (wie im Fall der Kommunikation von Finanzmarktalgorithmen); es ist auch keine auf algorithmischen Prozessen beruhende Form der Sozialität (eine Art mechanische oder maschinelle Sozialität). Vielmehr verweist der Begriff der subjekt-algorithmischen Beziehungen auf die Beziehungen zwischen analogen Systemen (Pflanzen, Tieren, Menschen etc.) und digitalen Systemen. Es lassen sich dazu endlose Beispiele finden, angefangen von Wearables für Menschen (Nosthoff und Maschewski 2019) und Tiere (Lindzon 2015); über die Interaktion mit Assistenzsystemen und Robotern (Karafillidis und Weidner 2018); die Nutzung von Suchmaschinen, Verkaufsplattformen, Computer- und Videospielen; bis hin zum Smart Farming in der Landwirtschaft (Wolfert et al. 2017). Es sind die subjekt-algorithmischen Beziehungen, die den Kern algorithmischer Sozialität bilden. Das übersehen solche Studien, die sich der digitalen Transformation ausschließlich von technischer Seite annähern, die Rolle der Technik in ihren Untersuchungen gegenüber den nichttechnischen Entitäten und Prozessen privilegieren (Suchman 2006, S. 269f.) z. B. indem sie ausschließlich die Möglichkeiten, Fähigkeiten und Grenzen neuer Technologien, wie maschinellem Lernen und Big Data studieren. Das übersehen aber auch solche Ansätze, die sich diesen Phänomenen ausschließlich phänomenologisch und subjekttheoretisch nähern, die also ausschließlich auf die Einflussnahme und die Erfahrungen und Eindrücken individueller Subjekte fokussieren. Beide, sowohl der technische Fokus als auch der phänomenologische Fokus, setzen eine der beiden Seiten der Relation als konstitutiv voraus. So werden Algorithmen häufig ausschließlich als Kontrollinstrumente verstanden, die auf die Menschen als merkwürdig passive Elemente Einfluss nehmen und in diesen Beziehungen selbst keinerlei Veränderung erfahren (vgl. Zuboff 2018). Oder es sind Algorithmen umgekehrt passive Werkzeuge, die von Menschen geschaffen nun wiederum diese ganz unverändert zurücklassen.

Die TaS verschiebt das Primat von beiden Enden der Relation (algorithmisches Objekt-menschliches Subjekt) auf die Relation zwischen diesen beiden Seiten und analysiert von dort aus, wie sich beide Seiten in ihrer Wechselseitigkeit ko-produktiv hervorbringen und verändern. Eine solche Analyse muss sich (1.) auf die verschiedenen Facetten der Relation fokussieren. So reicht es empirisch nicht, schlicht von der Beziehung von Menschen und Algorithmen, Menschen und Maschinen, Menschen und Robotern etc. zu sprechen. Vielmehr kommt es darauf an, ein konzeptuelles Instrumentarium zur Verfügung zu stellen, das komplex genug ist, die Details dieser Beziehungen sichtbar zu machen. An anderer Stelle habe ich den Vorschlag gemacht diese Beziehungsweisen mithilfe einer Affektanalyse zu erschließen, d. h. die Arten und Weisen zu untersuchen, wie jede Seite der Relation von der jeweils anderen affiziert wird und auf welche Art und Weise sie jeweils die andere Seite der Relation affiziert (Seyfert 2019, Kapitel 8). Damit geht eine solche Beziehung weit über kognitive, intentionale und reflexive Prozesse hinaus. So hat eine Ethnographie des algorithmischen Hochfrequenzhandels u. a. die sozio-technischen Beziehungen zwischen menschlichen Subjekten und ihren technischen Geräten, inklusive der Beziehungen zu algorithmischen Technologien zum Vorschein gebracht. Dabei handelt es sich nicht allein um eine komplexe Form der Bildschirmarbeit und um Informationsverarbeitung, sondern um multi-frequentielle Bindungen, die u. a. visuelle, akustische und körperlich-pharmakopische Intensivierungen beinhalten (Seyfert 2019, Kapitel 13). Darüber hinaus kann man die Beziehungen von menschlichen Subjekten und algorithmischen Objekten entlang der Distribution von Aufmerksamkeit, Kognition, Handeln, Kontrolle und Verantwortung untersuchen. Es handelt sich um recht dynamische und veränderliche Konstellationen, die kontext- und situationsabhängig in ganz verschiedenen Formen von Beziehungen und Partizipationsverhältnissen vorliegen können.

Jenseits der vielfältigen und heterogenen Beziehungsformen kann eine Analyse der algorithmischen Sozialität (2.) die transformativen Effekte sichtbar machen. Sie kann analysieren, welche Prozesse durch diese Beziehungen in Gang gesetzt werden. Dabei ist ein zentrales Argument einer relationalen Theorie, dass die beiden Seiten (z. B. menschliche Individuen und algorithmische Technologien) nicht aus sich heraus bestimmt sind, sondern dass diese erst in der Wechselbeziehung hervorgebracht und transformiert werden. Die Untersuchung von Prozessen algorithmischer Sozialität kann diese Veränderung sichtbar machen. Wie bereits weiter oben erwähnt, gehen damit auch Prozesse der Subjektivierung einher, die sich sowohl auf die menschlichen Individuen als auch auf die algorithmischen Technologien beziehen können (z. B. anthropomorphisierte Roboter).

Trotz dieser Wechselseitigkeit geht die TaS davon aus, dass die Elemente grundlegend unterscheidbar bleiben. Sie werden weder in einem dialektischen Prozess aufgehoben, noch gehen sie in eine*m sozio-technischen Symbionten auf. Ich bevorzuge ihr Verhältnis (3.) als disparat und metastabil zu beschreiben. Das Konzept der Disparation stammt von Gilbert Simondon. Er löst damit das Problem der dialektischen Methoden, in der die Herstellung einer systematischen Einheit stets auf Kosten der Heterogenität ihrer Elemente erfolgt (vgl. Deleuze 2007). Ein disparates Verhältnis ist die Vermittlung (mindestens) zweier Positionen, bei der die ursprüngliche Widersprüchlichkeit nach der Vermittlung weiterhin bestehen bleibt. Demgegenüber vermittelt die Dialektik den Widerspruch und löst die Spannung auf: „Es verschwindet aber damit aus dem Spiele des Wechsels das wesentliche Moment, sich in Extreme entgegengesetzter Bestimmtheiten zu zersetzen“ (Hegel 1986, S. 149f.). Eine Disparation ist nun ein Prozess, in dem „sich zwei disparate Wirklichkeiten zu einem System schließen“ ohne, dass der Gegensatz selbst aufgehoben würde (Simondon 1995, S. 29). Gilbert Simondon veranschaulicht am Beispiel des menschlichen Sehens wie unvereinbare Elemente in einer disparaten Beziehung unter Spannung zusammengehalten werden: Jedes Auge nimmt die Wirklichkeit als ein zweidimensionales Bild wahr. Da sich das linke und das rechte Auge in unterschiedlichen Positionen befinden, können sich die beiden Bilder nie überlagern. Es gibt kein drittes Bild, das sich daraus bilden ließe, die Bilder sind disparat (Parallaxe). Sie stehen in einem Widerspruch, in einer Spannung zueinander. Die Lösung besteht in der Integration dieser beiden zweidimensionalen Bilder in ein „integriertes System der beiden Bilder, ein System, das gemäß einer Axiomatik auf einer höheren Ebene existiert als die jedes der Bilder, aber ihnen nicht widerspricht“ (Simondon 1995, S. 206): ein dreidimensionales Bild. Dabei wird die Widersprüchlichkeit der beiden zweidimensionalen Bilder nicht (dialektisch) aufgehoben, vielmehr bleibt sie bestehen. Es wird damit nicht nur die Einheit des und die Integrität des Systems berücksichtigt (wie in der Dialektik), sondern auch die Differenz und Widersprüchlichkeit der Elemente. Das spannungsgeladene Verhältnis der Elemente verschwindet nicht, wird nicht dialektisch aufgehoben, sondern bleibt unser Leben lang in einem „metastabilen Equilibrium“ bestehen (Simondon 1995, S. 33).

Diese Konzeption disparater und metastabiler Verhältnisse übertrage ich nun auf die (post-)sozialen Beziehungen in digitalen Konstellationen (Abb. 2).

Abb. 2
figure 2

Beziehungen algorithmischer Sozialität

2.3 Prozesse algorithmischer Sozialität

In meinem Schema werde ich mich im Folgenden ausschließlich auf die subjekt-algorithmischen Beziehungen der algorithmischen Sozialität beschränken, das heißt auf die Wechselbeziehungen (Interaktionen und Interpassionen) von menschlichen Subjekten mit Algorithmen bzw. die über Algorithmen vermittelten Wechselbeziehungen. Diese Beziehungen sind Wechselbeziehungen, in der jede Aktion der einen Seite zu einer Reaktion auf der anderen Seite führt, die dann wiederum eine Aktion bzw. Passion darstellt. Die Wechselseitigkeit ist dabei ernst zu nehmen, handelt es sich doch nicht um eine einseitige Beziehung oder Beeinflussung, sondern um transformative Wechselbeziehungen, in der die beiden Seiten Prozesse der Transformation durchlaufen, z. B. Ent-Subjektivierungen und Re-Subjektivierungen. In die Affekttheorie Spinozas übersetzt heißt Wechselbeziehung, dass man nicht affizieren kann, ohne gleichzeitig selbst affiziert zu werden. Alle Rezeptionen und Passionen (Formen des Affiziert-Werdens), sowie alle Aktionen und Reaktionen (Formen des Affizierens) müssen im Sinne Spinozas als transformative Ereignisse verstanden werden (Spinoza 1990).

Zur Beschreibung dieses Verhältnisses werden ich wieder einen Einstieg wählen der kontingent ist und über die zuerst angesprochene Beziehung keine normativen Aussagen macht, den zuerst erwähnten Elementen also keinesfalls irgendein Primat einräumt. Ich beginne mit der rezeptiven Seite des algorithmischen Systems. Dies kann man heuristisch als den Versuch der Mustererkennung bestimmen (Nassehi 2019), z. B. in Form einer Verhaltenserkennung. So kann z. B. ein algorithmisches System durch Absichtserkennnung den Versuch machen, das Verhalten von Menschen zu ‚verstehen‘. Bei diesen Versuchen kommen in der Regel behavioristische Modelle ins Spiel. Das ist insofern wichtig, als die Mustererkennung keineswegs ‚Gesellschaft‘ darstellt oder abbildet: algorithmische Mustererkennung ist nicht digitale Gesellschaft. Eher sind es Beobachtungen der digitalen Umwelt durch spezifische digitale Systeme mit eigenen epistemischen Regimen (Seyfert 2016), also spezifische Beobachtungsperspektiven, die auf spezifischen Annahmen beruhen und durch die Verwendung spezifischer technischer Gerätschaften zustande kommen. Die Beobachtung eines digitalen Systems reduziert Komplexität, z. B. indem es davon ausgeht, analoge Systeme ließen sich mit bestimmten (implizit eingebetteten) behavioristischen Ansätzen verstehen bzw. – genauer formuliert – modellieren: Es geht dabei häufig um den Versuch analoge Systeme zu vereinnahmen und zu überzeugen (Lischka und Stöcker 2017). Das sind nicht einfach harmlose Korrelationsanalysen, sondern Modelle mit behavioristischen Ansprüchen: habit-forming products (Eyal 2014). An Prozesse der Verhaltenserkennung schließen sich Versuche der behavioristischen Steuerung an, z. B. zum Kauf von Produkt X anzuregen. Der behavioristische Charakter der digitalen Steuerung führt dazu, dass solche Algorithmen in bestimmten Bereichen erfolgreich sind, in manchen allerdings eher nicht. Sie sind genau dort erfolgreich, wo das Handeln der Menschen den probabilistischen Vorhersagen der Algorithmen entspricht; in anderen Bereichen jedoch nicht. Darüber hinaus gibt es aber auch noch andere Gründe, für die häufig fehlende Passung: So wird die persönliche Relevanz bestimmter Produkte nicht anhand der Vorlieben konkreter Personen bestimmt, vielmehr bestimmt sie sich ausgehend von einer statistischen Assemblage differenter Komponenten, von einer „matrix of probabilities of associations between people and things that shifts in time“ (Mackenzie 2018, S. 11).

Diese ambivalenten Resultate erklären zugleich die Mystifizierung von Algorithmen: Sie machen präzise Voraussagen und liegen zugleich völlig daneben. In manchen Bereichen des sozialen Lebens erreichen sie eine beeindruckende Genauigkeit, deren Präzision aber nun im umso stärkeren Kontrast zum ebenso regelmäßigen fulminanten Scheitern steht. Genauso regelmäßig, wie wir über die Präzision der Vorhersage erstaunt sind, sind wir fassungslos darüber, wie sehr sie daneben liegen. Damit ist zugleich die andere Seite der subjekt-algorithmischen Beziehung ins Spiel gebracht. Empirisch würde man das (z. B. menschliche) Subjekt in dieser Beziehung weder als Spiegel der behavioristischen Voraussagen (und damit als Spielball des algorithmischen Systems) noch als technologisch aufgeklärtes Subjekt (das in der Lage wäre, die algorithmischen Operationen vollständig zu durchschauen) beschreiben. Vielmehr ist es ein Individuum, für das Algorithmen als weitestgehend intransparente Objekte erscheinen. Das hat damit zu tun (1.), dass die Mehrzahl der Menschen schlicht nicht technologisch alphabetisiert ist; oder (2.), dass es sich um proprietäre Algorithmen handelt, die geheim gehalten werden sollen; bzw. (3.), dass Algorithmen häufig nicht so konzipiert sind, dass sie für menschliche Subjekte überhaupt interpretierbar sind (Burrell 2016). Das macht menschliche Subjekte jedoch nicht zu fremdgelenkten Automaten, wie es sowohl die behavioristischen Modelle (implizit) und die kritische Soziologie (explizit) annehmen.

Vielmehr operieren analoge Systeme (in unseren Beispielen vorwiegend Menschen) weitestgehend mit vernakularem Wissen, d. h. sie entwickeln ein pragmatisches Wissen über die Operationen der Algorithmen. Ich nenne es vernakulares Wissen und nicht implizites Wissen, weil vernakulares Wissen durchaus explizites Wissen sein kann. Das Gegenteil von vernakularem Wissen ist nicht explizites Wissen, sondern Expert*innenwissen. Man denke z. B. an Suchmaschinenoptimierung. Suchmaschinenbetreiber haben ein mehrfaches Interesse, ihre Algorithmen geheim zu halten. Zum einen sind diese eine Quelle enormen wirtschaftlichen Profits. Darüber hinaus hängt eine Suchmaschine auch davon ab, dass ihre Suchresultate nicht einfach zu interpretieren und damit einfach zu manipulieren sind. Die Kultur der Geheimhaltung der Suchmaschinenbetreiber führt dazu, dass Nutzer*innen eigene, indirekte Erkenntniswege entwickeln. Sie versuchen indirekt, in einem Prozess des Reverse Engineerings, zu erschließen, wie der Algorithmus funktioniert. Im Fall der Suchmaschinenoptimierung ist eine ganze Industrie (SEO) daraus hervorgegangen, die sich mit nichts anderem beschäftigt. Diese Form des vernakularen Wissens existiert häufig sogar als expliziertes Wissen. Man kann aber auch alltäglichere Beispiel wählen, z. B. die Art und Weise wie wir digitale Routenplaner praktisch verwenden (Pentenrieder 2020), uns die spezifischen Logiken sozialer Medien erschließen und mit Empfehlungen von Verkaufsplattformen umgehen. In all diesen Beispielen operieren wir mit veranakularem Wissen, mit „folk theories“ (Eslami et al. 2016), d. h. mit „intuitive, informal theories that individuals develop to explain the outcomes, effects, or consequences of technological systems, which guide reactions to and behavior towards said systems“ (DeVito et al. 2017, S. 3165). Dieses Wissen ist vernakular, insofern es aus dem Gebrauch hervorgeht, ausgehend von dem man sich einen Reim auf die Funktionsweisen der Algorithmen macht. Und es ist vernakular, insofern es sich in semantischer Form verbreitet (z. B. in Form von DIY Videos oder Lifehacks in Internetforen und Sozialen Medien). Es ist möglich, dass sich dieses Wissen aus der Perspektive derjenigen, die diese Systeme entworfen haben – aus der Perspektive der Expert*innen – als ‚falsches‘ Wissen darstellt. Daran können sich dann sogar Aufrufe zur technischen Alphabetisierung der Bevölkerung anschließen (Informatik als Pflichtfach!). Allerdings unterschätzt diese technikaufklärerische Perspektive die performativen Effekte der digitalen Praktiken, die aus dem vernakularen Wissen hervorgehen. Denn die menschlichen Subjekte werden nicht einfach zu manipulierbaren Objekten, und das aus zweifachen Gründen. Zum einen gehen die Annahmen und Voraussagen der algorithmischen Systeme (implizit oder explizit) zu großen Teilen an der sozialen Realität vorbei. Zum anderen können eben auch ‚falsche‘ Voraussagen Realeffekte produzieren, sich gleichsam selbst wahr machen. Das haben u. a. Forschungen zu Finanzmarktmodellen gezeigt. So galt das Black-Scholes-Optionspreismodell im Finanzmarkt als ein eher ineffizientes Berechnungsmodell. Aufgrund seiner Anschaulichkeit und seiner einfachen Handhabung hat es sich im Finanzmarkt aber als populärste Form der Berechnung des Optionspreises durchgesetzt. Die weite Verbreitung wiederum führte zur Beeinflussung von Marktpreisen auf eine Weise, die das vormalig ineffiziente Modell zum effizientesten Berechnungsmodell werden ließ (MacKenzie 2006).Footnote 5 Dieses Beispiel veranschaulicht die Nichtvorhersehbarkeit digitaler Praktiken. Die Nichtvorhersehbarkeit – welche algorithmischen Systeme erfolgreich sein werden und wie sie konkret praktisch verwendet werden – heißt, dass die Effekte der behavioristischen Versuche nicht vorhersehbar, sondern kontingent sind.

Mit dem Hinweis auf die performativen Effekte digitaler Praktiken sind die Prozesse der algorithmischen Sozialität vollständig dargestellt (Abb. 3). Die digitalen Praktiken sind nicht direkt an die algorithmischen Versuche der Verhaltenssteuerung gekoppelt, sondern weichen von deren Erwartungen ab. Die digitalen Praktiken werden damit wiederum zu Ausgangsdaten neuer behavioristischer Vorhersagen. Es handelt sich bei diesen Prozessen um Wechselbeziehungen von (1.) algorithmischer Mustererkennung, (2.) behavioristischen Verhaltenssteuerungsversuchen, (3.) vernakularem Erkennen und (4.) digitalen Praktiken, die wiederum das Material für die algorithmische Mustererkennung bilden.

Abb. 3
figure 3

Prozesse algorithmischer Sozialität

3 Fazit

Die TaS soll die Möglichkeit an die Hand geben, die Vielfalt der Beziehungsformen, die mit der digitalen Transformation einhergehen, aufzuklären und empirisch in den Blick zu nehmen. Dabei wird die digitale Transformation als eine Vervielfältigung statt als Übergang (in ein postdigitales Zeitalter) sozialer Beziehungen verstanden. Eine so verstandene Transformation macht eine Theoriesystematik nötig, die alle Beziehungsweisen zu berücksichtigen in der Lage ist, nicht allein die im Entstehen begriffenen algorithmischen, sondern auch die (scheinbar) anachronistischen, z. B. face-to-face-Interaktionen und Interpassionen. Jenseits der intersubjektiven Beziehungen, die die Soziologie klassischerweise untersucht, kommt es von nun an darauf an Beziehungen zu bzw. mit digitalen Systemen bzw. die durch diese vermittelten intersubjektiven Beziehungen konzeptuell in den Blick zu nehmen. Dabei spielt insbesondere die Wechselseitigkeit algorithmischer Objekte und menschlicher Subjekte eine wichtige Rolle.

Das Verhältnis der Elemente (algorithmischer Objekte, menschlicher Subjekte etc.) wird als eine Disparation verstanden, die diese Elemente zwar in ein Verhältnissystem bringt, die Elemente aber nicht verschwinden lässt, sondern ihr Verhältnis als widersprüchlich und spannungsgeladen versteht. Zugleich bleiben die Elemente in dieser Beziehung nicht unverändert, sondern stehen in einem Verhältnis der wechselseitigen Affizierung, d. h. Veränderung. Neu entstehende soziale Beziehungen (z. B. zwischen menschlichen Subjekten und algorithmischen Objekten) bilden kein emergentes System in dem die Elemente aufgehen würden, führen so auch nicht zum Ende der Subjektivität, sondern gehen vielmehr mit neuen Subjektivierungs- und Objektivierungsformen einher.

Als eine Konzeptualisierung der neuen (digitalen) Beziehungslandschaften kann die TaS auch eine Grundlage für empirische Untersuchungen bilden. Am Anfang einer jeden empirischen Untersuchung steht die Formulierung richtiger Fragen. Im theoretischen Rahmen der TaS können diese z. B. folgendermaßen lauten: Welche Elemente (Menschen, Tiere, Technologien, Algorithmen etc.) sind in den empirisch zu beobachtenden Beziehungen relevant? Welche Formen von Wechselbeziehungen (Interaktionen und Interpassionen) von menschlichen Subjekten und algorithmischen Objekten liegen vor und wie sehen sie konkret aus? Welche Veränderungen lassen sich durch diese neuen Beziehungsweisen beobachten? Wie sieht die Einbettung der Elemente in die digitale Umwelt aus (z. B. durch Sensoren, Kameras, digitale Kommunikation etc.)? Welches Verhältnis besteht zwischen Daten und Algorithmen bzw. wie lassen diese sich in ihrem wechselseitigen Verhältnis erklären?

Die durch die TaS vorgeschlagene Neukonzeptualisierung sozialer Beziehungen und gesellschaftlicher Verhältnisse und die damit möglich gewordene Refokussierung methodischer Verfahren und empirischer Untersuchungen liefert somit einen Beitrag, die Soziologie für die Erforschung der Gesellschaft in Zeiten der digitalen Transformation auf den Weg zu bringen.