1 Einleitung

Die Geschichte moderner Beobachtungsformate beginnt im letzten Drittel des 18. Jahrhunderts mit der Entstehung der Statistik. Während sich die früheren Erhebungen darauf beschränkten, zu zählen und diese Zahlen lokal zu Kontrollzwecken und zur Akquirierung von Ressourcen einsetzten, ging es nun darum, durch rechnerische Operationen nach den sozialen Gesetzmäßigkeiten zu suchen, die sich hinter dem „Rauschen der individuellen Handlungen“ (Köhler 2008, S. 76) verbergen. Das entscheidend Neue lag nicht darin, dass immer mehr Daten produziert wurden – Big Data in ihren Anfängen –, neu war vielmehr die Auffassung, dass man im Wust der Daten Regelmäßigkeiten entdecken und aus diesen Planungs- und Regulierungswissen ableiten konnte (Behrisch 2016). Erst die moderne Statistik produzierte jene Makrogrößen, die für uns heute so evident sind: Bevölkerungswachstum, Nationaleinkommen, Arbeitslosenrate, Kriminalitätsrate und viele andere mehr, und erst sie machte die Zusammenhänge sichtbar, an denen sich die „Gesetze der Gesellschaft“ (Hacking 1994) erkennen ließen. Zusammengenommen sind es vor allem drei Merkmale, die die moderne Statistik von ihren Vorläufern unterscheiden und sie zum ersten modernen gesellschaftlichen Beobachtungsformat machen: das Interesse an der Entdeckung von übergreifenden Zusammenhängen, die Fokussierung auf das Vergleichen in zeitlicher, räumlicher und sozialer Hinsicht und die regelmäßige Wiederholung der Datenerhebungen, die die Feststellung von Fort- und Rückschritten überhaupt erst möglich machte.

Über das Konzept des Beobachtungsformats lassen sich Einrichtungen in einen Zusammenhang bringen, die auf den ersten Blick wenig miteinander zu tun haben: die amtliche Statistik, die die Gesellschaft für die politischen Instanzen „lesbar“ macht (Scott 1999), die Meinungsforschung, die über die Vermessung von Einstellungen und Werten das Innere des Averaged Man ergründen will (Igo 2007), die Marktforschung, die die Präferenzen und Konsumgewohnheiten der Kunden zu ermitteln versucht (Arvidsson 2004; Turow 1997), staatlich implementierte Monitoringsysteme, die langfristige Entwicklungen anhand quantitativer Kenngrößen beobachten und daraus Handlungsempfehlungen ableiten (Petzke 2021 in diesem Band), und schließlich digitale Beobachtungsinstrumente, die das, was wir tun, in Echtzeit beobachten und dieses Tun nach Regelmäßigkeiten durchforsten.

Diese Beispiele unterscheiden sich in mancher Hinsicht. Im einen Fall ist der Staat die Beobachtungsinstanz, im anderen Fall sind es private Unternehmen, die Individuen nicht mehr in ihrer Rolle als Bürger, sondern als Konsumenten beobachten. Bei den einen liegt der Fokus auf den statistischen Aggregaten und den in ihnen verborgenen sozialen Gesetzmäßigkeiten, die anderen sammeln und analysieren Daten, um aus ihnen etwas über das zukünftige Verhalten des Einzelnen in Erfahrung zu bringen.Footnote 1 Aber trotz dieser Unterschiede teilen sie eine entscheidende Gemeinsamkeit: Es handelt sich in allen Fällen um Beobachtungsformate, die regelmäßig Zahlen produzieren und in diesen Zahlen nach Mustern suchen, um auf diese Weise systematische Erkenntnisse über das Verhalten der Individuen und die Beschaffenheit der Gesellschaft zu gewinnen. Sie sind insofern Teil des Quantifizierungsschubs, der die (westlichen) Gesellschaften seit dem 18. Jahrhundert erfasst hat (Porter 1995).

Die vorläufig letzte Entwicklung in der Geschichte moderner Beobachtungsformate sind digitale Beobachtungstechnologien, die ständig und überall im Einsatz sind und praktisch nichts mehr unbeleuchtet lassen – Shoppingportale und Streamingdienste, Suchmaschinen, soziale Netzwerke, Selbstvermessungsgeräte und Vermittlungsplattformen wie Airbnb, Ebay oder Uber. Im Unterschied zur amtlichen Statistik, bei der der Staat die Beobachtungsinstanz ist und die Beobachtung an den nationalen Grenzen haltmacht, sind es bei digitalen Technologien vor allem Privatunternehmen, die die Konsumentinnen und Konsumenten rund um die Uhr und wo auch immer sie sich aufhalten beobachten.Footnote 2 Wer Google, Amazon, Netflix oder auch bloß Kreditkarten nutzt, hinterlässt Datenspuren, die automatisch aufgezeichnet und auf ihre Muster hin ausgewertet werden, unabhängig davon, wo sich jemand aufhält. Mit ihrer Fähigkeit, jeden Click und jede Bewegung, jedes Hörverhalten und jede Online-Transaktion in Daten zu verwandeln und diese in Sekundenschnelle zu analysieren, transformieren diese Applikationen die Technik sozialer Beobachtung und heben sie auf ein neues Niveau.

Im Gegensatz zu den Surveillance-Studies, die Beobachtung vor allem unter dem Aspekt der Überwachung untersuchen und digitale Technologien in der Geschichte panoptischer Kontrolle situieren (exemplarisch Haggerty und Ericson 2000; Degli-Espositi 2014), soll im Folgenden das Beobachten selbst in den Mittelpunkt gerückt werden, unabhängig davon, ob die gewonnenen Informationen zu Überwachungs- und Kontrollzwecken eingesetzt werden oder nicht. Digitale Beobachtungstechnologien verarbeiten zwar Unmengen von Daten – Big Data –, entscheidend ist aber weniger der Umfang an Daten, als vielmehr das, was sich mithilfe von Algorithmen in diesen Daten beobachten lässt (Amoore und Piotukh 2015). Anstatt von Big Data ließe sich deshalb ebenso gut und vielleicht sogar noch treffender von Big Observation sprechen. So gesehen hat der „known citizen“, von dem Sarah Igo (2018) in ihrer Geschichte der Semantik der Privatheit spricht, erst mit den neuen Technologien wirklich Gestalt angenommen. Vorher blieb das Wissen über ihn fragmentarisch und erfasste ihn nur als gemittelten Bürger oder als Teil eines soziodemografischen Kollektivs. Dagegen zielen die Unternehmen, die heute Daten sammeln, analysieren, zusammenführen und verkaufen, darauf, Wissen über den Einzelnen anzusammeln.

Der Beitrag greift zwei Beispiele heraus – die Bevölkerungsstatistik als historisch erstes modernes Beobachtungsformat und personalisierte Recommendersysteme als prototypischen Fall digitaler Beobachtungsinstrumente – und vergleicht sie hinsichtlich der Frage, wie sie Daten erheben und in diesen Daten zur Entdeckung von Regelmäßigkeiten gelangen. Setzt man die beiden Formate in Beziehung zur Gesellschaft, in der sie entstanden sind, macht der Vergleich nicht nur sichtbar, wie die Bevölkerungsstatistik und Recommendersysteme beobachten und worin sich ihre Beobachtungstechnik unterscheidet, sondern er gibt auch Aufschluss darüber, wie sich die Prämissen sozialer Beobachtung in den letzten 200 Jahren verändert haben.

Die Verortung digitaler Beobachtungstechnologien in einer Geschichte gesellschaftlicher Beobachtungsformate ist durch die Annahme motiviert, dass die neuen Technologien nicht so umstürzend neu sind wie oft behauptet und die üblichen Umschreibungen – digital, algorithmisch, Big Data – wenig dazu taugen, ihre Andersartigkeit soziologisch auf den Begriff zu bringen. Denn die „neuen“ Technologien sind nicht neu, weil sie „digital“ sind und Algorithmen einsetzen. „Digital“ waren schon die ersten Computer der 1940er-Jahre, die damals noch explizit Digitalcomputer genannt wurden. Ähnlich ist auch Algorithmisierung kein brandneues Phänomen, sondern steht in der Tradition des Rationalisierungsdiskurses im ersten Drittel des 20. Jahrhunderts. Auch der Kohlenschaufler, der kleinste Körperbewegungen nach Frederick W. Taylors „bester Methode“ auszuführen hatte, folgte einem Algorithmus, auch wenn dieser technisch noch nicht implementiert war (zu beidem ausführlicher Heintz 1993). Und ebenso ist die ständige Produktion von immer mehr Daten nicht so neu, wie sie erscheint (Ambrose 2015; Beer 2016). Schon mit dem Aufbau der amtlichen Statistik kam es zu einem rasanten Anstieg von Daten, den Ian Hacking (1982) auf die bekannte Formel einer „avalanche of printed numbers“ brachte und Theodore Porter (1986, S. 11) als „the great explosion of numbers“ bezeichnete.

Aber wenn Begriffe wie „Big Data“ und „Algorithmus“ nicht ausreichen, um die Neuheit digitaler Beobachtungsformate zu erfassen, wie lässt sie sich dann begreifen? Ich werde im Folgenden argumentieren, dass die Besonderheit digitaler Beobachtungstechnologien in ihrer spezifischen Operationsweise liegt und nicht bloß darin, dass sie Algorithmen einsetzen und auf Massen von Daten zurückgreifen. Das tun sie zwar auch, aber damit ist noch nichts darüber ausgesagt, wie sie das tun. Der Beitrag zeigt auf, dass ihr operatives Grundprinzip in der „Selbsterzeugung“ von Daten und darin besteht, dass sie Vergleich, Bewertung und Kategorisierung in einem ständigen rekursiven Prozess verknüpfen und sich diese Verknüpfung im Medium algorithmischer Berechnungen vollzieht. Wie dies genau geschieht, beschreibe ich in einem ersten Abschnitt am Beispiel von Recommendersystemen, die auf dem Verfahren des Collaborative Filtering beruhen. In der wissenschaftlichen und populären Literatur wird die Besonderheit digitaler Technologien oft daran abgelesen, wie sie sich auf der Bildschirmoberfläche präsentieren. Um ihre Eigenheit zu verstehen, muss man sich jedoch mit der algorithmischen Hinterbühne befassen und wird dann z. B. erkennen, dass die ihnen häufig attestierte Singularisierung und Personalisierung durch Standardisierung, Entpersonalisierung und den Vergleich mit Anderen zustande kommt: „Ich bin die Anderen“ und „‚Du‘ bin nicht ‚ich‘“.

Der anschließende Abschnitt vergleicht die Operationsweise von Recommendersystemen mit der Bevölkerungsstatistik als dem exemplarischen Fall eines nichtdigitalen Beobachtungsinstruments. „Nichtdigital“ ist die amtliche Statistik insofern, als sie zwar digitalisierte Daten verwendet, aber nicht digitale Daten im strengen Sinne, also nicht Daten, die direkt aus den Netzwerkaktivitäten der Nutzerinnen und Nutzer gewonnen werden. Die Vergleichsgesichtspunkte ergeben sich aus der oben genannten Annahme, dass die Besonderheit digitaler Beobachtungstechnologien in der Art ihrer Datenerhebung und der ständigen Verknüpfung von Vergleich, Bewertung und Kategorisierung liegt. Entsprechend stellt sich auch für die Statistik die Frage, wie sie die Zahlen herstellt, mit deren Hilfe sie die Gesellschaft beobachtet, und welche Rolle die genannten Operationen dabei spielen. Während die meisten Studien zur amtlichen Statistik erst auf der Ebene der Tabellen ansetzen, rücke ich das doing statistics in den Vordergrund, d. h. die praktischen Verfahren der Fabrikation statistischer Zahlen. Denn nur auf der Ebene ihrer konkreten Operationsweise lassen sich die Mustererkennungstechniken digitaler und statistischer Beobachtungsformate sinnvoll miteinander vergleichen.

Alle Beobachtungsformate beruhen auf impliziten Theorien des Sozialen, d. h. auf Vorstellungen darüber, was sich zu zählen und zu beobachten lohnt und wie das Soziale, das sie zu erfassen suchen, beschaffen und strukturiert ist. Diese impliziten Theorien reflektieren das Selbstverständnis und die Problemstellungen der Gesellschaft, in der sie entstanden sind. Verortet man die Bevölkerungsstatistik und Recommendersysteme auf einer historischen Zeitachse und begreift sie als Ausdruck der Gesellschaft, in der sie entwickelt wurden, so könnten die Unterschiede in ihren Beobachtungstechniken auf einen Wandel des ihnen zugrundeliegenden Gesellschaftsverständnisses verweisen. Darauf gehe ich in einem abschließenden Teil ein. Ich schließe dabei kritisch an die Theorien des Digitalen an, die Armin Nassehi (2019) und Dirk Baecker (2018) vorgelegt haben. Mein Beitrag verfolgt zwar eine ähnliche Intention, nämlich zu untersuchen, auf welche Art von Gesellschaft digitale Technologien verweisen. Mein Zugang ist jedoch ein anderer, indem ich das, was sie auf einer allgemeinen Ebene abhandeln, anhand von zwei konkreten Fällen analysiere und an diesen beiden Fällen zeige, wie die amtliche Statistik und digitale Technologien beobachten und worin genau ihre Gemeinsamkeiten und Unterschiede liegen. Durch ein solches Herunterbuchstabieren auf den konkreten Fall gewinnt man Einsichten, die einem entgehen, wenn man den Phänomenen, um die es geht, zu wenig Beachtung schenkt.

2 Big Observation – die Beobachtungstechniken digitaler Beobachtungsformate

Ich möchte mich an dieser Stelle bei Markus Unternährer bedanken, der mich in dieses Thema eingeführt hat und dessen Texte mir geholfen haben, mich in der komplizierten Welt der digitalen Technologien zurechtzufinden (Unternährer 2021b).

Recommendersysteme werden von praktisch allen bekannten Diensten eingesetzt: von Suchmaschinen, sozialen Netzwerken, Shoppingportalen, Streamingdiensten und Dating-Apps. Sie gehen mit dem Versprechen einher, durch algorithmisch berechnete Empfehlungen den Nutzern und Nutzerinnen im Labyrinth der Waren und Angebote einen Weg zu weisen. Wie sie das tun, unterscheidet sich jedoch. Ich beziehe mich im Folgenden auf Recommendersysteme, die auf dem Verfahren des Collaborative Filtering beruhen, da sich an ihnen die Operationsweise digitaler Beobachtungsformate besonders gut illustrieren lässt (zu dieser und anderen Varianten von Recommendersystemen Unternährer 2021a in diesem Band).

Dass Konsumentinnen und Konsumenten mit Empfehlungen versorgt werden, ist nicht neu. Das tun auch Literaturkritiken, Warentests und klassische Rankings. Neu ist aber, dass diese Empfehlungen personalisiert, d. h. auf die einzelnen Nutzer persönlich zugeschnitten sind. Wie Recommendersysteme zu solchen personalisierten Empfehlungen gelangen, lässt sich an einem vereinfachten Beispiel illustrieren. Amazon empfiehlt mir regelmäßig, welche Bücher ich lesen soll. Manchmal sind die Empfehlungen passend, manchmal aber auch nicht. Wenn Amazon registriert, dass ich mich plötzlich für ganz andere Genres interessiere – z. B. für Hunderatgeber und maschinelles Lernen – gerät das System ins Stottern. Neben Hunderatgebern und Büchern zu Deep Learning werden mir nun auch Selbsthilfebücher und Fantasy-Romane empfohlen. Wie kann das geschehen?

Amazon ist ein Online-Marktplatz mit eingebauter Recommenderfunktion. Wenn ich Amazon nutze, stehen mir nur wenige Verhaltensoptionen zur Verfügung – etwa suchen, anklicken, bewerten, markieren oder kaufen. Diese Aktivitäten werden von Amazon zusammen mit anderen Datenspuren aufgezeichnet, die ich hinterlasse, oft ohne es zu merken. Solche Daten hat Amazon von mehreren Millionen Kundinnen und Kunden und verfügt damit über eine gigantische Datenbasis, um mein Such- und Kaufverhalten mit jenem anderer zu vergleichen und aus diesem Vergleich Empfehlungen abzuleiten. So könnte etwa die Empfehlungsliste von Amazon auf einem Vergleich meines Interesses für Hunderatgeber und maschinellem Lernen mit dem Verhalten anderer Kunden beruhen, die ein ähnliches, aber nicht identisches Interessenprofil haben. In Amazon-Sprache: „Kunden, die diesen Artikel gekauft haben, kauften auch …“. Je besser die empfohlenen Produkte mit meinen Interessen übereinstimmen, desto eher werde ich sie auch kaufen und weiterhin bei Amazon browsen. Recommendersysteme dirigieren mit anderen Worten meine Entscheidungen in eine bestimmte Richtung, ohne dass ich mir der „sanften Gewalt“ der Algorithmen bewusst sein muss (Yeung 2016).

2.1 „Selbsterzeugung“ von Daten: Standardisierung und Datafizierung

Personalisierung setzt paradoxerweise ihr Gegenteil voraus, nämlich Standardisierung. Denn personalisierte Empfehlungen sind nur deshalb möglich, weil die Verhaltensmöglichkeiten der Nutzer auf einige wenige standardisierte Aktivitäten reduziert sind – etwa liken, teilen, folgen, markieren, kaufen. Das heißt Recommendersysteme vermessen nicht präexistente Aktivitäten, sondern sie geben hoch artifizielle Handlungsoptionen vor, die sich direkt „datafizieren“, d. h. bei ihrer Ausführung in computerlesbare Daten transformieren lassen. Über diese Standardisierung generieren Recommendersysteme selbst die Datenobjekte, die sie anschließend analysieren (Alaimo und Kallinikos 2017; Paßmann und Gerlitz 2014). Das ist mit „Selbsterzeugung“ gemeint. In gewisser Hinsicht ist der digitale Nutzer in seinen Handlungsmöglichkeiten ähnlich eingeschränkt wie der taylorisierte Arbeiter, der für Max Weber das Musterbeispiel rationaler Disziplinierung war. „Liken“, „sharen“ oder „klicken“ sind keine „natürlichen“ Verhaltensweisen, sondern sie sind ebenso rudimentär und artifiziell, wie die Elementaroperationen, in die Frederick W. Taylor natürliche Bewegungsabläufe zerlegt hatte.Footnote 4

Im Gegensatz zu konventionellen Formen der Programmentwicklung, bei denen „natürliche“ Aktivitäten formalisiert werden müssen, um sie computertauglich zu machen, sind die zulässigen Aktivitäten bereits in so hohem Maße standardisiert, dass das Anklicken eines Share- oder Kauf-Buttons direkt vom System verarbeitbar ist. Als man in den 1950er-Jahren die ersten Computer installierte, wurden sie vor allem dort eingesetzt, wo die Arbeitsabläufe schon weitgehend standardisiert waren: in der Lohnbuchhaltung und im Rechnungswesen, kurz dort, wo die Tätigkeit schon in Einzeloperationen zerlegt war und es einen Algorithmus – eine „beste Methode“ – gab, wie sie auszuführen und aneinanderzureihen sind (Heintz 1990). Man habe vor allem jene „Routinearbeiten“ auf „Elektronengehirne“ umgestellt, schrieb etwa Hans-Paul Bahrdt in seiner Angestelltenuntersuchung von 1958, „die ihre heutige Gestalt den Rationalisierungsbestrebungen der 20er-Jahre verdankten“ (Bahrdt 1958, S. 72). Um den Computer breiter einzusetzen, begann man wenig später auch Tätigkeiten zu standardisieren, die noch nicht durchgehend rationalisiert waren. Aber auch hier erforderte die Programmierung eine vorgängige Reorganisation bestehender Aktivitäten in ein formalisierbares Format.

Die Sequenz „Standardisierung – Formalisierung – Programmierung“ wird bei den neuen Technologien auf den Kopf gestellt, indem das System selbst die zulässigen Aktivitäten vorgibt. Alaimo und Kallinikos (2017) sprechen in diesem Zusammenhang von „encoding“. „Encoding … does not record prior facts, which it then places online, nor does it categorize existing social activities (we do not usually ‚follow‘ friends offline). Rather, encoding creates the actions which users are invited to perform and records the performance of such actions into distinct data fields“ (Alaimo und Kallinikos 2017, S. 177; Hervorhebung BH). Dies bedeutet gleichzeitig, dass Handlung und Beobachtung konvergieren. Während bei einer konventionellen Überwachung eine Handlung geschieht und diese erst im Nachhinein beobachtet wird, fallen Handlung und Beobachtung nun zusammen: Jede Aktivität wird unmittelbar als Datenpunkt registriert (Gerlitz 2016, S. 25; Brayne 2021 in diesem Band). Das Operieren von Recommendersystemen gleicht insofern einem geschlossenen Kreislauf, einer Feedbackschleife, die ständig in Bewegung ist. Als Input braucht es zwar die Aktivitäten der Nutzer, aber diese Aktivitäten bewegen sich in den vom System vordefinierten Bahnen. Sobald Nutzer eine Website betreten, hinterlassen sie die Daten, aus denen die Empfehlungen berechnet werden. Diese Empfehlungen können ihrerseits Reaktionen auslösen, z. B. einen neuen Kauf oder ein neues „liken“, die wiederum als Daten in das System eingehen und neue Berechnungen und Empfehlungen initiieren. Damit schafft sich das System auch seine eigenen Lernbedingungen: Jedes Anklicken ist ein „Realexperiment“ (Krohn und Weyer 1989), an dem der Algorithmus getestet werden kann.

Um ein Buch, einen Film oder ein Musikstück zu empfehlen, müssen Recommendersysteme die Vorlieben ihrer Nutzer einschätzen können. Dies geschieht dadurch, dass sie die Aktivitäten der Nutzer als implizite Bewertungen interpretieren: Die Tatsache, dass ich Erziehungsbücher für Hunde, aber nicht für Kinder anklicke, weist für Amazon darauf hin, dass ich an Hunden interessiert bin und deshalb wahrscheinlich eher Hundeleinen als Legosteine kaufen werde. Welche Bedeutung die Nutzer selbst mit ihren Aktivitäten verbinden – ob das Drücken eines Share-Buttons tatsächlich Zustimmung markiert oder ein „like“ für alle dasselbe meint –, spielt für das System keine Rolle. In der algorithmischen Welt der Recommendersysteme gibt es nur formal definierte Objekte und Aktivitäten, die diese Objekte miteinander verbinden: „Things or entities such as users, comments, photos, posts are all classified as data objects and every activity connecting two objects as action“ (Alaimo und Kallinikos 2017, S. 178; Hervorhebung durch die Autoren). Das heißt Nutzer werden über ihre Relation zu Dingen (z. B. kaufen) oder zu anderen Nutzern (z. B. „folgen“) definiert, und diese über ihre Relation zu den Nutzern (ausführlicher Unternährer 2021a in diesem Band). Individuen haben keine eigene ontologische Dignität – Menschen und Dinge sind austauschbar. In diesem Abstrahieren von den subjektiven Sinngehalten gründet auch die Effizienz von Recommendersystemen. Denn indem sie jedes Liken oder jedes Markieren als identisch behandeln, stellen sie auf einer basalen Ebene Vergleichbarkeit her. „Defining an individual user as an aggregation of likes immediately renders the individual qua likes commensurable to other individuals qua likes“ (Alaimo und Kallinikos 2017, S. 179).

2.2 „Ich bin die Anderen“ – die Operationsweise von Recommendersystemen

Eine weitere Besonderheit von Recommendersystemen, die auf dem Verfahren des Collaborative Filtering beruhen, liegt darin, dass die Empfehlungen zwar personalisiert sind, die Personalisierung aber nicht aus der persönlichen Nutzergeschichte, sondern aus den Aktivitäten anderer Nutzer abgeleitet ist. Das Subjekt, an das sich die Empfehlung richtet, ist im System absent. Abgesehen davon, dass es nur in Form von Datenspuren existiert, sind es die Verhaltensdaten anderer Nutzer und Nutzerinnen und nicht das individuelle Verhaltensprofil, die die Grundlage für die algorithmische Konstruktion von „Personen“ bilden. Ich mag mich zwar als singuläres Individuum adressiert fühlen, das System operiert aber nicht über Singularisierung, sondern über den Vergleich mit der Masse der Anderen.

Collaborative Filtering ist ein algorithmisches Verfahren, das davon ausgeht, dass Nutzer, die einige Vorlieben teilen, auch andere Vorlieben teilen: „people like you also liked …“: „being like“ und „liking“ werden damit gleichgesetzt (Seaver 2012, k. S.). Die Aufgabe besteht entsprechend darin, durch einen Vergleich meiner Präferenzen mit jenen aller anderen Nutzer jene Nutzer herauszufiltern, die ähnliche Interessen und Vorlieben haben – ein ähnliches Produkt gekauft, die gleiche Musik gehört oder die gleichen Filme ähnlich bewertet haben. Anstatt Empfehlungen aus soziodemografischen Merkmalen abzuleiten, wie es die klassische Marktforschung und stereotypisierende Recommendersysteme tun (Unternährer 2021a in diesem Band), werden sie beim Collaborative Filtering über das Verhalten der Nutzer erschlossen. Die Berechnung von Empfehlungen geschieht grob gesagt in drei Schritten, die Vergleich, Kategorienbildung und Bewertung involvieren. Diese drei Schritte lassen sich zwar analytisch unterscheiden, empirisch sind sie aber ineinander verzahnt und werden bei jedem neuen Click, jedem neuen Kauf und jeder neuen Bewertung wieder in Gang gesetzt (für das Folgende instruktiv Unternährer 2020; Alaimo und Kallinikos 2021).

Im Einzelnen geschieht das Filtern zunächst darüber, dass meine Aktivitäten paarweise mit den Aktivitäten aller anderen Nutzer verglichen werden. Das heißt für jeden Nutzer (oder für jedes Objekt) wird auf der Basis seiner Aktivitäten ein Korrelationskoeffizient berechnet, der angibt, wie ähnlich er allen anderen Nutzern ist. Formal lassen sich diese Vergleiche als eine Matrix darstellen, in der die Nutzer in der Vertikalen und die Produkte in der Horizontalen aufgeführt sind. In den Zellen stehen Ziffern, die die aus den Nutzeraktivitäten erschlossene Bewertung eines Produkts wiedergeben, z. B. eine 1, 2 oder 3 oder auch eine 0, wenn für den betreffenden Nutzer noch keine Informationen vorliegen. Diese Nutzervergleiche bilden die Grundlage dafür, jene Nutzer, deren Bewertungen meinen am ähnlichsten sind, herauszufiltern. Um zwischen „people like me“ und „people unlike me“ zu unterscheiden, werden Grenzwerte festgelegt, z. B. ein bestimmter Korrelationskoeffizient, der gegeben sein muss, um Nutzer als „Nachbarn“ (ein Feldbegriff) zu kategorisieren.Footnote 5 Diese Einstufung ist allerdings flüchtig – bei jeder neuen Aktivität können sich die Nachbarn wieder ändern. Die Kategorisierung ist der Ausgangspunkt für den dritten Schritt – die Berechnung der Empfehlungen auf der Grundlage dessen, wie meine Nachbarn Dinge bewertet haben, die ich selbst noch nicht gesehen oder bewertet habe. Die Nutzer, die mir ähnlicher sind als andere, erhalten ein größeres Gewicht und damit einen größeren Einfluss bei der Bestimmung der Produkte, die mir empfohlen werden. Die nominale Kategorie der „Nachbarn“ wird mit anderen Worten intern ordinalisiert. Bewertungen kommen bei diesen Berechnungen in unterschiedlicher Form zum Zuge: zum einen in Form der Nutzerbewertungen, die die Grundlage für die Berechnung von Empfehlungen bilden. Zum anderen „bewertet“ das System aber auch selbst, indem es die Nutzer nicht nur miteinander vergleicht, sondern sie zusätzlich nach ihrer Ähnlichkeit zu mir in eine ordinale Reihung bringt.Footnote 6

Die auf diese Weise errechneten Nutzerkategorien sind rein formal auf der Basis von Ähnlichkeitsmaßen definiert, sie haben zunächst keine inhaltliche Bedeutung. Um sie zu Werbezwecken zu nutzen, müssen sie interpretiert und in die Kategorien des Marketings übersetzt werden. Während klassische Segmentierungstechniken Kundenpräferenzen aus soziodemografischen oder aus Lebensstilmerkmalen erschließen, eröffnet das Verfahren des Collaborative Filtering ganz neue Möglichkeiten zielgruppenspezifischer Werbung. Anstatt Kundinnen nach soziodemografischen Merkmalen zu kategorisieren und die Werbung darauf auszurichten, sortieren sie Nutzer nach der Ähnlichkeit ihres Verhaltens – ihrer Hörgewohnheiten oder ihres Kauf- und Suchverhaltens – und leiten daraus die kategoriale Zugehörigkeit ab (Alaimo und Kallinikos 2019; Cheney-Lippold 2011; Prey 2018). Im Vergleich zur Verfahrensweise der amtlichen Statistik (vgl. Abschn. 3.2) wird das Verhältnis von kategorialer Zugehörigkeit und Verhalten gewissermaßen auf den Kopf gestellt: „‚Hispanic-ness‘ is performed into being through music listening behavior. If a listener’s listening behavior begins to change, so will her Hispanic-ness. The listener may eventually be assigned another ethnic identity“ (Prey 2018, S. 1094). Auf diese Weise werden nominale kategoriale Zugehörigkeiten gradualisiert und kategoriale Zuordnungen werden fluide. Wer als „Hispanic“ kategorisiert wird, ist nicht notwendig jemand, der offiziell als Hispanic eingestuft wurde oder sich auch selbst so kategorisieren würde, sondern eine Person, die Interessen hat, die das System auf der Basis seiner Hörgewohnheiten als „hispanisch“ klassifiziert. Kategoriale Zugehörigkeit schrumpft damit zu einer statistischen Größe, die sich ständig ändern kann (Fisher und Mehozay 2019). „Weiblich“ oder „hispanisch“ ist das, wofür sich die als „Frau“ oder als „Hispanics“ kategorisierten Nutzer zu einem bestimmten Zeitpunkt interessieren (zum technischen Verfahren Cheney-Lippold 2017, S. 108 ff.; Quantcast 2014). Kategorien wie Geschlecht oder Hautfarbe werden dadurch zwar de-essentialisiert, aber sie bleiben weiterhin mit stereotypisierten Verhaltenserwartungen assoziiert. Nur beruhen diese auf statistischen Zusammenhängen und nicht mehr auf kulturellen Schemata.

Cheney-Lippold (2011) spricht in diesem Zusammenhang von einem „cybernetic categorization system“ und macht mit diesem Begriff deutlich, dass die Sortierung in unterschiedliche Geschlechter, Ethnien oder Altersgruppen nicht über soziale Zuschreibungsprozesse, sondern über algorithmische Berechnungen verläuft. Dass sich im Internet ein eigenes Kategorisierungsuniversum etabliert, stellt für die herkömmliche Forschung zur Personenklassifikation eine Herausforderung dar. Zum einen relativiert es die Annahme, dass die kategoriale Sortierung von Personen eine grundsätzlich soziale Leistung ist. Zum andern wirft es die Frage auf, wie sich die beiden Modi der Personenkategorisierung zueinander verhalten. Inwiefern verändert die „algorithmic identity“ (Cheney-Lippold 2011) auch das realweltliche Verständnis von „weiblich“, „männlich“ oder „hispanisch“? Und inwieweit hat das zunehmende „crossing“ ehemals fixer kategorialer Grenzen (Brubaker 2016) auch damit zu tun, dass sich die algorithmisch zugeschriebene Identität ständig ändert (vgl. Abschn. 4)? Die Nutzer erfahren zwar nicht explizit, wie sie kategorisiert werden, aber aus den Empfehlungen, die sie erhalten, können sie unter Umständen herauslesen, wie oder als wer sie beobachtet werden. Die persönliche Adressierung legt es nahe, Empfehlungen als Spiegelungen dessen zu begreifen, was ich bewusst oder unbewusst im Netz über mich offenbart habe. Ähnlich wie Empfehlungen können auch solche Spiegelungen als Anreiz fungieren, sich am digitalen „Maussian bargain“ (Fourcade und Kluttz 2020) zu beteiligen und dem Unternehmen auch in Zukunft Daten zur Verfügung zu stellen.Footnote 7

2.3 Personalisierung – „‚Du‘ bin nicht ‚Ich‘“

Obschon Recommendersysteme mich in einer personalisierenden Sprache als singuläres Individuum adressieren – „das könnte Dich auch interessieren“, „das könntest Du auch mögen“ – ist dieses „Du“ gerade nicht über seine Besonderheit definiert. Das „Du“ ist eine Ansammlung von Datenspuren, und seine Kontur gewinnt es durch den Vergleich mit anderen Nutzern. Personalisierung erfordert mit anderen Worten Entpersonalisierung. Das System weiß nichts über die Individuen, deren Daten es aufzeichnet und die es als konkrete Personen – als „unique cultural individuals“ (Alaimo und Kallinikos 2019, S. 408) – anspricht. Es verfügt nur über Algorithmen, die in den Daten nach Mustern suchen. Das „Du“ ist mit anderen Worten kein Individuum im klassischen Sinne, sondern ein algorithmisches Konstrukt – „an endlessly sub-dividable ‚dividual‘“ (Cheney-Lippold 2011). Lury und Day (2019, S. 20) sprechen in diesem Zusammenhang von einer „a-typical individuation“: „This pathway (of a‑typical individuation) creates ‚a‘ person or individual that is always provisional and corresponds only partially with the type or category in which it is included, whether this concerns what a person might buy, like, share or possess. The term ‚pathway‘ is intended to capture this category of person, a category that is never static but always changing and always in motion“.

Insofern ist die These, dass das Internet zu einem Singularisierungsschub führe, nicht so treffend, wie sie auf den ersten Blick vielleicht erscheint. An der Oberfläche mag sie wohl stimmen: Individuen treffen auf digitale Umwelten, in denen sie als unverwechselbare Persönlichkeiten adressiert werden, und stellen sich dort auch so dar. Auf der algorithmischen Hinterbühne sieht es jedoch anders aus. Dort werden Subjekte nicht als einzigartige fabriziert und dort findet man auch keine „maschinelle Singularisierung“ (Reckwitz 2017, S. 253 ff.). Vielmehr ergibt sich das „Subjekt“, das Recommendersysteme ansprechen, über eine massive Standardisierung der Verhaltensoptionen (Abschn. 2.1) und über den Vergleich mit Anderen (Abschn. 2.2). Es sind die Anderen, die die Grundlage dafür bilden, den Einzelnen persönlich zu adressieren. Das „Du“ errechnet sich mit anderen Worten aus seiner Ähnlichkeit mit dem, was die Anderen tun (dazu auch Mennicken und Kornberger 2021 in diesem Band). Der durch personalisierte Empfehlungen erzeugte Eindruck, dass digitale Technologien Subjekte in ihrer Besonderheit zu begreifen versuchen und dadurch den Trend zur Singularisierung verstärken, sollte mit anderen Worten nicht zum Nennwert genommen werden. Das algorithmisch konstruierte Subjekt ist weder einzigartig noch ist es stabil. Als einzigartig erscheint es nur auf der Bildschirmoberfläche. Singularisiert sind die Individuen mit anderen Worten nur auf der Ebene der Darstellung, auf der Ebene der Herstellung sind sie es gerade nicht. So gesehen lässt sich die These auch umkehren. Recommendersysteme singularisieren nicht, aber sie machen sich den Wunsch nach Einzigartigkeit zunutze, um ihre Berechnungen in eine „subjekttaugliche“ Kommunikationsform zu bringen.

3 Die Observierung der Gesellschaft – das Beispiel der amtlichen Statistik

Digitale Beobachtungsinstrumente sind die vorläufig letzte Entwicklung in der Geschichte moderner Beobachtungsformate, die mit der amtlichen Statistik ihren Anfang nahm. Worin unterscheiden sich die Beobachtungstechniken der amtlichen Statistik von jenen digitaler Beobachtungsformate und was sind die Gemeinsamkeiten? Dieser Frage werde ich mich im Folgenden am Beispiel der Bevölkerungsstatistik als dem prominentesten Zweig der amtlichen Statistik zuwenden.Footnote 8 Um die Bevölkerungsstatistik historisch einzuordnen, werde ich zunächst den Kontext kurz umreißen, in dem die moderne Statistik entstand und ihre Zwecksetzung fand. Das zweite Unterkapitel abstrahiert von diesem historischen Kontext und legt den Fokus auf das doing statistics: Wie gelangt die amtliche Statistik zu Daten, wie werden aus diesen Daten Zahlen und inwieweit sind dabei auch Kategorisierungs‑, Vergleichs- und Bewertungsakte involviert? Das Erstellen einer Bevölkerungsstatistik beginnt mit der Identifizierung der zu zählenden Individuen und verlangt, dass diese sich selbst in die vorgegebenen statistischen Kategorien einordnen. Auf die damit verbundene Doppelrolle der Statistik als Objektivierungs- und Subjektivierungsinstanz gehe ich abschließend ein.

Die technischen Verfahren der heutigen amtlichen Statistik sind nicht mehr dieselben wie zu ihrer Entstehungszeit. Anstatt die Bevölkerung durch Volkszähler zu befragen, werden zunehmend Online-Fragebögen verwendet, anstatt Vollerhebungen durchzuführen, werden teilweise Stichprobenverfahren eingesetzt, und anstatt die Informationen aus den Fragebögen von Hand einzutragen und auszuwerten, werden sie elektronisch erfasst und mithilfe von Statistikprogrammen ausgewertet. Trotz dieses technischen Wandels ist ihre Grundlogik aber im Wesentlichen dieselbe geblieben: Festsetzung von Kategorien, Operationalisierung in Form von Fragen, Kodierung, Aggregierung und deskriptive Analysen. Im Folgenden geht es um die Kontinuität dieser Operationslogik, nicht um den Wandel der technischen Verfahren.

3.1 Die Geburt der Gesellschaft aus dem Geist der Statistik

Viele Darstellungen zur Geschichte der modernen Statistik lassen diese mit der Einrichtung statistischer Ämter in der ersten Hälfte des 19. Jahrhunderts beginnen. Wie Lars Behrisch (2016) in seiner großangelegten Studie zur Entstehung der modernen Statistik nachweist, lag der entscheidende Wendepunkt jedoch nicht in einer organisatorischen, sondern in einer epistemologischen Transformation, die er auf das späte 18. Jahrhundert datiert und die zu einer grundlegend neuen Auffassung der Bedeutung und des Potenzials von Zahlen führte.Footnote 9 Während sich die früheren Erhebungen auf punktuelle Zählungen beschränkten und die Zahlen lokal für administrative Zwecke einsetzten, waren die Begründer der Statistik nicht mehr an Einzelinformationen interessiert, sondern an der Aufdeckung der Ordnungsmuster, die sich in der Masse der Daten verbargen. Man zählte, um mit den Zahlen rechnen zu können – um sie zu aggregieren, zu korrelieren und über Zeiten und Räume hinweg zu vergleichen. Statistische Erhebungen sollten der „höhern Speculation“ dienen, wie es ein früher Wegbereiter der modernen Statistik formulierte, und nicht durch den „rohen Gedanken“ motiviert sein, Steuern abzuschöpfen oder Soldaten auszuheben (Franz Seraph von Kohlbrenner 1768, zit. in Behrisch 2016, S. 211). Das entscheidend Neue an der modernen Statistik war mit anderen Worten nicht die zunehmende Verfügbarkeit und Zirkulation von Zahlen. Die „avalanche of printed numbers“ (Hacking 1982) war lediglich eine wichtige Voraussetzung. Entscheidend war, dass die Zahlen auf neue Weise interpretiert wurden, nämlich als Hinweis darauf, dass das Soziale einen eigenständigen Realitätsbereich darstellt und eigenen Gesetzen folgt.

Ein wichtiger Wegbereiter und Popularisierer dieser Idee war Adolphe Quetelet, der die Bevölkerung nicht mehr als Summe von Einzelindividuen begriff, sondern als eine Realität sui generis, die eigenständige Gesetzmäßigkeiten aufweist (ausführlicher Heintz 2012, S. 15 ff.). Was sich auf der individuellen Ebene als kontingent – als willkürliche „Laune des Willens“ (Quetelet 1838, S. 5) – präsentiere, erweise sich auf der Aggregationsebene des Sozialen als regelmäßig und geordnet. Um die sozialen Gesetze herauszufinden, müsse man, so Quetelet, „vom einzelnen Menschen abstrahiren. … Indem wir ihn seiner Individualität entkleiden, beseitigen wir Alles, was zufällig ist“ (Quetelet 1838, S. 3). Auf diese Weise gelange man zum „Durchschnittsmenschen“ – dem homme moyen –, einem „fingirten Wesen“, dessen numerisches Profil die Durchschnittsmerkmale einer Bevölkerung zum Ausdruck bringt (Quetelet 1838, S. 9, 15). Mit seiner These, dass (nationale) Gesellschaften eigenständige Makroeigenschaften aufweisen, vermachte Quetelet den Sozialwissenschaften ein neues Untersuchungsobjekt, das von Emile Durkheim 60 Jahre später als ultimativer Beweis für die Unverzichtbarkeit der Soziologie ins Feld geführt wurde: „Man sieht nicht, dass es keine Soziologie geben kann, wenn es keine Gesellschaften gibt, und dass es keine Gesellschaften gibt, wenn es nur Individuen gäbe“ (Durkheim 1983/1897, S. 21). In Abwandlung eines Aufsatztitels von Friedrich H. Tenbruck (1990) könnte man deshalb auch von der „Geburt der Gesellschaft aus dem Geist der Statistik“ sprechen.

Michel Foucault (2004) verbindet die Entstehung der modernen Statistik mit einer neuen Technik des Regierens, die nicht mehr auf Einschränkung, sondern auf Ermöglichung, nicht mehr auf Disziplinierung, sondern auf Regulierung setzt. Im Mittelpunkt steht nicht mehr der einzelne Untertan, sondern die Bevölkerung, die im 18. Jahrhundert als neue politische Figur auftaucht und die man in ihrer Zusammensetzung und ihren Merkmalen erforschen und vermessen muss, um sie regulierend regieren zu können (Foucault 2004, S. 102 ff.). Dieser Wille zum „Genau-wissen-wollen“ (Foucault 2004, S. 114) ist für ihn das entscheidende Moment der genannten epistemologischen Transformation. Während die Disziplinartechniken auf den „Körper-Menschen“ zentriert waren, den es zu kontrollieren und zu dressieren galt, richtet sich die Biopolitik der Bevölkerung auf den „Gattungs-Menschen“ (Foucault 2001, S. 286). Anstatt den Einzelnen zu verändern, geht es nun darum, ihn, wie es Adolphe Quetelet (1838, S. 2) formulierte, „nur als Bruchtheil der ganzen Gattung“ zu betrachten und zu erforschen, welche überindividuellen Regelmäßigkeiten sich entdecken lassen und welche Ursachen ihnen zugrunde liegen. Mortalitäts- und Geburtenraten lassen sich nicht durch Dekrete steuern, Suizide nicht durch Individualkontrollen verhindern, Ernteerträge nicht durch Gesetze erhöhen. Doch sobald man in der Lage ist, jenseits der Zufälligkeiten des individuellen Geschehens die sozialen Muster zu erkennen, wird es möglich, auf sie einzuwirken. Dieses Wissen zu beschaffen, war die Aufgabe der modernen amtlichen Statistik.

Bis die epistemologischen Ziele der frühen Statistiker in der amtlichen Statistik, die riesige Datenmengen zu erheben und zu kompilieren hatte, auch praktisch umgesetzt werden konnten, dauerte es allerdings lange. In den meisten europäischen Ländern wurden die Ergebnisse noch lange als Listen veröffentlicht, die die Informationen nur nach Rubriken geordnet präsentierten. Erst in der zweiten Hälfte des 19. Jahrhunderts wurden technische Verfahren entwickelt, die es auch im Falle von Massendaten erlaubten, die Informationen nicht nur entlang einzelner Kategorien auszuzählen, sondern die Kategorien selbst zueinander in Beziehung zu setzen und die Ergebnisse in Form von Tabellen darzustellen (von Oertzen 2017a; Schneider 2013, S. 238 f.). Die entscheidende Neuerung bestand in der Einführung einer „neuen Papiertechnologie“ (von Oertzen 2017a, S. 424), des sogenannten Zählblättchens, mit dessen Hilfe sich Kategorien auf relativ effiziente Weise miteinander verknüpfen ließen.Footnote 10 Dies geschah dadurch, dass zunächst Hauptstapel gebildet wurden, z. B. getrennt nach Geschlecht. Diese beiden Stapel konnten die „Auszähler“ in einem zweiten Schritt nach einem weiteren Kriterium, z. B. der Altersklasse, in kleinere Stapel aufteilen. Durch das Auszählen dieser Stapel erhielt man Werte für jede Subkategorie, die in eine Tabelle eingetragen wurden, die die Häufigkeitsverteilungen wiedergab: Altersgruppen ließen sich nun nach ihren Geschlechteranteilen und Frauen und Männer nach ihrer Altersverteilung vergleichen. Erst mit dieser Innovation wurde es auch für große Datenmengen möglich, einen Einblick in die strukturellen Zusammenhänge zu gewinnen, die die Statistiker seit Ende des 18. Jahrhunderts so interessiert hatten.Footnote 11

3.2 Doing statistics – die Fabrikation statistischer Zahlen

Statistiken beanspruchen zwar, eine ihnen äußerliche Welt abzubilden, es fehlt ihnen aber eine von ihren epistemischen Vorleistungen und Verfahren unabhängige Referenz. Im Unterschied zu digitalen Technologien (Abschn. 2.1) generieren sie zwar nicht selbst die Objekte, die sie vermessen, aber am Anfang stehen nicht extern gegebene Sachverhalte, sondern Konventionen und Praktiken, über die die Objekte der Statistik erst hergestellt werden. Auch statistische Daten sind mit anderen Worten fabriziert. „Raw data is an oxymoron“, wie es im Titel eines einschlägigen Sammelbandes heißt (Gitelman 2013).

Aber wie werden die Daten erzeugt, und wie werden aus diesen Daten Zahlen? Um diese Fragen zu beantworten, muss man die konkreten Praktiken der Zahlenproduktion in den Blick nehmen – das doing statistics. Zu diesem Thema liegen allerdings kaum Arbeiten vor. Seit Karin Knorr Cetina (1984) und Bruno Latour und Steve Woolgar (1979) das Genre der Laborstudien begründet haben, sind eine Vielzahl von Untersuchungen erschienen, die Wissenschaftlerinnen und Wissenschaftlern bei ihrer praktischen Forschungsarbeit über die Schultern schauen, aber meines Wissens gibt es keine Studie, die dasselbe bei Statistikern tut.Footnote 12 Die wenigen Untersuchungen, die nicht von bereits fabrizierten Zahlen ausgehen, sondern sich für deren Zustandekommen interessieren, schließen darauf aus schriftlichen Dokumenten wie Handbüchern, Fragebögen, Kodieranweisungen oder Ähnlichem (vgl. etwa Cakici et al. 2020; Beiträge in Supik und Spielhaus 2019; Brückweh 2015, Kap. II).Footnote 13

Statistische Zahlen sind das Endprodukt eines komplexen Herstellungsprozesses, der verschiedene Phasen durchläuft und den ich im Folgenden vor allem am Beispiel der Befragung und der Kodierung veranschaulichen möchte (ausführlicher Bennani und Müller 2021 in diesem Band). Für Alain Desrosières sind die der eigentlichen Messung vorauslaufenden Konventionalisierungen, also die Festlegung von Kategorien und die Entscheidungen über Indikatoren, Variablen und Kodierregeln, das Kernstück der Quantifizierung: „The word ‚measure‘ is misleading and leaves conventions of quantification unexamined. The verb ‚to quantify‘, in its active form (to make into a number), supposes that a series of hypothetical equivalences has been developed and made explicit … Measurement itself comes after that, as the rule-based implementation of these conventions. From this point of view, quantification breaks down into two successive parts: convention and measurement“ (Desrosières 2015, S. 333). Mit seiner Unterscheidung zwischen Konventionalisierung und Messung und der Annahme, dass Quantifizierung mehr umfasst als bloße Messung, grenzt sich Desrosières deutlich von den meisten anderen Autorinnen und Autoren ab, die Quantifizierung mit Messen gleichsetzen und damit den Fokus auf den Messvorgang legen, der für Desrosières gegenüber den sozialen Prozessen seiner Ermöglichung sekundär ist.Footnote 14

„Counting is hungry of categories“, schreibt Ian Hacking (1982, S. 280). Denn um zu zählen, muss das, was gezählt wird, zuerst vergleichbar gemacht werden. Dies geschieht über die Festlegung von Kategorien oder „Äquivalenzkonventionen“ (Desrosières 2005). Was „draußen“ vorliegt und was Statistiken abzubilden beanspruchen, sind singuläre und situierte Sachverhalte. Um zu einer Zahl zu werden, müssen sie kategorial vereinheitlicht werden: Gemeinsames wird akzentuiert, Unterschiede werden ausgeblendet. Obschon sich Frauen in vielerlei Hinsicht unterscheiden, werden alle unter Ausblendung ihrer sonstigen Unterschiede unter den gemeinsamen Nenner „Frauen“ gebracht und gleichzeitig von den „Männern“ abgegrenzt. Kategorien liefern mit anderen Worten, was Statistiken brauchen – sie vereinheitlichen und separieren in einem Zug (Zerubavel 1996). Dem eigentlichen Mess- und Zählvorgang geht also die Festlegung eines kategorialen Ordnungsgerüsts voraus, das die Vergleichbarkeit dessen, was gezählt werden soll, erst herstellt. Demgegenüber kommen Recommendersysteme, die auf Collaborative Filtering beruhen, ohne kategoriale Vorentscheidungen aus: Kategoriale Zugehörigkeiten werden nicht vorausgesetzt, sondern aus dem Verhalten erschlossen. Vergleichbarkeit wird nicht über Kategorienbildung und Kodierung erzeugt, sondern darüber, dass sie standardisierte Verhaltensoptionen vorgeben, die für die Nutzer Unterschiedliches bedeuten können, vom System aber als identisch behandelt werden (vgl. Abschn. 2.1).

Aber auch wenn die den Messvorgang fundierenden Konventionen festgelegt sind, bleibt immer noch viel Raum für Entscheidungen, die sich nicht von vornherein festlegen lassen. Denn der Messvorgang ist eben keine „rule-based implementation of conventions“ (Desrosières 2015, S. 333), sondern vollzieht sich als situiertes praktisches Handeln. Wie komplex und sozial imprägniert der Weg von den „Dingen“ zu den „Zahlen“ ist, belegt die Durchführung statistischer Befragungen. Das Ausfüllen der Fragebögen ist ein grundsätzlich sozialer Prozess, der bis zur Umstellung auf postalische Befragungen oder Online-Fragebögen einen direkten Kontakt zwischen Interviewern und Befragten voraussetzte, sei es bei der Kontaktaufnahme oder beim Ausfüllen der Fragebögen und ihrer Erläuterung (anschaulich Brückweh 2015, S. 117 ff.; Igo 2007, Kap. 3; Ruppert 2009a).Footnote 15 Ein standardisiertes Interview unterscheidet sich zwar von einer alltäglichen Konversation, aber es bleibt ein interaktives Geschehen, das für seinen Erfolg darauf angewiesen ist, dass die Beteiligten ihre alltäglichen Interaktionskompetenzen einbringen (Suchman und Jordan 1990; Maynard und Schaeffer 2000). Schriftliche Befragungen vollziehen sich zwar ohne direkten Kontakt, aber mit ihrer Frage‑/Antwort-Struktur evozieren auch schriftliche Fragebögen eine Interaktionssituation, die vonseiten der Befragten ebenfalls Deutungskompetenz und die Fähigkeit zum Perspektivenwechsel erfordert. Die Antworten, die in einem Fragebogen stehen, sind mit anderen Worten nicht einfach objektive Beschreibungen eines Sachverhaltes, sondern sie sind auch Reaktionen auf eine Frage, die in einem faktischen (oder imaginierten) interaktiven Kontext eingebettet ist (Cicourel 1970, S. 110 ff.). Demgegenüber läuft die Datenerfassung bei Recommendersystemen sprach- und interaktionsfrei ab. Es werden keine Äußerungen encodiert, sondern vorgegebene Aktivitäten. Damit entledigen sich digitale Beobachtungstechniken zwar des Problems der doppelten Hermeneutik, die jeder Befragung inhärent ist (Keller 2001, S. 234 ff.), aber sie handeln sich dafür eine Vieldeutigkeit ihrer Daten ein (Paßmann und Gerlitz 2014).

Fragebögen sind zwar Messinstrumente, aber sie enthalten noch keine Daten im strengen Sinne. Um aus ihnen Daten und anschließend Zahlen zu gewinnen, müssen die Antworten kodiert, d. h. metrisiert werden. Im Prinzip geschieht dies dadurch, dass den Antworten gemäß eines vorgegebenen Kodeplans Ziffern zugeordnet werden. „Measurement“, so die bekannte Definition von Stanley S. Stevens (1946, S. 677), „is the assignment of numerals to object or events according to rules“. Manchmal, etwa bei der Kodierung der Geschlechtszugehörigkeit, wirft die Zuordnung von Ziffern keine Probleme auf. Aber überall dort, wo Fragen offen formuliert oder mehrere Antwortmöglichkeiten zugelassen sind, müssen die Antworten für die weitere Auswertung kategorisiert, d. h. übergeordneten Kategorien zugeordnet werden. Was in der Theorie als ein mechanischer Vorgang erscheinen mag, ist in der Praxis ein interpretatives Geschehen.Footnote 16 Kodierregeln sind keine quasikausalen Größen, die ihre Anwendung von vornherein festlegen, sondern sie müssen zusammen mit dem Sachverhalt, den es zu kodieren gilt, gedeutet werden. Wie Garfinkel (1967, S. 18 ff.) am Beispiel der Kodierung von Patientenakten zeigt, erfordert diese Deutung situative Entscheidungen und ein Vorwissen darüber, was durch die Kodierung erst erfasst werden soll. In eine ähnliche Richtung weisen auch die Studien, die im Umkreis von Alain Desrosières zur Kodierung von Berufen durchgeführt wurden (Boltanski und Thévenot 1983; Thévenot 2016; Penissat et al. 2016; Diaz-Bone 2018, S. 75 ff.). Auch hier zeigte sich, dass die Kodierer auf ihr alltagstheoretisches Wissen über Berufe zurückgriffen und sich zu diesen auch selbst in Beziehung setzten – oder in der Terminologie von Garfinkel (1967, S. 22) „the position of a socially competent member of the arrangement“ einnahmen. Zusammengenommen belegen diese Untersuchungen, dass das doing statistics, trotz aller Standardisierungsbemühungen, auf die sozialen Fertigkeiten derer angewiesen ist, die das Geschäft der Statistik betreiben, wie auch auf die alltagspraktischen Kompetenzen jener, die von ihnen vermessen werden (vgl. Abschn. 3.3).

Die Kodierung ist ein erster Schritt in Richtung Dekontextualisierung und Abstraktion. Denn durch die Zuordnung der Antworten zu einer vorgegebenen Kategorie werden die Angaben vereinheitlicht und die Befragten untereinander vergleichbar gemacht. Anstatt durch ihren je individuellen Beruf gekennzeichnet zu sein, sind sie nun durch Ziffern repräsentiert, die eine bestimmte Berufskategorie anzeigen. Auf diese Weise erhält jeder und jede ein eigenes numerisches Datenprofil, das sich zusammen mit allen anderen Profilen in eine Datenmatrix eintragen lässt.Footnote 17 Während die Befragten in der Datenmatrix noch je einzeln erkennbar sind, wenn auch nur in Form einer Ziffernkombination, werden die Messwerte in einem zweiten Schritt verdichtet und zu einer Zahl aggregiert, die sich nun auf die von den Einzelindividuen abgelöste Gesamtheit aller Fälle bezieht. Man sieht nun auf einen Blick, wie viele Frauen und Männer, Behinderte und Nichtbehinderte es gibt und kann daraus ihre relativen Anteile ableiten. Was einfach klingen mag, ist faktisch ein anspruchsvoller Vorgang, der aufseiten der Statistiker eine teilweise aufwendige Deutungsarbeit voraussetzt (Mair und Greiffenhagen 2016, S. 60 ff.).Footnote 18 Dies ist besonders dann der Fall, wenn das interessierende Merkmal über eine Skala erhoben wurde (Beispiel Behinderung) oder Mehrfachantworten möglich waren (Beispiel Ethnizität). Um am Ende eine aussagekräftige Zahl zu erhalten, müssen die Häufigkeitsverteilungen verglichen und unter Umständen neue, kompaktere Kategorien gebildet und Schwellenwerte gesetzt werden (Bennani und Müller 2021 in diesem Band). Mit diesem letzten Schritt verschwindet die Vielfalt der individuellen Fälle in einer vereinheitlichenden Zahl, die eine übergeordnete Größe – die Männer, die Behinderten – repräsentiert und keine Spuren ihrer Herstellung mehr erkennen lässt. Sobald solche Größen vorliegen, lassen sie sich mit anderen in Beziehung setzen und anhand ihrer Merkmale vergleichen. Die kanonische Präsentationsform dieser Relationierung ist die Tabelle, mit der die Statistik über ein eigenes Kommunikationsformat verfügt.Footnote 19

Im Unterschied zu Listen, die eine lineare und sequenzielle Struktur haben, fügen Tabellen ihre Informationen in ein durch horizontale Zeilen und vertikale Spalten gewonnenes Feldersystem ein und machen auf diese Weise Zusammenhänge im buchstäblichen Sinne sichtbar (anschaulich Segelken 2010, S. 89 ff.). Durch die rasterförmige Darstellung werden mindestens zwei Dimensionen grafisch so zueinander in Beziehung gesetzt, dass Unterschiede auf einen Blick erkennbar sind. Diese Darstellungsform bricht die sequenzielle Abfolge von Listen auf und lenkt den Blick in zwei Richtungen, je nachdem ob man die Zeilen liest oder die Spalten. Tabellen, die Geschlecht und Beruf zueinander in Beziehung setzen, ermöglichen, vertikal gelesen, einen Vergleich der verschiedenen Berufe hinsichtlich ihres Männer- oder Frauenanteils und horizontal gelesen einen Vergleich der Geschlechterzusammensetzung der einzelnen Berufe. Im einen Fall ist das Geschlecht das Vergleichskriterium und die Berufsgruppe die Vergleichseinheit, im anderen Fall verhält es sich umgekehrt. Tabellen bringen mit anderen Worten Zahlen in eine Darstellungsform, die den Betrachter automatisch zu einem Vergleich auffordert. „Le tableau croisé … permet d’exprimer des rapports de rapports, des comparaisons de comparaisons“ (Desrosières 2010, S. 123).

Die in Tabellen aufgeführten Zahlen präsentieren sich als objektiv und neutral. Sie halten Unterschiede und Ähnlichkeiten fest, ohne diese explizit zu bewerten, wie es z. B. Rankings tun. Faktisch gehen in sie aber eine Vielzahl von Bewertungsakten ein (am Beispiel der deutschen Integrationsmonitore Petzke 2021 in diesem Band). Dies geschieht schon dadurch, dass die Statistik über das Konzept der „Normalverteilung“ den Durchschnitt mit dem „Normalen“ gleichsetzt und das davon Abweichende daran misst. Schon für Alphonse Quetelet repräsentierte der „homme moyen“ den „Normalbürger“ (s. oben) und Emile Durkheim setzte den „Durchschnittstypus“ mit dem „normalen Typus“ gleich (Durkheim 1984/1895, S. 148). Für Jürgen Link (2009) besteht deshalb eine enge Verbindung zwischen der Statistik und dem Dispositiv des „Normalismus“. Indem das Durchschnittliche für das Selbstverständliche steht, wird das ihm nicht Entsprechende als das Abweichende und Ungewöhnliche markiert und zum „Normalen“ in eine asymmetrische Relation gebracht (Zerubavel 2018, S. 17 ff.).

Auch die Entscheidung für bestimmte Kategorien und Indikatoren (und die Auslassung anderer) hat wertenden Charakter, z. B. wenn im US-Zensus Personen aus der arabischen Welt als „Weiße“ kategorisiert werden (Cainkar 2006) oder wenn Berufstätigkeit über Bezahlung und Regelmäßigkeit operationalisiert wird und somit Frauen, die unbezahlte Familienarbeit leisten, aus der ökonomischen Definition von Arbeit ausschließt (Wobbe 2021 in diesem Band).Footnote 20 Solche vorauslaufenden Bewertungsakte sind in der Präsentation der Daten nicht mehr sichtbar. Was man sieht, sind Zahlen, die keine Spur einer Bewertung mehr erkennen lassen. An dieser Transformation des „view from somewhere“ zu einem „view from nowhere“ (Porter 1992, S. 646) hat das Tabellenformat einen erheblichen Anteil. Tabellen sind das Endprodukt einer Purifizierung, mit der sämtliche Vorleistungen – Desrosières’ „Konventionalisierungen“ – sukzessiv ausgelöscht werden. Sie haben keinen Autor, dem die Zahlen zugerechnet werden können, und suggerieren damit eine „Position der Exteriorität“ (Desrosières 2005, S. 26). Zahlen werden in Luhmanns Terminologie „erlebt“, d. h. der Umwelt zugerechnet, und nicht den Entscheidungen jener, die sie erstellt haben (Heintz 2010).

3.3 Gesellschaftskörper und Individuum

Die Bevölkerungsstatistik interessiert sich nicht für das Einzelindividuum und dessen Verhalten, sondern für übergreifende Zusammenhänge. Aber obschon das Individuum am Ende in den Massendaten verschwindet, muss es zuerst namentlich identifiziert und als Teil der Bevölkerung klassifiziert werden. Deshalb konnte die Statistik erst dann auf Dauer gestellt werden, als die grundsätzliche Gleichheit und damit auch Vergleichbarkeit der Einwohner als relevanter eingestuft wurde als ihre sozialen Unterschiede. „It makes no sense to count people if their common personhood is not seen as somehow more significant than their differences“ (Porter 1986, S. 25). Über diese basale Gleichheitsannahme zieht die Bevölkerungsstatistik eine kategoriale Grenze zwischen denen, die als Gesellschaftsmitglieder zählen (und folglich gezählt werden), und jenen, die nicht dazu gehören (Renard 2021 in diesem Band). An diesen ersten Klassifikationsakt schließen sich weitere Kategorien an, die das Kerngerüst jeder Bevölkerungsstatistik bilden: Berufskategorien, Einkommenskategorien, ethnische Kategorien, Geschlechterkategorien und viele andere mehr. Alle diese Kategorien unterstellen Vergleichbarkeit und abstrahieren von den individuellen Erscheinungsformen.

Während Individuen für die Statistik nur ein Sprungbrett sind, um die Merkmale des Gesellschaftskörpers aufzudecken, wollen digitale Beobachtungsinstrumente etwas über die Verhaltensmuster konkreter Personen in Erfahrung bringen: Könnte A rückfällig werden? Woran könnte B interessiert sein? Ist C ein potenzieller Täter? Doch auch für sie ist das Individuum nicht eine Person, die es in ihrer Individualität zu erfassen gilt, sondern ein rechnerisches Konstrukt, das sich aus dem Vergleich mit anderen ergibt (vgl. Abschn. 2.2). Es ist nicht meine höchstpersönliche Datengeschichte, die mich für Recommendersysteme zu einer besonderen Person macht, sondern es ist der Grad an Übereinstimmung (oder Differenz) mit der amorphen Masse anderer Nutzer. Identifizierung ist mit anderen Worten das Ergebnis von Berechnungen und nicht ihr Ausgangspunkt.

Statistiken machen Individuen zu Objekten, die sich zählen und vergleichen lassen. Diese Objektivierung setzt jedoch einen reflexionsfähigen Akteur voraus, der willens und in der Lage ist, sich selbst in die vorgegebenen Kategorien einzuordnen (Ruppert 2009a). Um einen Fragebogen auszufüllen, müssen sich die Befragten in einem Kategorienraster verorten und darüber nachdenken, wer sie sind im Vergleich zu anderen: eine Frau (und kein Mann), verheiratet (und nicht ledig oder geschieden), erwerbstätig (und nicht Hausfrau), Hispanic (und nicht Black). Individuen sind mit anderen Worten nicht bloß passive Objekte der Statistik, die am Ende in den „großen Zahlen“ (Desrosières 2005) verschwinden, sondern sie kategorisieren sich selbst im Spiegel der statistischen Kategorien und machen durch diesen Akt der Selbstidentifizierung ihre statistische Erfassung erst möglich. Evelyn Ruppert spricht in diesem Zusammenhang von einer „double identification“: „Through the census the subject identifies herself as part of the population and the state identifies the subject and assembles the population“ (Ruppert 2009b, k. S.). Ähnlich wie es Sarah Igo (2007) für die Meinungsforschung gezeigt hat, erzeugen auch Statistiken nicht nur gesellschaftliche Selbstbeschreibungen, sondern sie beeinflussen auch die Art und Weise, wie sich Individuen im Vergleich zu anderen wahrnehmen und tragen damit zu deren Selbstkategorisierung und „Subjektivierung“ bei (Hacking 1986).

Wie radikal die amtliche Statistik auf die Selbstidentifizierung der Befragten angewiesen ist, wird in Situationen augenfällig, in denen die Selbstkategorisierung nicht an die kategoriale Ordnung der Statistik anschließbar ist. Dies ist systematisch dann der Fall, wenn das statistische Kategoriensystem auf Kulturen übertragen wird, die in einer anderen kategorialen Ordnung leben, z. B. Kulturen, in denen es keine Berufe, keine Ehen, keine abgrenzbaren Kleinfamilien, keine Marktwirtschaft gibt. Da sich die Befragten in den vorgegebenen Kategorien nicht wiederfinden, können sie die Fragen nicht beantworten und folglich auch nicht klassifiziert werden. Sie bleiben eine Residualkategorie, die sogenannten „others“, die sich der statistischen Beobachtung entziehen und sich selbst auch nicht als zugehörig wahrnehmen können (exemplarisch Ruppert 2009a). Demgegenüber setzen digitale Technologien für ihre Datengewinnung nicht voraus, dass sich die Nutzer kategorial verorten. Die Individuen bleiben ihnen gegenüber passiv, aber sie hinterlassen durch ihre Aktivitäten Datenspuren, die hinter ihrem Rücken erfasst und verarbeitet werden. Ruppert (2011) spricht deshalb von „interpassive subjects“ und macht mit dieser Bezeichnung kenntlich, dass Individuen zwar in Netzaktivitäten verwickelt, aber an ihrer Datafizierung nicht aktiv beteiligt sind.

4 Schlussfolgerungen: Die moderne Gesellschaft im Spiegel ihrer Beobachtungsformate

Ausgangspunkt meines Beitrags war die Annahme, dass sich digitale Technologien in der Geschichte moderner Beobachtungsformate verorten lassen. Streamingdienste, Suchmaschinen, Vermittlungsplattformen und soziale Netzwerke sind nicht das schlechthin Neue, sondern sie stehen in einer historischen Kontinuitätslinie zu früheren Beobachtungsformaten – der Statistik, der Meinungs- und Marktforschung und dem Sozialmonitoring. Die Gemeinsamkeit liegt darin, dass es sich bei allen um Instanzen handelt, die kontinuierlich Daten erheben und diese Daten nach Regelmäßigkeiten absuchen, um auf diese Weise Informationen zu gewinnen, die sich für weitere Zwecke nutzen lassen. Wie sie das tun und mit welchem Ziel, unterscheidet sich allerdings. Das habe ich anhand eines Vergleichs von Bevölkerungsstatistik und personalisierten Recommendersystemen dargestellt. Verortet man die beiden Beobachtungsformate nach ihrer Entstehungszeit auf einer historischen Zeitachse, gibt der Vergleich nicht nur Aufschluss darüber, wie sie beobachten und worin sich ihre Beobachtungstechnik unterscheidet, sondern auch darüber, wie sich die gesellschaftlichen Grundlagen der Sozialbeobachtung in den letzten 200 Jahren verändert haben.

Mein Vergleich bewegt sich auf einer tieferen Abstraktionsebene als die Theorien des Digitalen, die Armin Nassehi (2019) und Dirk Baecker (2018) vorgelegt haben, und er kommt auch zu anderen Schlüssen. Das Bezugsproblem, von dem Nassehi ausgeht, ist der Komplexitätszuwachs, der mit der Umstellung auf funktionale Differenzierung einhergeht. Die damit verbundene Unübersichtlichkeit schafft einen neuen Bedarf an Planung, Steuerung und Entscheidungshilfen und damit an Techniken, die in der Lage sind, latente Muster zu entdecken. Die amtliche Statistik ist für ihn eine erste Reaktion auf diese Problemlage, digitale Technologien führen sie weiter. Während Nassehi digitale Technologien nur als Steigerung dessen begreift, was mit der modernen Statistik begann, diagnostiziert Baecker einen grundlegenden Bruch. Anstatt digitale Technologien mit funktionaler Differenzierung kurzzuschließen, sieht er ihr entscheidendes Merkmal darin, dass sie die Grenzen der gesellschaftlichen Funktionssysteme unterlaufen und eine neue Gesellschaftsform vorantreiben, deren Primärstruktur die des Netzwerks ist (Baecker 2018, S. 35 ff.). Im Unterschied zu Nassehi, der die strukturelle Stabilität der modernen Gesellschaft in den Mittelpunkt stellt und sich gegen Thesen einer zunehmenden Verflüssigung gesellschaftlicher Strukturen wendet, verortet Baecker den Bruch darin, dass digitale Technologien ständig neue und grundsätzlich flüchtige Verbindungen herstellen. Das permanente Herstellen und Auflösen von Strukturen ist für ihn ein wesentliches Moment der „nächsten Gesellschaft“ (Baecker 2007).

Die beiden Entwürfe unterscheiden sich in grundsätzlicher Hinsicht. Eine Parallele liegt aber darin, dass sie sich am Erscheinungsbild des Digitalen orientieren und die kleinteiligen technisch-algorithmischen Prozesse, die ihm zugrunde liegen, weitgehend ignorieren. Die Argumente treten zwar mit hohem theoretischen Anspruch auf, sie kommen aber teilweise etwas gar großmundig daher, etwa wenn Nassehi (2019, S. 31) die Statistik (und mit ihr die moderne Gesellschaft) kurzerhand unter „digital“ verbucht und „digital“ mit „zählbar“ gleichsetzt oder wenn Baecker (2018, S. 59) die „Digitalisierung der Gesellschaft“ als „die Erarbeitung und Erprobung abzählbarer und berechenbarer Daten im Medium analoger Widersprüchlichkeit“ definiert. Diese Unschärfen haben Folgen für die Plausibilität ihrer Argumentation. Denn ohne sich in die Niederungen der konkreten Operationsweise digitaler Technologien zu begeben, bleibt sie, wie Passoth und Rammert (2020, S. 314) schreiben, eine „These ohne Test“ – ein theoretisches Programm, das sich um die Phänomene, die es erklären will, zu wenig kümmert.

Mein Beitrag versteht sich als ein erster Schritt zu einem solchen Test, indem ich das, was Nassehi und Baecker unter dem Allgemeinbegriff der Digitalisierung abhandeln, auf einen konkreten Fall herunterbuchstabiere und am Beispiel personalisierter Recommendersysteme aufzeige, wie digitale Technologien konkret operieren. Ich folge der Sichtweise von Nassehi insofern, als auch ich die Kontinuitäten hervorhebe, die zwischen der amtlichen Statistik und digitalen Technologien bestehen, ohne jedoch seinen Funktionalismus zu teilen. Diese Kontinuität habe ich mit dem Begriff des Beobachtungsformats zum Ausdruck gebracht. Gleichzeitig hat mein Vergleich aber auch vielfältige Unterschiede sichtbar gemacht, die es unangemessen erscheinen lassen, die beiden Beobachtungsformate unbesehen in den gleichen Topf zu werfen. Ein wesentlicher Unterschied liegt darin, dass die amtliche Statistik eine Gesellschaft unterstellt, in der sich Zusammenhänge über die Zeit hinweg nicht wesentlich verändern, während Recommendersysteme von verflüssigten Strukturen ausgehen, die sich nur momenthaft stabilisieren, ein Befund, der eher der Gesellschaftsdiagnose von Dirk Baecker entspricht. Auf die Diskussion darüber, ob wir noch in einer funktional differenzierten Gesellschaft leben oder schon in der netzförmig organisierten „nächsten Gesellschaft“ angekommen sind, will ich mich nicht einlassen. Wer wollte das und vor allem auch wie entscheiden. Stattdessen möchte ich ein gesellschaftliches Ordnungsprinzip in den Mittelpunkt stellen, das in der Systemtheorie oft vernachlässigt wird, nämlich die Ordnung, die durch die kategoriale Sortierung von Individuen hergestellt wird, und die Unordnung, die sich ergibt, wenn soziale Kategorien fluide werden.Footnote 21

Die Muster, die die Bevölkerungsstatistik in ihren Daten entdeckt, ergeben sich aus der Festlegung von Kategorien. Über Kategorien werden Individuen vergleichbar gemacht und über Kategorien reduzieren Statistiken die Komplexität, die sie in ihren Daten vorfinden. Dahinter steht die Annahme, dass kategoriale Merkmale Effekte erzeugen, die sich als Regelmäßigkeiten in den statistischen Daten wiederfinden lassen. Was auch immer das individuelle Motiv sein mag, seinem Leben ein Ende zu bereiten – Suizide treten bei Protestanten häufiger auf als bei Katholiken (zumindest zu jener Zeit, als Durkheim seine Studie verfasste). Die konfessionelle Zugehörigkeit scheint offensichtlich einen Einfluss auf die Wahrscheinlichkeit zu haben, Suizid zu begehen. Dieselbe Erklärungslogik lässt sich auch auf andere Verhaltensweisen übertragen. Wer lieber Jazz hört als deutsche Schlager, kann dies aus unterschiedlichen Gründen tun. Aus der Bourdieuschen Kartografie lässt sich jedoch ablesen, dass der Geschmack systematisch mit dem Ort im sozialen Raum variiert. Die Annahme, dass kategoriale Zugehörigkeiten kausal relevant sind und Verhalten erwartbar machen, ist die gesellschaftstheoretische Präambel der Statistik und mit ihr weiter Teile der Soziologie. Sie ist der Grund dafür, weshalb Kategorien das Gerüst der amtlichen Statistik bilden und Individuen kategorial sortiert werden. Denn wenn Geschlecht, Beruf, ethnische Zugehörigkeit, Religion usw. nicht als folgenreich vorausgesetzt würden, müsste man sie auch nicht erheben. Statistiken legen mit anderen Worten eine Gesellschaft zugrunde, in der kategoriale Zugehörigkeiten stabil und der kategoriale Ort eines Individuums – die Schnittstelle seiner diversen kategorialen Zugehörigkeiten – folgenreich ist.

Recommendersysteme funktionieren anders und operieren unter anderen Prämissen. Sie stellen Vergleichbarkeit nicht über Kategorien her, sondern über die Vorgabe standardisierter Verhaltensoptionen (Abschn. 2.1). Sie setzen Kategorien nicht voraus, sondern erschließen kategoriale Zugehörigkeit aus dem Verhalten. Ihr Vorgehen folgt einem Bottom-up- und nicht wie die Statistik einem Top-down-Ansatz. Man „ist“, was man hört, mag oder kauft, und was man ist, ist man immer nur temporär (Abschn. 2.2). Anstatt kategoriale Zugehörigkeiten als stabil zu behandeln, gehen Recommendersysteme davon aus, dass sie fluide sind und das Verhalten der bessere Prädiktor ist für zukünftiges Verhalten. Entsprechend sind sie vor allem an prädiktiven Analysen interessiert (Brayne 2021 in diesem Band sowie aus organisationssoziologischer Perspektive Büchner und Dosdall 2021 in diesem Band). Es geht nicht um die Frage, worin sich kategoriale Gruppen unterscheiden und weshalb, sondern darum, aus Verhaltensregelmäßigkeiten auf mögliches Verhalten in der Zukunft zu schließen (MacKenzie 2015). Da digitale Beobachtungsinstrumente keine kategorialen Vorannahmen treffen, gehen sie induktiv vor und behandeln Kategorien als flexible statistische Größen. Irgendwann, wenn man nur lange genug sammelt und rechnet, werden sich in den Daten Muster entdecken lassen, was auch immer deren Determinanten sind. Es braucht mit anderen Worten viele Daten – Big Data – und viel Beobachtung – Big Observation –, um diesen Mustern auf die Spur zu kommen.

Mit der Verschiebung der Aufmerksamkeit von kategorialer Zugehörigkeit auf Verhaltensmuster geht auch eine veränderte Konzeption des Individuums einher. Die Bevölkerungsstatistik geht davon aus, dass Individuen durch stabile soziale Merkmale gekennzeichnet sind, von denen einige immer am Körper haften, andere erworben sind, aber sich nur langfristig ändern. Fisher und Mehozay (2019) sprechen in einem ähnlichen Zusammenhang von einer „ascriptive conception of the individual“ und schreiben diese Auffassung einem Paradigma – einer „scientific episteme“ – zu, die auch der Statistik zugrunde liegt: Individuen werden als Angehörige einer sozialen Kategorie modelliert unter Absehung ihrer individuellen Besonderheiten. Von dieser Auffassung unterscheiden sie eine „algorithmic episteme“, die von einem ganz anderen Begriff des Individuums ausgeht. Anstatt Individuen über ihre kategorialen Merkmale zu definieren, konzipieren sie sie in Termini ihrer Verhaltensmuster, die sich ständig ändern können. Die Frage, weshalb sich Individuen durch dieses oder jenes Verhalten auszeichnen, wird suspendiert. Es geht nicht mehr, um das Webersche Begriffspaar zu verwenden, um „Handeln“, sondern um „Verhalten“ – nicht um das Verstehen von Handlungen und deren Erklärung, sondern um die Identifikation von Verhaltensregelmäßigkeiten. Das zugrundeliegende Handlungsmodell ist ein radikal behavioristisches, das eng an die in der Verhaltensökonomie entwickelte Idee des Nudging gekoppelt ist, also an die Idee, durch geeignete Anreize ein gewünschtes Verhalten zu erzeugen (Cardon 2017; Seaver 2019). Nicht durch Zwang, sondern durch Verführung sollen Nutzer zu Käufen oder dazu gebracht werden, weiterhin Google zu konsultieren oder nur bei Netflix zu streamen. Dies alles vollzieht sich automatisch und weitgehend frei von Sinngebungsprozessen, im Unterschied zur Datenerhebung und -verarbeitung der Statistik, die trotz aller Standardisierung ein grundsätzlich soziales Unternehmen bleibt (Abschn. 3.2).

Recommendersysteme unterstellen mit anderen Worten eine Gesellschaft, die nicht mehr davon ausgeht, dass Individuen eine stabile Identität haben, die mit stabilen Meinungen und Präferenzen einhergeht. Ihre Elementareinheiten sind nicht Individuen, sondern die durch ihr Verhalten angezeigten Relationen zu Dingen oder andern Nutzern: „Users are known as a collection of relations to items and items are known as a collection of relations to users“ (Seaver 2012). Dieses relationale Gefüge ändert sich mit jeder neuen Aktivität und in der Folge ändert sich auch die Identität des jeweiligen Nutzers: „Individual users are no more than the aggregation of the clicks they perform“ (Alaimo und Kallinikos 2017, S. 176). Die Konzeption des Sozialen als Netzwerk von Relationen macht die Unterscheidung zwischen Individual- und Sozialebene, auf der die amtliche Statistik und mit ihr ein Großteil der Soziologie gründet, hinfällig. Regelmäßigkeiten werden nicht aus aggregierten Individualdaten abgeleitet, sondern sie treten als temporäre Verdichtungen von Relationen, als Cluster, in Erscheinung. Was sich als Muster zeigt, wird nicht einer höheren Sozialebene zugeordnet – und schon gar nicht der „Gesellschaft“ –, sondern erscheint als momentanes Ordnungsmoment innerhalb eines ständigen Anbrandens von neuen Relationierungen (Latour et al. 2012).

Dies bedeutet nicht, dass das Gesellschaftliche verschwindet und alles fluide wird. Ordnung – und damit Strukturen – gibt es nach wie vor, sonst könnten keine Regelmäßigkeiten entdeckt werden. Wenn das Verhalten der Nutzer nicht eine gewisse Konsistenz hätte, wären Amazon und Google nicht in der Lage, sie mit passenden Empfehlungen zu versorgen. Aber diese Konsistenz ist für digitale Beobachtungsinstrumente ein empirischer Sachverhalt, dessen Ursachen sie nicht notwendig ergründen müssen. Überspitzt könnte man sagen: Sie reagieren auf eine Gesellschaft, in der die Komplexität ein so hohes Maß angenommen hat, dass sie es aufgegeben hat, nach vereinheitlichenden Erklärungen zu suchen, und sich stattdessen das Soziale „operativ“ vorstellt, als einen ständigen Fluss von Verbindungen, die sich momenthaft zu Strukturen stabilisieren. Würde man in der Soziologie nach entsprechenden Sozialtheorien suchen, fielen einem am ehesten Theorien ein, die die Gesellschaft nicht mehr in Termini stabiler Strukturen begreifen, sondern sie aus einer relationalen und/oder prozessualen Perspektive beobachten. Beispiele dafür wären etwa die Systemtheorie, Andrew Abbotts prozessuale Soziologie oder Harrison Whites Variante der Netzwerktheorie.

Für Dominique Cardon (2017, S. 141) sind die digitalen Technologien „eine Kampfansage an die lange statistische Tradition“ und das von ihr vorausgesetzte Gesellschaftsmodell. Der Nachweis eines Zusammenhanges zwischen Geschlecht und Erwerbstätigkeit oder Klassenlage und Wohnverhältnissen setzte eine Gesellschaft voraus, in der kategoriale Zugehörigkeiten weitgehend festlegten, welche Optionen dem Einzelnen offenstehen. Charles Tilly (1998) hat dafür den Begriff der „kategorialen Ungleichheit“ geprägt. Diese Voraussetzungen sind heute nicht mehr in gleichem Maße gegeben. Rogers Brubaker (2015) hat in diesem Zusammenhang und unter kritischer Bezugnahme auf Tilly eine zunehmende Entkopplung von „Differenz“ und „Ungleichheit“ diagnostiziert und gezeigt, dass zumindest im Falle von Geschlecht, Ethnie und Religion kategoriale Zugehörigkeiten nicht mehr in gleichem Maße als Platzanweiser fungieren wie noch in den 1960er- und 1970er-Jahren: „Inequality has become less categorical in recent decades, while categorical differences have become less inegalitarian“ (Brubaker 2015, S. 46; ausführlicher Heintz 2017). Gleichzeitig sind die kategorialen Grenzen durchlässiger geworden, indem sie vermehrt als kulturelle Grenzen interpretiert werden, die im Prinzip überschritten werden können (Brubaker 2016). Digitale Beobachtungsformate reagieren mit anderen Worten auf eine Gesellschaft, in der sich Individuen der Fixierung durch vorgegebene Kategorien zunehmend entziehen und sich die Determinanten ihres Verhaltens vervielfältigt haben. Für Cardon (2017) äußert sich diese Entwicklung in einer „Krise statistischer Konsistenz“: „Wenn die ‚Gesellschaft der Berechnung‘ dermaßen gründlich bis in die kleinsten Aspekte unser Leben vorgedrungen ist, dann deshalb, weil das Soziale nicht mehr die Konsistenz hat, die einst seine Darstellung und die Nutzung breiter und oberflächlicher Kategorien zur Beschreibung von Individuen erlaubte“ (Cardon 2017, S. 142; zu diesem Sachverhalt schon früh Beck 1983).

Dieser Wandel verweist auf eine Entwicklung, die Fourcade (2016) als „Ordinalisierung“ bezeichnet, nämlich die Ablösung einer (nominalen) kategorialen Ordnung durch eine (ordinale) Ordnung, die von sozialen Merkmalen absieht und Individuen allein auf der Basis ihres Verhaltens bewertet. Anstatt Menschen kategorial zu unterscheiden und sie auf dieser Basis in ein hierarchisches Verhältnis zu setzen, werden sie von ihren kategorialen Zuschreibungen befreit und als gewissermaßen „nackte“ Personen anhand identischer Bewertungsmaßstäbe verglichen und eingestuft. Ausdruck dieser zunehmenden Ordinalisierung ist etwa die Umstellung der Kriterien für die Kreditvergabe von kategorialen Merkmalen auf das individuelle Konsum- und Sparverhalten oder auch die Aufweichung der (nominalen) Unterscheidung von gesund und krank zugunsten eines graduellen Verständnisses von Gesundheit (Barnard und Fourcade 2021 in diesem Band). Das ist aber nur die eine Seite der Ordinalisierung und sie entspricht dem Selbstverständnis einer Gesellschaft, die sich als meritokratisch versteht und unter der Prämisse einer prinzipiellen Gleichheit aller operiert. Die andere Seite ist die, dass nominale Unterscheidungen unter der Hand wieder eingeführt werden und es am Ende wieder die bekannten kategorialen Gruppen sind, die als nicht kreditfähig eingestuft werden: Schwarze, Arbeitslose, alleinstehende Frauen mit Kindern (Fourcade und Healy 2013). Die Pointe bei Fourcade liegt darin, dass sie nicht bei der (modernisierungstheoretischen) Diagnose einer zunehmenden Versachlichung der Beurteilungskriterien und einer Abschwächung von Kollektivzugehörigkeiten stehenbleibt, sondern zeigt, dass kategoriale Ungleichheiten persistieren, aber anders hergestellt und gleichzeitig unsichtbar gemacht werden. Dies unterscheidet ihre Argumentation von Theorien wie etwa der Systemtheorie, die kategoriale Ungleichheiten als „gesellschaftliche Residuen“ betrachtet, die der Operationslogik der Funktionssysteme entgegenstehen (Weinbach und Stichweh 2001, S. 35).

Digitale Technologien sind an der Erzeugung dieser widersprüchlichen Koexistenz von (sichtbarer) Ordinalität und (unsichtbarer) Nominalität aktiv beteiligt. Sie stellen die Algorithmen zur Verfügung, mit deren Hilfe Individuen „gescort“ und anschließend wieder zu nominalen Gruppen „verklumpt“ werden. Aber sie sind nicht nur aktiv beteiligt, sondern bringen die Koexistenz dieser beiden Klassifikationsprinzipen auch in ihren eigenen Verfahrensweisen zum Ausdruck, indem sie z. B. Geschlecht oder Ethnizität nicht mehr als nominale Klassifikation behandeln, sondern „Frausein“ oder „Hispanicness“ auf einer kontinuierlichen Variable abbilden und erst im Nachhinein kategoriale Zuordnungen treffen (Fourcade und Healy 2017). So gesehen bereitet die Ordinalisierung der Gesellschaft (und die sie begleitende Re-Nominalisierung) den Boden für den Einsatz digitaler Technologien vor und wird durch diese gleichzeitig verstärkt. Der Ansatz von Fourcade lässt besser verstehen, weshalb das Beobachtungsformat der Statistik durch digitale Beobachtungsinstrumente Konkurrenz bekommen hat. Digitale Beobachtungstechnologien ersetzen die amtliche Statistik nicht, aber sie machen deutlich, dass es heute noch andere Weisen der Sozialbeobachtung gibt, die unter Umständen der gegenwärtigen Gesellschaft angepasster sind als die Beobachtung durch die Linsen der Sozialstatistik.