1 Künstliche Intelligenz als Herausforderung für die Arbeit(ssoziologie)

In der Arbeitswelt werden zunehmend Anwendungen eingesetzt und genutzt, die auf maschinellem Lernen bzw. Deep Learning aufbauen und dem Bereich der subsymbolischen künstlichen Intelligenz (KI) zuzuordnen sind. Durch „intelligente“ Datenanalyse können unter anderem Entscheidungen (z. B. bei Investitionen oder im Recruiting) unterstützt, Produktionsprozesse automatisiert oder Kundenanfragen maschinell beantwortet werden. Die arbeitssoziologische Forschung richtet ihren Blick hauptsächlich auf betriebliche Rationalisierungsprozesse durch KI und die damit einhergehenden Folgen für das Verhältnis von Arbeit, Betrieb und Technik – zum Beispiel in Bezug auf Beschäftigung, Tätigkeiten, Handlungsräume und Erfahrungswissen (z. B. Krzywdzinski 2019; Pfeiffer 2020; Huchler 2022), die Arbeitsgestaltung (z. B. Gerst 2019; Huchler 2022) oder auch Kontrolle und Leistungsüberwachung (z. B. Staab und Geschke 2019; Christl 2021).

In diesem Beitrag widmen wir uns der Spannweite des technischen Wirkens von KI in der Praxis von Arbeit. Wir fragen, wie das Verhältnis zwischen neuen bzw. erweiterten Handlungsmöglichkeiten und neuen Einschränkungen bzw. Strukturierungen durch den Einsatz von KI einzuschätzen ist. Dazu entwickeln wir eine theoretische Figur, die Kontingenz und Selektivität als zwei Seiten des technischen Wirkens von KI in der sozialen Praxis von Arbeit beschreibt. Unsere These lautet, dass neuere Formen von KI (subsymbolische KI) der Arbeitspraxis einen Kontingenzschub verleihen, indem mehr und andere Dinge gewusst und getan werden können als zuvor. Zugleich sind damit aber latente Verengungen und Pfadabhängigkeiten des Wissens und Handelns verbunden. Wir greifen den Aspekt einer verstärkten Durchdringung von Arbeit und Gesellschaft mit KI auf und identifizieren Öffnungen bzw. Kontingenzen und Schließungen bzw. Selektivitäten rund um mögliche Verselbständigungsprozesse oder zumindest latente Entwicklungstendenzen einer Transformation von Arbeit und Gesellschaft mit (subsymbolischer) KI.

Subsymbolische KI, die Ende der 1980er Jahre in der KI-Forschung an Relevanz gewonnen hat (vgl. Smolensky 1988; Fodor und Pylyshyn 1988), arbeitet nicht mit semantischen Repräsentationen, wie sie in der menschlichen Sprache angelegt und Gegenstand der symbolischen KI (z. B. Expertensysteme) sind.Footnote 1 Sie kommt ohne Vorwissen über den zu verarbeitenden Gegenstand aus und fokussiert allein auf Korrelationen bzw. Muster in der Datengrundlage (egal, ob es sich dabei um Texte, Bilder oder Töne handelt). Entscheidend ist somit die algorithmische Struktur subsymbolischer KI. Die verwendeten Algorithmen sind funktional gruppiert (Neuronen) und so miteinander verschränkt, dass ihre Operationen nach dem Vorbild biologischer neuronaler Netze variabel ablaufen. Die Verknüpfung der einzelnen Funktionen bzw. Neuronen in den verschiedenen Schichten erfolgt auf Basis von Wahrscheinlichkeiten, bis sich relativ stabile Strukturen ergeben.

Die funktionale Zuordnung der Schichten selbst unterscheidet sich dabei nicht wesentlich von herkömmlichen Computerprogrammen: Der input layer nimmt Daten aus der Umwelt auf, während der output layer die Ergebnisse des Netzwerks für die Umwelt verfügbar macht. Dazwischenliegende Schichten, die sogenannten hidden layers, führen Berechnungen mit den Eingabedaten durch und erzeugen Ergebnisse, die von der Ausgabeschicht verwendet und der Nutzungspraxis zur Verfügung gestellt werden. Neu an subsymbolischer KI ist allerdings, dass die Neuronen und ihre Relationen bzw. die algorithmischen Funktionen und Prozesse abhängig von Dateninputs gebildet und verändert werden. Dies geschieht auf Basis von Wahrscheinlichkeiten und Variation. Das Ziel besteht darin, KI-Systeme für eine Aufgabe zu optimieren – was aufwendige und komplexe Trainingsprozesse künstlicher neuronaler Netze erforderlich macht. Erst wenn subsymbolische KI-Systeme zuverlässig Muster in bekannten Daten erkennen bzw. zufriedenstellende Ergebnisse in Trainingsumgebungen liefern, können sie auf neue, ähnliche Daten und Situationen angewendet werden. Dort entwickeln sie ihre Strukturen eigenständig weiter bzw. passen sich an die für das KI-System relevanten Gegebenheiten (Daten) der Praxis an. Die Qualität der algorithmischen Vernetzung steigt meist mit der Nutzung des Systems.

Im Folgenden entwickeln wir unsere Argumentation, indem wir in einem ersten Schritt subsymbolische KI als kontingenzerzeugende Technologie fassen. Dazu greifen wir auf handlungs- und systemtheoretische Konzepte zurück (2). In einem zweiten Schritt lenken wir den Blick auf die eingeschriebenen und in der Praxis von Arbeit wirksamen Selektivitäten, die aufgrund ihrer Latenz zu ungesehenen Folgen und Nebenfolgen führen können (3). Zusammenfassend argumentieren wir, dass Kontingenz und Selektivität notwendig im Sinne einer systemischen Transformation der Praxis von Arbeit zusammengedacht werden müssen. Dabei stehen die Einbettung und Nutzung von KI-Systemen in Arbeitszusammenhänge und die Bewertung KI-generierten Wissens im Vordergrund (4).

2 Künstliche Intelligenz als kontingenzerzeugende Technologie

Eine der wesentlichen Leistungen von KI besteht darin, sich mit einer „relativen Autonomie“ (Rammert 2007, S. 82) in Arbeitszusammenhänge einzufügen und dort bestimmte Aufgaben zu erfüllen. Dies wird durch Freiheitsgrade möglich, die KI als flexibler Technik eingeschrieben sind:

„In der Künstliche-Intelligenz-Technologie beginnt die Loslösung von fest verdrahteten oder eindeutig vorgeschriebenen Abläufen mit dem Wechsel von der Master-Slave-Architektur zur agentenorientierten Programmierung und zu gesellschaftsorientierten Architekturen verteilter intelligenter Aktivitäten.“ (Rammert 2003, S. 7)

Damit weist auch subsymbolische KI eine im Vergleich zu herkömmlicher Technik neue Qualität der Unvorhersehbarkeit auf, die es nicht länger erlaubt, ihr Wirken als feste Kopplung von Abläufen oder reine Wiederholung von Vorgängen zu beschreiben: „Das zukünftige Verhalten eines technischen Agenten, sei es ein Roboter oder ein Avatar, lässt sich nicht mit Sicherheit vorhersagen oder berechnen.“ (ebd.) Kontingenz, das heißt die Möglichkeit des Anders-möglich-Seins, wird in dieser techniksoziologischen Perspektive zu einem entscheidenden Merkmal des Wirkens von KI.

In der soziologischen Technikforschung wurde der Zusammenhang von Kontingenz und Technik bereits früh und insbesondere mit Blick auf die Entwicklung und Gestaltung von technischen Artefakten sowie deren Nutzung in sozialen Kontexten herausgestellt. Sozialkonstruktivistische Ansätze haben gezeigt, dass die Technikentwicklung keinem Sachzwang folgt, sondern von dem interessengeleiteten, oftmals auch konflikthaften Verhältnis der relevanten Akteure bestimmt ist. Dieses Verhältnis wirkt sich auf die Form und den Inhalt technischer Innovationen aus. Einzelne Akteure können in einem gewissen Rahmen – dem „technological frame“ (Bijker 1992, 1995) – ihre Vorstellungen, Interpretationen und Interessen gegenüber anderen Akteuren behaupten und so Gestaltungs- und Schließungsmöglichkeiten der Technik bzw. des technisch-wissenschaftlichen Wissens beeinflussen (mit Bezug auf KI: Hirsch-Kreinsen 2023). Technische Errungenschaften stellen demnach das Ergebnis eines zunächst offenen sozialen Aushandlungsprozesses dar. Die so eingeführte Kontingenz wird als „interpretative flexibility of technological artefacts“ (Pinch und Bijker 1984, S. 419) konzeptualisiert, das heißt als Vielfalt von Perspektiven auf Technik, die sich auch auf deren Nutzung auswirkt. Entwicklungs- und gestaltungsseitig fließen zwar gezielt Vorstellungen von Nutzenden und der Nutzungspraxis in die Technikentwicklung ein, jedoch treffen diese immer auf eine eigenlogische Nutzungspraxis mit eigenwilligen Akteuren, spezifischem Wissen, vorhandenen Einstellungen und Pfadabhängigkeiten (vgl. de Laet und Mol 2000). Wie eine Technik genutzt wird, lässt sich somit nicht vollumfänglich antizipieren und verweist immer auf eine gewisse Kontingenz, die mit der Einbettung eines technischen Artefakts in soziale Praktiken und Strukturen zu tun hat. KI erscheint somit als eine Technik wie jede andere, in der sich immer auch soziale Interessen und Machtverhältnisse manifestieren (vgl. Amoore 2013, 2020; Crawford 2022; Nowotny 2021; Zuboff 2015).

Subsymbolische KI als kontingenzerzeugende Technik zu fassen, meint jedoch etwas grundlegend anderes. Entscheidend bei dieser Technik ist, dass ihr technisches Wirken auf der Berechnung von Wahrscheinlichkeiten beruht. Dadurch entstehen in ihrer Nutzung Situationen, „in denen nicht mehr so eindeutig zu klären ist, wie und worauf die Maschine reagiert“, und ihr „Output durchaus nicht eindeutig als das Ergebnis einer maschinellen Operation zu entschlüsseln ist“ (Nassehi 2019, S. 223). Damit wird Kontingenz zu einem entscheidenden Merkmal subsymbolischer KI – und zwar nicht im Sinne kontingenter Zuschreibungen an Technik, sondern als eine Eigenschaft des technischen Wirkens selbst (ausführlich dazu: Heinlein 2024). Das technische Wirken von KI ist nicht vollständig vorhersehbar und zeitigt Folgen, die auf die Emergenz neuer Wirklichkeits- und Möglichkeitsräume des Wissens und Handelns verweisen. Dies erfordert mit Blick auf den Technikbegriff ein Umdenken: Versteht man datengetriebene Maschinen, die sich an Wahrscheinlichkeiten orientieren, als „nicht-triviale Maschinen“, die in ihrem Wirken etwas tun, „das auch anders hätte ausfallen können“ (Nassehi 2019, S. 131), dann kommt man nicht umhin, ihnen eine gewisse Kontingenz zuzugestehen – also etwas, was historisch bislang „der menschlichen Black Box“ (ebd.) zugerechnet wurde und nicht einer Technik, bei der man daran gewöhnt war, dass zwischen dem, was man der Maschine vorgibt, und dem, was sie ausgibt, eine feste Beziehung besteht. Als fortgeschrittene digitale Technik kennzeichnet KI, dass sie „tatsächlich Überraschungen erzeugt, will heißen: unerwartete oder nicht eindeutig kalkulierbare Ergebnisse produziert“ (ebd., S. 222).

Um diese These einer KI-getriebenen Kontingenzerzeugung in sozialen Praktiken zu untermauern, sind einige grundlegendere Überlegungen nötig, die sich zunächst auf die Art und Weise der Objektivierung von Wissen durch KI beziehen. Geht man davon aus, dass sich mit der Technik des Computers eine „neue historische Praxisform der Schrift (Software)“ (Faßler 1996, S. 39) etabliert hat, dann beruht diese Praxis nicht nur auf der von Menschen getätigten Einschreibung von Zeichen in Computersysteme (sei es als Programmieren oder Eingabe von Daten in Benutzeroberflächen), sondern auch auf einer maschinellen Produktion von Zeichen. Das an der Schnittstelle von Mensch und Maschine sichtbare Zeichen wird von zwei Seiten aus als Referenzpunkt genutzt: Zum einen dient es als Grundlage für algorithmische Prozesse, die es weiterverarbeiten, zum anderen wird es zum Gegenstand sozialer Deutungen, die zu weiteren Eingaben an einer Maschine und damit zu einem Anschluss an algorithmische Prozesse führen. Der Schnittstelle zwischen Mensch und Technik kommt vor diesem Hintergrund eine besondere Bedeutung zu: „Die analogen Äußerungen von Mensch und Maschine werden durch eine Welt digitaler Signale vermittelt, die, sobald sie ihre Unsichtbarkeit durch Erscheinen an der Schnittstelle verlieren, uns auch schon zum Zeichen werden (müssen).“ (Nake und Grabowski 2005, S. 138) Eine Arbeitspraxis, in der Menschen mit „intelligenten“ Maschinen interagieren, kann somit als ein Austausch von menschlich und maschinell erzeugten Zeichen verstanden werden. Diese Zeichen werden dabei auf je spezifische Weise sozial und algorithmisch verarbeitet. Das Ergebnis wird von beiden Seiten als objektivierte Information genutzt, auf der wiederum weitere zeichenhafte Austauschprozesse beruhen. Wesentlich dabei ist, dass sich hierdurch die Selektivitäten der sozialen und algorithmischen Anschlüsse verändern können. Mit anderen Worten: Die menschliche und maschinelle Interpretation eines Zeichens beeinflusst, wie weitere Zeichen interpretiert werden usw. Als paradigmatisch dafür können generative KI-Anwendungen wie der Chatbot ChatGPT gelten, die in Echtzeit im Austausch mit Nutzenden sinnvolle Texte erzeugen. So entsteht eine dynamische Ordnung des Wissens, die sich als Ergebnis der Kommunikation mit KI-Systemen verstehen lässt, das heißt mit Algorithmen, die sich durch „independence, self-reference, and complexity“ (Baecker 2011, S. 22) auszeichnen. Kontingenz zeigt sich in diesem Prozess dort, wo Kommunikation durch Zeichen irritiert wird und sich entlang der Differenz von Erwartung und Erfahrung neues Wissen herausbildet. Die Systemtheoretikerin Elena Esposito beschreibt dies folgendermaßen:

„The algorithm does not become more informed or more intelligent; it just learns to work better. But thereby it can produce increasingly complex communication with its users, who can learn unknown things about the world and about themselves. Communication becomes more effective, and new information is produced. […] Even and especially if the algorithm is not an alter ego, does not work with a strategy, and does not understand its counterpart, in interaction with machines human users can learn something that no one knew before or could have imagined, which changes their way of observing.“ (Esposito 2017, S. 262)

Die Neuheit und die Unvorhersehbarkeit des Wissens rühren daher, dass KI in der Arbeitspraxis als eine Art Sichtbarmachungsmaschine wirkt: Ihre Algorithmen werden programmiert und eingesetzt, um Muster in komplexen Daten zu erkennen und latente Zusammenhänge in strukturierter Form darzustellen. Damit verändern sich Perspektiven – man sieht andere Dinge, aber auch Dinge anders als zuvor, ohne dass dies gewollt worden wäre oder hätte antizipiert werden können. Eine fortschreitende Digitalisierung hat damit den eigentümlichen und soziologisch herausfordernden Effekt, „dass immer mehr Techniken entstehen, die tatsächlich in soziale Prozesse eingreifen, die Handlungsverläufe mitstrukturieren und mit denen Menschen in eine Situation doppelter Kontingenz geraten“ (Nassehi 2019, S. 224). Die soziotechnische Praxis, an der KI als ein dynamischer Bestandteil mitwirkt, erhält in diesem Sinne eine Art Kontingenzschub, der sich auch daran bemisst, die Kontingenz des technischen Wirkens subsymbolischer KI zumindest punktuell zu erkennen und bei zukünftigem Handeln zu berücksichtigen.

Zugleich schleifen sich mit dem Einsatz von KI latente Strukturen ein, die sich auf „hinter den Erscheinungen operierende Gesetzmäßigkeiten“ (Oevermann 2002, S. 1) beziehen und auf eine weitere, für KI spezifische Form der Kontingenz verweisen. Damit ist zunächst die Verschränkung von menschlichen und maschinellen Dispositionen gemeint, die sich einer vorgängigen Einschreibung bzw. Internalisierung verdanken und in der Praxis zwar vorhanden, aber nicht zwingend offensichtlich sind. Darunter fällt all das, was in sozialer Hinsicht unter anderem als Habitus (Pierre Bourdieu, Nobert Elias), implizites Wissen (Michael Polanyi) oder unbewusste Situationsrahmung (Erving Goffman) und in technischer Hinsicht als algorithmische Selektivität (vgl. Heinlein und Huchler 2023, S. 49; siehe dazu auch weiter unten) diskutiert wird, das heißt als strukturelle Eigenschaft der Datenverarbeitung in den hidden layers einer KI. Diese impliziten Größen, die sich auf sozialer Seite und bei der KI finden, fließen nicht nur in die soziotechnische Praxis mit KI ein, sondern kanalisieren und formen diese auch – allerdings auf einer Ebene, die für die Praxis selbst nicht unmittelbar verfügbar ist. Dies bedeutet auch, dass sich im menschlichen Umgang mit KI Verhaltensweisen, Wissensformen und Sinnstrukturen zeigen und etablieren, die nicht oder nur unter bestimmten Bedingungen thematisch werden (können). Der soziotechnischen Praxis aber verleihen sie eben genau dadurch, dass sie unbeobachtet bleiben, eine spezifische Gestalt. Dies kann etwa dann der Fall sein, wenn eine KI-Anwendung offensichtlich falsche Ergebnisse hervorbringt, die unhinterfragte Deutungen und Nutzungsweisen der KI praktisch virulent werden lassen, oder aber wenn man KI-generierte Empfehlungen ignoriert. Im einen Fall hat man sich zu sehr auf die Technik verlassen, im anderen Fall erscheint man (bestenfalls) als Technikskeptiker. Oder wie der Technikphilosoph und -soziologe Bruno Latour es ausgedrückt hat: „Erst die Krise macht uns die Existenz des Gerätes wieder bewusst“ (Latour 2002, S. 223). Gleichwohl öffnet sich damit nicht die Blackbox KI, da ein Algorithmus „makes selections and choices based on criteria that are not random, but that the user does not know and need not know“ (Esposito 2017, S. 260). Das algorithmische Wirken entspringt somit Unterscheidungen, die gleichermaßen ungesehen wie unreflektiert in die Art und Weise einfließen, wie situiertes Wissen erzeugt und Handlungsmöglichkeiten wie Handlungsmacht vermittelt werden. Es geht also um die „Erzeugungs- und Ordnungsgrundlage“ (Bourdieu 1987, S. 98) einer Praxis mit KI und damit um eine Form der Kontingenz, die mit den generativen Tiefenstrukturen der soziotechnischen Praxis von Mensch und KI zu tun hat.

Da jedoch nicht ohne Weiteres ersichtlich ist, nach welchen sozial abhängigen Kriterien und Selektivitäten die „intelligenten“ Algorithmen verfahren, wird das Wirken von KI bisweilen immer noch als „technologically inflected promise of mechanical neutrality“ (Gillespie 2014, S. 181) wahrgenommen, also als Fortsetzung, wenn nicht gar Steigerung eines allgemeinen Versprechens des technologischen Fortschritts. Damit werden nicht nur die Machtverhältnisse verschleiert, die hinter der Programmierung und dem Einsatz von KI liegen. Vielmehr kommt auch ein besonderer Latenzeffekt in den Blick: „Im Alltagsverhalten werden die treffenden Empfehlungen der Algorithmen auf eine intelligente Technik zugerechnet und nicht mit dem eigenen Verhalten in Beziehung gesetzt“ (Baecker 2019, S. 2 f.). Die Debatte über die Intransparenz und Erklärbarkeit von KI muss daher streng genommen um eine Debatte über die Latenz ihres Wirkens ergänzt werden.

Den vier Quellen der Kontingenzerweiterung durch (subsymbolische) KI (Entwicklung, Nutzung, Objektivierung von Wissen und Latenz) stehen vier Selektivitäten gegenüber, die auf Strukturierungen durch (subsymbolische) KI verweisen. Kontingenz wird damit in einer soziotechnischen Praxis mit KI zwar möglich, zugleich aber auf spezifische Weise eingehegt.

3 Selektivitäten künstlicher Intelligenz

Der neue Schub an Kontingenzerweiterung durch KI geht vor allem auf deren hohe Anwendungsbreite als „Schlüsseltechnologie“ (Hirsch-Kreinsen 2023; vgl. auch Crafts 2021) zurück – und zwar insbesondere von generativer subsymbolischer KI. Diese kennzeichnet ein spezifisches Vorgehen des „theorielosen Probierens“ (Brödner 2022, S. 34) bzw. die Unabhängigkeit von kontextspezifischem Expertenwissen zur Erstellung symbolischer Repräsentationen. Statt einer aufwendigen aufgabenbezogenen Ex-ante-Programmierung wird ein adaptives, inhaltsunabhängiges Verfahren möglich, das Lösungen allein auf Basis von Wahrscheinlichkeit, Variation und Ergebnisüberprüfung (Training) erzeugt. Damit gehen neue Kontingenzen bzw. unvorhersehbare Wissens- und Handlungsräume einher, die jedoch nicht beliebig, sondern durch die Technik selbst und ihr praktisches bzw. soziales Wirken vorstrukturiert sind.

Im Folgenden werden vier Formen einer solchen Strukturierung als Quellen von Selektivität unterschieden und systematisiert, die mit KI-Systemen in der Arbeit einhergehen, wobei allein die dritte Form spezifisch für subsymbolische KI ist: 1) soziale (instrumentelle und praktische) Selektivitäten der Einbettung von KI (in Entwicklung, Implementierung und Nutzung), 2) objektivierende Selektivitäten der Beherrschung sozialer Komplexität durch digitale Technologien (technische Perzeption, Verarbeitung und Anschlussfähigkeit), 3) methodisch-technische Selektivitäten, die der technischen Logik subsymbolischer KI inhärent sind (z. B. Wahrscheinlichkeits- und Ergebnisorientierung), 4) latent formierende Selektivitäten durch Anpassungsprozesse des sozialen Umfelds an die Bedingungen oder Anforderungen von KI.

Soziale Selektivitäten: Hierunter fallen Aspekte instrumenteller und latenter sozialer Praxis. Die Entwicklung, Implementierung und Nutzung von KI in der Arbeitswelt (und darüber hinaus) werden sozial und insofern auch interessen- und machtgeleitet gestaltet. Damit gehen kontinuierlich reproduzierte soziale bzw. instrumentelle Selektivitäten der Technik wie auch ihrer Anwendungspraxis einher. Dies fängt mit Entscheidungen (über Ziele, Funktionen, Datenbasis, Schnittstellen etc.) bei der Entwicklung eines KI-Systems an (Brödner 2020; Friedman und Nissenbaum 1996; Mittelstadt et al. 2016), geht mit der Implementierung eines KI-Systems in soziotechnische Arbeitssysteme weiter und mündet in (auch informelle und latente) individuelle wie organisationale Nutzungspraktiken. Insofern ist KI immer sozial geformt. Dies betrifft jedoch auch weitere Grundelemente von KI-Systemen: erstens die Datenbasis, die gezielt ausgewählt wird, begrenzt (bzw. immer unvollständig) und oftmals verzerrt ist; wobei KI dazu neigt, Vergangenheit fortzuschreiben und Tendenzen zu überzeichnen. Zweitens das Training, denn auch die verschiedenen KI-Trainingsprozesse sind nicht frei von unvollständigen Informationen, Interessen und Interpretationen sowie entsprechenden Verzerrungen (Diakopoulos 2015); sowohl in Bezug auf die Gestaltung von Trainingsverfahren als auch deren aktive Durchführung. Drittens werden oftmals ausgeklügelte KI-Verfahren mit sehr einfachen, leicht zu operationalisierenden Modellannahmen bzw. Wirkungsmodellen verknüpft (Brödner 2019), beispielsweise bei Personalauswahlsystemen. Dabei ist nicht nur die informatorische Modellierung von Arbeit oftmals schwierig (Rohde et al. 2017). Auch die verknüpften Modelle wirken stark strukturierend auf den KI-Output und dessen Interpretation. Ob KI-Systeme Handlungsräume erweitern oder verschließen, qualifizieren oder dequalifizieren, belastend oder entlastend wirken, hängt davon ab, wie KI sozial geformt wird.

Objektivierende Selektivitäten: Als Technik der Informationsverarbeitung unterliegt KI den Grenzen der datenbasierten Bearbeitung komplexer, sich permanent verändernder soziotechnischer Herausforderungen. Unterscheiden lassen sich: a) soziomaterielle Grenzen aufgrund der Komplexität der physischen und sozialen Welt, b) rekursive Grenzen, da KI ständig neue Bedarfe an nicht-digitalisierbarem Wissen und Handeln erzeugt (Dilemmata), und c) Grenzen der Formalisierbarkeit von Teilen sozialen Handelns und Wissens (u. a. Böhle 2009; Polanyi 1985; Rammert 2003; Schmiede 2006), an die KI stößt (ausführlich dazu: Huchler 2019, 2022). Dazu gehört die selektive Erfassung sozialer Realität durch Sensoren sowie deren selektive Repräsentation durch Daten. Dabei stellt sich das Problem der Erklärung und Objektivierung von Wissen bzw. zeigt sich die Begrenztheit der technischen Übersetzung von Daten in Information und in Wissen sowie umgekehrt (Schmiede 2006). Arbeit ist durchsetzt mit implizitem Erfahrungswissen; umgekehrt sind kontextbezogenes Wissen, Erfahrung und Arbeitsvermögen notwendig, um KI in die Arbeitspraxis zu integrieren (Pfeiffer 2020). In einem komplexen, sich wandelnden und rekursiven System sind KI-Lösungen daher immer in dem Sinne selektiv, dass sie notwendigerweise fragmentarisch bzw. nie umfassend sind und zudem veralten.

Methodisch-technische Selektivitäten: Auch mit den mathematischen und statistischen KI-Methoden selbst sind systematische Verzerrungen verbunden. Im Gegensatz zur symbolischen KI basiert die innere Funktionsweise der subsymbolischen KI nicht mehr auf Modellannahmen und Expertenwissen, sondern auf Wahrscheinlichkeiten bzw. Korrelationen und einer „Funktions-Approximation“ (Brödner 2022, S. 34). Mit diesem Ansatz übernimmt die KI alle Probleme und Grenzen der Sozialstatistik, das heißt einer Statistik, die versucht, komplexe soziotechnische Beziehungen (und nicht nur komplizierte abstrakte Prozesse) zu erfassen. Diese Probleme ergeben sich aus zahlreichen Aspekten, darunter Scheinkorrelationen, statistische/soziale Verzerrungen, Selbstverstärkungseffekte, Umgang mit Ausreißern und unvollständige Daten (vgl. Pfeiffer 2021, S. 284). Die theoriefreie Massensuche nach Korrelationen (als automatische Hypothesengenerierung und -überprüfung), auf deren Basis Kategorien gebildet werden, verstärkt diese Probleme. Auf diese Weise kommen KI-Systeme zwar in der Regel zu sehr stabilen Ergebnissen. Jedoch liegt ihnen eine massenhafte Verknüpfung selektiver Realitätserfassungen zugrunde, was sich am Ende ausmitteln oder aber auch aufschaukeln kann. Zudem besteht die Gefahr einer Tendenz zur Mitte, die Besonderheiten an den Rändern eher abschneidet, sowie von Selbstverstärkungseffekten und Pfadabhängigkeiten (vgl. ebd.). Dennoch geht mit subsymbolischer KI ein großer Flexibilitäts- und Adaptivitätsschub einher, der eine breite Nutzung ohne aufwendige Erschließung des Kontextes ermöglicht. Dabei wird ein Teil des Umgangs mit Komplexität und Ungewissheit in die KI-Systeme selbst verlagert. Dies lässt sich beschreiben als Schritt von einer Wenn-dann-Programmierung ex ante hin zu einer zielorientierten Um-zu-Steuerung ex post (Ergebnisbewertung im Training bzw. Lernverfahren). Dadurch ergibt sich eine hohe Flexibilität in der Nutzung, verbunden mit den Herausforderungen statistischen Vorgehens und der Ergebnissteuerung (Huchler 2023).

Latent formierende Selektivitäten: KI-Systeme werden nach gesellschaftlichen und individuellen Bedarfen gestaltet. Umgekehrt passen sich aber die sozialen Umwelten immer auch (mehr oder weniger latent) an die Funktionsweisen der technischen Systeme an, damit diese ihre Wirkung entfalten können. Entsprechende transformative Effekte (vgl. Mittelstadt et al. 2016) von KI und latenten formierenden Selektivitäten gilt es zu beachten. Die latenten Formierungen der sozialen Umwelt nach den Funktionsweisen des Systems und den darin eingeschriebenen Interessen beruhen selten auf expliziten Entscheidungen. Vielmehr schleichen sie sich eher unbemerkt in den Nutzungsprozess ein. Die Vielfalt menschlichen Denkens, Handelns und Empfindens steht einer umfangreichen, aber dennoch begrenzten (und mehrfach vorstrukturierten) Anzahl von Kategorien und Verknüpfungen künstlicher neuronaler Netze gegenüber, die lernende Systeme anhand von Daten und Wahrscheinlichkeiten bilden – ohne Grauzonen zu berücksichtigen oder zu kennen (vgl. Brödner 2020, 2022). Gleichzeitig belohnen auch KI-Systeme (soziale) Kompatibilität mit Funktionalität. Durch die Orientierung an Vergangenheitsdaten und Häufigkeiten neigt KI zudem dazu, Tendenzen zu verstärken – sei es in Richtung Monopolisierung oder in Richtung Polarisierung. Es ist notwendig, zu verstehen, wie sich Menschen an technische Systeme anpassen und wie sich dies auf Mensch und Gesellschaft auswirkt (für eine breitere Diskussion gesellschaftlicher Folgen und Nebenfolgen von KI: Heinlein und Huchler 2022, 2024). Möglich sind zum Beispiel Prozesse der Selbst- und Fremddisziplinierung – insbesondere im zweckorientierten Arbeitskontext. KI-Systeme laufen daher Gefahr, Wissens- und Handlungsspielräume latent im Prozess der Nutzung einzuschränken.

4 Fazit: Das Zusammenspiel von Kontingenz und Selektivität subsymbolischer KI in Transformationsprozessen

Am Beispiel subsymbolischer KI konnte gezeigt werden, dass sich technikinduzierte Transformationsprozesse von Arbeit im Zusammenspiel von Kontingenzerhöhung und strukturierender Selektivität im Sinne einer systemischen, das heißt praxisübergreifenden und auf allgemeineren Prinzipien beruhenden, Transformation verstehen lassen. So bergen auch KI-Systeme diese zwei Seiten der technikinduzierten Transformationsprozesse, die systematisch ineinandergreifen. KI-Innovationen eröffnen neue, aber nicht beliebige Möglichkeiten des Denkens, Wissens und Handelns. Gerade in der Arbeitswelt werden die neuen Möglichkeiten von KI permanent gestaltet. Dieses Zusammenspiel ist für technikinduzierte Transformationen nicht gänzlich neu. Jedoch verstärkt die Wirkungsweise subsymbolischer KI zum einen diese beiden Seiten und ihr Zusammenspiel, zum anderen bringt subsymbolische KI eigene bzw. neue Quellen für Kontingenz und Selektivität hervor, die in ihrer Funktionsweise systematisch veranlagt sind. Kontingenz und Selektivität lassen sich entsprechend thesenartig zusammenführen:

  1. 1.

    KI-Systeme sind in sich und in ihrem Nutzungskontext komplex und daher verbunden mit neuen Kontingenzen. ⇔ KI-Systeme werden gezielt (instrumentell) oder latent-praktisch selektiv in Nutzungskontexte eingebettet.

  2. 2.

    KI-Systeme basieren auf der Objektivierung von Wissen und Informationen und erzeugen so neue Interpretationsspielräume bzw. Kontingenzen. ⇔ KI-Systeme reduzieren und strukturieren soziale Komplexität selektiv durch Objektivierung.

  3. 3.

    Lernende subsymbolische KI-Systeme eröffnen durch ihre spezifische Funktionsweise neue Kontingenzen (von Anpassungsfähigkeit bis zur Blackbox). ⇔ Die technischen Methoden subsymbolischer KI-Systeme bergen selbst neue Selektivitäten (z. B. durch Wahrscheinlichkeits- und Ergebnisorientierung).

  4. 4.

    Die Latenz des Wirkens von KI-Systemen ist umgeben von Kontingenzen. ⇔ KI-Systeme wirken latent selektiv bzw. strukturierend in ihre Umgebung.

Damit ergeben sich für die Gestaltung der systemischen Transformation (der Praxis) von Arbeit durch KI verschiedene Fragen, die sich auf die polarisierten Thesen beziehen:

Zu 1): In KI-Entwicklungs- und Einführungsprozessen sowie der Anwendungspraxis werden die Auswirkungen von KI auf die Arbeit durch den Umgang mit ihren neuen Kontingenzen bzw. Möglichkeitsräumen und die sozialen (instrumentellen und latent-praktischen) Selektivitäten bzw. Schließungen bestimmt. Wo und für wen soll KI Wissens- und Handlungsräume eröffnen und wie muss sie dafür entwickelt, eingeführt und angewendet werden?

Zu 2): KI-Systeme basieren auf der Objektivierung von Wissen und Informationen in Form von Daten. Die hierdurch erzeugte Rechenbarkeit eröffnet viele neue Nutzungsmöglichkeiten. Zugleich muss immer berücksichtigt werden, dass mit dieser Abstraktion vom Gegenstand auch Wissen und Informationen verloren gehen. Dies kann durch begleitende Prozesse (Kommunikation, Information, Erfahrbarkeit, Qualifizierung etc.) ausgeglichen werden.

Zu 3): Durch ihr (nahezu) gegenstandsunabhängiges und dadurch sehr adaptives, generisches Vorgehen werden durch subsymbolische KI-Systeme vielfältige neue Anwendungen möglich. Dabei birgt die technische Methodik subsymbolischer KI selbst (auch unabhängig von den genutzten Daten) eigene Problematiken und Begrenzungen in der Anwendung, die für einen nachhaltigen Umgang mit KI mitreflektiert werden sollten.

Zu 4): Viele soziale Folgen von KI entscheiden sich erst im Zuge ihrer Anwendungspraxis eher schleichend und latent – wie zum Beispiel die Auswirkungen auf Wissen, Kompetenzen, Kommunikation, soziale Beziehungen, Macht oder Ungleichheit. Die Gestaltung und die Formungsprozesse der latenten Möglichkeitsräume und Schließungen werden noch zu wenig diskutiert. Jedoch sind hier die weniger offensichtlichen, damit möglicherweise jedoch gravierenderen sozialen Implikationen von KI in der Arbeit und darüber hinaus verortet.

Für die Integration und Einbettung von KI in Arbeitskontexte ist daher insbesondere relevant, welche kontingenzerzeugenden und -einschränkenden Dynamiken durch den Einsatz von KI zu erwarten sind. Darüber hinaus muss geklärt werden, welche Kontingenzen/Selektivitäten man zulassen bzw. nutzen kann oder aber – soweit es möglich ist – kontrollieren will. Dafür ist eine soziotechnische Arbeitspraxis mit KI erforderlich, die sich der Wechselwirkung sozialer und algorithmischer Dynamiken und Verselbständigungstendenzen bewusst ist und die Möglichkeitsräume/Grenzen der Nutzung abschätzen kann – auch und gerade in Bezug auf überfordernde oder belastende Wirkungen des Einsatzes von KI. In der praktischen Verwendung von KI-Systemen ist entscheidend, inwieweit Nutzende befähigt sind, den kontingenzerzeugenden und selektiven Charakter der Technik zu reflektieren und auf das eigene Wissen und Handeln zu beziehen. Dabei muss einem „unbewusst destruktive[n] Einsatz“ (Pfeiffer 2021, S. 283 f.) von KI entgegengewirkt werden, indem die latenten sozialen Implikationen und Verselbständigungstendenzen systematisch in den Blick genommen werden. Bei der Bewertung des mithilfe von KI generierten Wissens taucht die Herausforderung auf, seine Validität einzuschätzen. Daher sollte das kontingenzerzeugende/selektive Wirken von KI konsequent mit dem (Erfahrungs-)Wissen der Nutzenden verbunden werden: Die Nutzung von KI benötigt den Menschen in the loop einer kontinuierlich mitlaufenden Reflexionsschleife, entlang der die KI-generierten Inhalte bewertet und eingeordnet werden.