Kontingent ist, was weder notwendig noch unmöglich ist. Lässt sich diese Dimension des immer auch anders Möglichen kontrollieren? Ausgehend von der zentralen Rolle, die dem Problem der Kontingenz im Zusammenhang moderner Kriegsführung zukommt, geht es in diesem Beitrag um eine spezielle automatisierte Form dessen, was Alexander Galloway vor fast zwanzig Jahren als »protocological control« (Galloway 2004, 8) beschrieben hat und die im Zusammenhang heutiger Überwachungsregime mit Burkhardt Wolf um den Begriff des »Pan-Protokollarischen«Footnote 1 ergänzt werden kann. Im Zentrum steht dabei das dialektische Verhältnis von Determiniertheit und Offenheit, das schon Galloway in seinen frühen Beobachtungen zur politischen Technologie der internet protocols beschrieben hat, und das heute in einem neuen technologisch bedingten Verhältnis von Kontrolle und Kontingenz wieder zu Tage tritt. Der Umgang mit Kontingenz stellt, wie ich mit Verweis auf Carl von Clausewitz sowie auf kybernetische Konzepte des Command and Control zeige, eine grundlegende Aufgabenstellung der modernen Kriegsführung dar. Hierzu heißt es in Clausewitz’ Vom Kriege aus dem Jahr 1832:

Der Krieg ist das Gebiet der Ungewißheit; drei Viertel derjenigen Dinge, worauf das Handeln im Kriege gebaut wird, liegen im Nebel einer mehr oder weniger großen Ungewißheit. […] Der Krieg ist das Gebiet des Zufalls. […] Er vermehrt die Ungewißheit aller Umstände und stört den Gang der Ereignisse.

Jene Unsicherheit aller Nachrichten und Voraussetzungen, diese beständigen Einmischungen des Zufalls machen, daß der Handelnde im Kriege die Dinge unaufhörlich anders findet, als er sie erwartet hatte, und es kann nicht fehlen, daß dies auf seinen Plan oder wenigstens auf die diesem Plane zugehörigen Vorstellungen Einfluß habe. Ist dieser Einfluß auch so groß, die gefaßten Vorsätze entschieden aufzuheben, so müssen doch in der Regel neue an ihre Stelle treten, für welche es dann oft in dem Augenblicke an Daten fehlt, weil im Lauf des Handelns die Umstände den Entschluß meistens drängen und keine Zeit lassen, sich von neuem umzusehen, oft nicht einmal so viel, um reifliche Überlegungen anzustellen (Clausewitz 2006, 34).

Zwei Faktoren – Datenlage und Zeit – sind Clausewitz zufolge für taktische Entscheidungen in der von Kontingenz geprägten Umgebung des Kriegs zentral. Dem Problem des Zufalls und der Ungewissheit sei mit Verstand zu begegnen, und zwar einem Verstand, der »bildlich mit dem französischen Ausdruck coup d’oeil bezeichnet« (Clausewitz 2006, 34) werden kann – ein Verstand also, der in der Lage ist, möglichst auf einen Blick die gesamte Situation zu erfassen und richtige Schlüsse daraus zu ziehen. Die Kontingenz von Kriegsereignissen macht Strategie und Taktik zu einer Sache des Abwägens von Wahrscheinlichkeiten: eines stochastischen Kalküls, das bei Clausewitz noch nicht auf Rechenleistung, sondern allein auf Intuition und Erfahrungswissen beruht. Mehr als ein bestimmter Feind in einem Kampf wird der Zufall, das ungeplante, unvorhergesehene Ereignis in dieser Beschreibung zum eigentlichen Gegner und daher die größtmögliche Kontrolle und Planbarkeit zu einem Idealzustand, an den man sich anzunähern hat, ohne ihn je erreichen zu können. Clausewitz verarbeitete in seinem Hauptwerk nicht zuletzt seine Eindrücke der Napoleonischen Kriege, deren Erfolg sich in der Wahrnehmung der Zeitgenossen nicht wie bei den preußischen Truppen auf uhrwerkhaftem Drill, sondern auf affektiver Überzeugung speiste. Folgerichtig verlässt er sich gerade nicht auf algorithmische Regelhaftigkeit und klar definierte Handlungsanweisungen, die das richtige Handeln in einer bestimmten Situation quasi mechanisiert, sondern auf eine aus Erfahrung gespeiste intuitive Rationalität.

Wo der Militärreformer Clausewitz den Herausforderungen des Zufalls noch mit diesen als spezifisch menschlich markierten Fähigkeiten begegnen wollte, setzt die hochtechnologische Kriegsführung im 20. und 21. Jahrhundert auf Automation.Footnote 2 Mithilfe von umfassender computergestützter Datenerfassung über Sensoren, die auf große Teile des elektromagnetischen Spektrums zugreifen können, also sowohl auf visuelle Daten als auch auf alle möglichen Formen der Übertragung von Kommunikationsdaten, soll nun die Grundlage für richtige Entscheidungen geschaffen werden. Automatisierte Analyse- und Auswertungsverfahren sollen diese Entscheidungen dann herbeiführen und ersetzen so gewissermaßen das von Clausewitz eingeforderte Erfahrungswissen.Footnote 3 Das von ihm vor zweihundert Jahren identifizierte Problempaar von Datenlage und Geschwindigkeit beschreibt auch die Zielsetzung von kybernetisch informierten Konzepten wie Command and ControlFootnote 4 und OODA-LoopFootnote 5, die Kriegshandlungen prinzipiell als informationstechnische Rückkoppelungsschleifen modellieren, oder anders ausgedrückt, als um die Dimension des Feedbacks erweiterte Protokolle, die möglichst schnell und möglichst automatisch durchlaufen werden müssen, um militärisch erfolgreiche Entscheidungen zu treffen.

Das militärische Personal findet sich in dieser Konstellation mehr und mehr in der Rolle von passiven Beobachter*innen, ähnlich dem Arbeiter in der vollständig automatisierten Fabrik, über den schon Karl Marx spekulierte, dass er unter den entsprechenden technologischen Bedingungen zum »Wächter und Regulator« (Marx 2014, 67) von Maschinenprozessen absteige. Der Medientheoretiker Peter Asaro hat die Arbeit der distanzierten Kriegsführung insofern treffend als »Bürokratisierung des Tötens« (»bureaucratized killing«, Asaro 2013) beschrieben, als eine Tätigkeit also, die auf die »Arbeit der Überwachung« und das Einhalten von Protokollen und Regularien (Asaro 2013, 215) reduziert sei. Dabei wird der Mensch – entgegen den Beschreibungen, die im Diskurs um »autonomous weapons« wie auch in der zeitgenössischen Medientheorie immer wieder Konjunktur haben – keinesfalls aus der Verantwortung entlassen und ersetzt, sondern findet sich in anderen Arbeitsteilungen wieder, die mit neuen Verschiebungen und Behauptungen von Verantwortlichkeit einhergehen. Die Hauptlast der Verantwortung für Handlungen und Entscheidungsmacht liegt in automatisierten Systemen bei ihren Administratoren, die aufgrund der Programmierung die Arbeit der ausführenden Akteure verwalten. Auch militärische Vorgänge und Befehlsketten nehmen so mehr und mehr die Form bürokratischer, verwaltender Vorgänge an. Dabei ist die Verteilung administrativer Verantwortung in einer Situation, in der Technologieentwicklung und die Verwaltung von Infrastrukturen größtenteils in der Hand privatwirtschaftlicher Unternehmen und »Plattformen« liegt, immer auch proprietär besetzt, so wie auch die genauen Funktionsweisen von Algorithmen in der Regel proprietär und damit für die Öffentlichkeit nicht nachvollziehbar sind – eine Schwelle der Intransparenz, die im Bereich der Kriegsführung noch um die militärische Geheimhaltung ergänzt wird.

Der sensorisch-administrative Apparat heutiger automatisierter Militärtechnologien vereint dabei drei Funktionen des Protokolls, nämlich die der Dokumentation, die der Handlungsvorschrift und die der Entscheidungsgrundlage. Jede dieser Funktionen geht mit einer eigenen Zeitlichkeit einher oder richtet sich, genauer gesagt, auf eine eigene Zeitebene. Während die Dokumentation der Informationsgewinnung sowohl im Sinne der taktischen Aufklärung als auch im Sinne der Überwachung und Auswertung eigener Handlungen dient und damit prinzipiell nachträglich operiert, bilden die Bildschirmdisplays über die Funktion einfacher Anzeigen hinaus die Grundlage für Handlungsanweisungen und gegenwärtige Entscheidungen »in Echtzeit« (vgl. Franz und Queisner 2018, 37). Über Datenerfassung und -analyse werden zudem Voraussagen getroffen und künftige Handlungen und Wahrnehmungen modelliert.

Das Protokoll kann daher den Techniken zur Verwaltung von Kontingenz zugerechnet werden, die im Zeitalter der Computation (nicht nur im Bereich des Militärischen) durch komplexe statistische Berechnungen auf Basis großer Datenmengen zentral geworden sind. Diese Techniken können als Beispiele für eine Form der »protokollarischen Kontrolle« gelten, die besonders in den Bereichen der Militärstrategie, -technologie und polizeilichen Kontrolle zum Einsatz kommt, mit dem Ziel »kontingentes Verhalten zu eliminieren« (Bröckling 1997, 329). Es geht dabei zum einen darum, protokollarische und protokollähnliche Eigenschaften in automatischen und quasi-autonomen Technologien zu beschreiben und als Techniken der Administration, Ordnung und Kontrolle kenntlich zu machen, und zum anderen darum, deren Status in der aktuellen theoretischen Diskussion zum Problem der Kontingenz im Zusammenhang der von Antoinette Rouvroy und Thomas Berns als »algorithmic governmentality« (vgl. Rouvroy und Berns 2013) beschriebenen politischen Technologien zu untersuchen. Es zeigt sich, dass das Problem der Kontingenz in der Geschichte der Kontrolltechnologien eine Karriere durchläuft, die von der Vermeidung zur Instrumentalisierung zufälliger Ereignisse reicht. Den neueren selbstlernenden Technologien automatischer Datenverarbeitung werden in diesem Rahmen Fähigkeiten zugeschrieben, die über die herkömmlichen Funktionen des Protokolls hinauszugehen scheinen, indem sie Elemente des Zufälligen, Ungeplanten und Unprogrammierbaren nicht nur mit einkalkulieren, sondern zu ihrem Vorteil nutzen. Darauf reagiert derzeit ein philosophisch-medientheoretischer Diskurs, dessen unterschiedliche Positionen zwischen der Möglichkeit der Einbeziehung kontingenter Ereignisse und der Behauptung absoluter Determiniertheit, zwischen Offenheit und Phantasmen totaler protokollarischer Kontrolle changieren.Footnote 6

Das Protokoll als digitale Technologie der Kontrolle stand bereits vor gut zwanzig Jahren im Fokus medientheoretischen Interesses, wie die einschlägige, im Jahr 2004 unter dem Titel Protocol. How Control Exists after Decentralization bei MIT Press veröffentlichte Dissertation von Alexander Galloway belegt. Galloway beschreibt die Funktion des Protokolls hier grundsätzlich als »freiwillige Regelung innerhalb einer kontingenten Umgebung« (Galloway 2004, 7)Footnote 7, wobei er den Aspekt der Freiwilligkeit unbeleuchtet lässt. Sein Interesse gilt der für die dezentrale bzw. distribuierte Organisation des Internets bis heute grundlegenden Technologie der Computer-Protokolle TCP/IP und DNS. Er kann dabei zeigen, dass hier nicht eine kohärente Funktionsweise des Protokolls zum Einsatz kommt, sondern sich vielmehr zwei widersprüchliche Prinzipien entgegenstehen, die sich in der Nutzung des Internets gegenseitig ergänzen:

One machine radically distributes control into autonomous locales, the other machine focuses control into rigidly defined hierarchies. The tension between these two machines – a dialectical tension – creates a hospitable climate for protological control (Galloway 2004, 8).

Das erste Prinzip verteilt Kontrolle auf autonome Lokalitäten, das zweite schafft strenge Hierarchien. Die dem ersten Prinzip entsprechenden Protokolle TCP und IP organisieren die grundsätzlich nicht-hierarchischen Verbindungen, die prinzipiell jeden vernetzten Computer mit jedem anderen verbinden. Dem gegenüber handelt es sich bei dem Domain-Name-System (DNS) um eine Struktur, die jeder adressierbaren Lokalität des Internets eine Adresse (IP) zuschreibt. Um im Internet von einer zu einer anderen Adresse zu gelangen – also bei jedem Kommunikationsakt –, muss diese Struktur durchlaufen werden, was ein hohes Maß an Kontrolle, an Abhängigkeiten und gegebenenfalls an Ausschlüssen ermöglicht. Nicht zuletzt wird durch die Zuschreibung der IP-Adresse prinzipiell jede Internet-Aktivität und jeder Kommunikationsverlauf protokollierbar.Footnote 8

Da die von Galloway beschriebene Struktur von TCP/IP und DNS nach wie vor die Funktionsweise des Internets bestimmt, wenn auch heute in sehr viel größerem Maßstab, können Galloways Beobachtungen auch heute noch, vor allem aber mit Blick auf den Mythos des Internets als »freier Raum« für relevant gelten. Doch die von ihm konstatierte »protological control« ist von den Entwicklungen der vergangenen zwanzig Jahre, wenn nicht überholt, so doch um einige Dimensionen erweitert worden. Dazu wären etwa die in den 2010er-Jahren aufkommenden dezentralen Blockchain-Protokolle zu zählen, die verschlüsselte Kopien von Transaktionen in jedem »Block« einer Daten-»Kette« zugänglich hält und so eine Art materielle Absicherung, etwa für Kryptowährungen wie Bitcoin, zur Verfügung stellt. Diese Methoden verweisen auf ältere Formen der verifizierenden Kontrolle, die der historischen Entwicklung des europäischen Handelskapitalismus zugerechnet werden. Wie unter anderem Miriam R. Levin in ihrem historischen Überblick über Cultures of Control hervorgehoben hat, wurde die Bezeichnung »control« zuerst im 15. Jahrhundert in Frankreich eingeführt, um ein frühes Verfahren zu benennen, das anhand einer »contre-rôle« – ein in zweifacher Ausfertigung geführtes Register in Form einer beschrifteten Papierrolle – der Überprüfung und Verifizierung von finanziellen Transaktionen diente:

For mercantilist states, beginning to rationalize the collection and expenditures of their revenue, the ›contra-roll‹ provided a way to verify nudgets and incomes from production and exchange. ›Control‹ in this context engaged ideas of human feedback by comparison and readjustment to a given standard. In addition, it involved the notion of creating functional interfaces that could serve to align the behavior of those engaged in the circulation of money, credit and taxes (Levin 2005, 21–22).

Für das Nachdenken über ›Protokolle‹ scheint es relevant, diese Vorgeschichte protokollarischer Kontrolle im Kontext der Festschreibung finanzieller TransaktionenFootnote 9 in Erinnerung zu rufen, besonders auch mit Blick auf die zivilen Anwendungen der digitalen verhaltensbasierten Überwachung und Kontrolle, die Shoshana Zuboff in ihrer 2019 erschienenen Studie über den Überwachungskapitalismus (Zuboff 2019) ausführlich beschrieben hat.

Eine andere Form der protokollarischen Kontrolle zeigt sich in der statistischen Mustererkennung auf Basis von sogenannter künstlicher Intelligenz, deren militärische bzw. polizeiliche Anwendungen hier relevant sind. Während herkömmliche algorithmische Vorgänge grundsätzlich dem Prinzip des Protokolls als einer linear ablaufenden Handlungsvorschrift entsprechen, folgen Methoden der statistischen Mustererkennung den Prinzipien des Machine Learning, die nicht mehr nach einem einfachen linearen Schema der »protological control« beschrieben werden können, da sie (so zumindest das Versprechen) sich ohne explizite Programmierung oder menschliche Intervention selbst »trainieren« können.Footnote 10

Dadurch sind sie in der Lage, in großen Datensätzen nicht nur vordefinierte Muster zu finden, sondern auch neue Muster zu erkennen. Sie gehen über die Logik des Protokolls hinaus, auch indem sie ein neues Prinzip für den Umgang mit dem Problem der Kontingenz vorstellen, und sind gerade deswegen für unsere Fragestellung interessant. Es soll im Folgenden konkret gefragt werden, welche anderen Funktionen relevanter digitaler Kontrolltechnologien, im Hinblick auf ihre dokumentarischen und projektiv-ordnenden Funktionen (in beide Richtungen der Zeitachse), als Protokoll und protokollähnlich beschrieben werden können. Welche Funktion erfüllen diese, und warum nehmen sie diese bestimmte Form an? Mit Rouvroy und Berns soll dabei die Entwicklung von Technologien nicht als ein quasi-natürlicher Prozess betrachtet werden. Vielmehr können in den ihnen eingeschriebenen Problemstellungen stets die spezifischen politischen und ökonomischen Zielsetzungen nachgezeichnet werden, die ihre Gestaltung bedingen. Denn wie Rouvroy und Berns insistieren, keimen Technologien nicht spontan auf, sondern folgen immer einer »Teleologie der Künstlichkeit«, einer protokollähnlichen Zielsetzung, die ihnen qua Design eingeschrieben ist:

Even as machines become increasingly autonomic and ›intelligent‹, they remain dependent – be it only for their existence – on an initial design, intention, conception, script or scenario, and are from the start (whatever the shape they may actually take afterwards) embedded with their designers’ conscious or unconscious visions of the world, and projections or expectations of what the future will be or should be, how human beings ›normally‹ or ›expectedly‹ behave, etc. (Rouvroy und Berns 2013 124).

Protokollarische Kontrolle und algorithmische Mustererkennung

Ein Strategiewechsel, der zu Ende der zweiten Legislaturperiode George W. Bushs implementiert und unter Barack Obama massiv vorangetrieben wurde, erteilte den US-amerikanischen Geheimdiensten größere Befugnisse für bewaffnete Drohneneinsätze im Ausland und ermöglichte dem Militär mehr Freiheit bei der Auswahl von Zielen (vgl. Miller 2012). Zudem wurden Restriktionen gelockert und neuartige »technologische Lösungen« für die Identifizierung von Zielen zugelassen: Die eigens eingeführte und kriegsrechtlich problematische Kategorie der »signature strikes«, die sich von den ebenfalls schon problematischen »personal strikes« abgrenzen, welche noch auf bekannte und identifizierbare Individuen abzielen, stützen sich auf die automatisierte »Analyse von Lebensmustern« (»pattern of life analysis«), um verdächtige Personen und potentielle Ziele zu erkennen, »auch wenn deren Identitäten nicht bekannt sind« (Cloud 2010 [eigene Übersetzung]).Footnote 11

Dabei handelt es sich um nichts anderes als die Protokollierung von Verhaltensmustern, Bewegungs- und Kommunikationsdaten ganzer Bevölkerungen, auf deren Basis Rückschlüsse auf die Einstufung eines »legitimen Ziels« (»legitimate target«) sowie auf in der Zukunft liegende Ereignisse getroffen werden. Für die Aufgabenbeschreibung militärischer Drohnen ist die Erfassung von Signaldaten tatsächlich sehr viel zentraler als die rein visuelle Observation per Kamera, für die militärische Drohnen im populären Diskurs vor allem bekannt sind. Die breit gefächerte, unfokussierte Datenerfassung in »industriellem Maßstab« macht das Hauptmerkmal der sensorgestützten Überwachung aus, die längst nicht auf den militärischen Sektor beschränkt ist:

The goal of sensor-related collection is the capture of a comprehensive portrait of a particular population, environment, or ecosystem (broadly construed). […] The population-level portrait allows particular targets to emerge—and once they do, their activities can be situated in the context of an ever-expanding network of behaviors and the patterns these generate (Andrejevic und Burdon 2015, 23, 31).

Diese Techniken ähneln den frühen computergestützten polizeilichen Mustererkennungsverfahren wie der negativen Rasterfahndung in der BRD der 1970er Jahre (Wolf 2015, 15; Franz 2017, 118), dem in den 1980er und 1990er Jahren implementierten CompStat-System der New Yorker Polizei (Pasquinelli 2017b, 284 f.) sowie aktuellen Programmen wie PredPol, das unter anderem vom LA Police Department eingesetzt wird.Footnote 12 Das Softwaresystem Gotham des von Peter Thiel gegründeten Palantir-Konzerns wird inzwischen nicht nur von der US-amerikanischen Polizei sowie von Militärs und Geheimdiensten in aller Welt, sondern auch von der hessischen Polizei eingesetzt (vgl. Sontheimer et al. 2020).Footnote 13 Gotham sammelt unterschiedlichste Personen- und Bevölkerungsdaten und führt diese auf einem bedienerfreundlichen Interface zusammen, um kriminogene Muster und Zusammenhänge, etwa das soziale Umfeld straffälliger Personen, als Graphen sichtbar zu machen. Als besonders ›sicher‹ gilt Gotham, da es nicht nur externe Daten analysierbar und nachvollziehbar macht, sondern darüber hinaus über eine Protokollierungsfunktion verfügt, die jeden Datenabruf innerhalb des Systems speichert. Dadurch werden nicht nur die erfassten Bevölkerungsteile, sondern auch die Bediener*innen des Systems selbst überwacht und jede ihrer Handlungen, bis hin zum Streifen des Cursors der Maus über bestimmten Datensätzen, gespeichert und nachvollziehbar gemacht (vgl. Sontheimer et al. 2020). In solchen Anwendungen wird das paranoide Streben nach einer potenziell die gesamte Gesellschaft erfassenden, automatisierten protocological control erkennbar, das nicht nur das Versprechen einer technologischen Lösung für jede Form der Unwägbarkeit und Ungewissheit beinhaltet, sondern auch die Aussicht, Kontrolle über die Zukunft zu gewinnen.

Im Rahmen der Snowden-Leaks veröffentlichte geheime Dokumente des US-Geheimdienstes NSA, die im Jahr 2014 auf dem Nachrichtenportal The Intercept veröffentlicht wurden, geben Aufschluss über die militärische Anwendung der statistischen Musteranalysen (vgl. Scahill et al. 2014). Wie aus den Snowden-Files hervorgeht, machte die NSA die Massen der über Drohnensysteme abgefangenen Kommunikationsdaten mithilfe einer Machine Learning-Anwendung namens SKYNET nutzbar. In der über die Dokumente belegbaren Fehlidentifizierung eines investigativ arbeitenden Al Jazeera-Journalisten als hochrangiges Mitglied von al-Qaeda (vgl. Currier et al. 2016; Zaidan 2015) zeigt sich das Versagen des US-amerikanischen Drohnenprogramms bei der Identifizierung von »legitimate targets«. Mit Blick auf letztere wird regelmäßig behauptet, dass wichtige militärische Ziele und führende Terroristen außer Gefecht gesetzt wurden, während man in Wirklichkeit Hochzeitsgesellschaften, Reisegruppen oder Entwicklungshelfer*innen beseitigte, wie auch noch der letzte drohnengeführte Luftschlag während des Abzugs der US-Truppen aus Afghanistan belegt.Footnote 14 Beweisen solche Beispiele vor allem, dass die angeblich ›chirurgisch‹ präzise, ferngesteuerte Kriegsführung unverhältnismäßig viele zivile Opfer fordert und notorisch fehleranfällig ist (ob nun menschliche oder algorithmische Akteure hinter den Entscheidungen stehen), verdient die automatisierte Mustererkennung zur Identifizierung verdächtiger ›Ziele‹ im Kontext der Frage nach protokollarischer Kontrolle noch aus einem anderen Grund Aufmerksamkeit. Hierbei werden zunächst alle nur möglichen Daten erfasst und dann aus den Massen ungeordneter Daten mithilfe von maschinellem Lernen mit statistischen Methoden Profile vorgeblich verdächtiger Personen und Verhaltensmuster erstellt. Wie Berns und Rouvroy in Bezug auf die von Rouvroy als »autonomic computing« (Rouvroy 2011) beschriebenen Technologien betonen, geht bei diesen Methoden der Daten-Extraktion ein spezifischer Aspekt der Unvorhersehbarkeit verloren, dem sie besonderen Wert beimessen:

Indeed autonomically produced profiles render everything actual, present. They rely on digital, rather than human memory and therefore benefit of digital memories’ virtually unlimited storage capacity in which, by default, everything is recorded, even the most trivial events, our most trivial, conscious or even unconscious gestures, and nothing is ever forgotten (Rouvroy und Berns 2013, 130).

Rouvroy und Berns zufolge entsprechen diese Techniken einer »gouvernementalen Rationalität«, die bestrebt ist, jede Form der Unsicherheit zu beseitigen, indem sie Bedeutung noch aus den kleinsten, trivialsten und vergänglichsten unbewussten Regungen und Gesten zieht. Unvorhersehbarkeit und Spontanität – die Rouvroy mit Deleuze und Guattari als »virtuelle Dimensionen« menschlicher Existenz beschreibt, das Nicht-Aktualisierte, Noch-Potentielle, das für sie eine Vorbedingung politischen Handelns darstellt – sind mit der phantasmatischen Vorstellung einer von Kontingenz und Unvorhersehbarkeit befreiten, »sicheren« Welt, nicht vereinbar (Rouvroy und Berns 2013, 130).Footnote 15

Absolute Vorhersehbarkeit und die Abwesenheit von Kontingenz – die Lichtung des von Clausewitz beklagten »Nebel des Kriegs« – ist auch das ultimative und dabei in der Realität niemals einholbare Ziel der Kriegsführung. Die Vorstellung, zukünftige Ereignisse einer regelhaften Vorhersehbarkeit zu unterwerfen, entspricht einem Phantasma der Automation, das die Zukunft als etwas Plastisches begreift, das als absolut planbar und gestaltbar imaginiert wird. Dies entspricht einer Tendenz innerhalb der Kontrollzentren distanzierter Kriegsführung, wonach Steuerung als selbstreferentieller, letztlich zirkulären Prozess modelliert wird, bei dem Entscheidungen aufgrund von automatisierter Datenerfassung, -analyse und -visualisierung getroffen werden, also aufgrund der in die Systeme einprogrammierten Zielsetzungen, deren Logik sie in Konflikt zu jener Realität bringt, die unter den Visualisierungsebenen der Interfaces verborgen bleibt.

Wenn das Phantasma absoluter Kontrolle – das perfekte Protokoll – in den hier beschriebenen militärischen Anwendungen komplexer Technologien allgegenwärtig zu sein scheint, so steht es doch in bemerkenswertem Widerspruch zu den grundlegenden Funktionsprinzipien von Machine Learning. Dem Protokoll, das darauf ausgerichtet ist, Kontingenz auszuschließen,Footnote 16 entsprechen in den automatisierten Techniken der Datenanalyse die logischen Operationen der Deduktion und Induktion, bei denen die Konklusion zwingend aus den Prämissen folgt. Diese spielen sich allerdings auf einer Komplexitätsebene ab, die für den menschlichen Verstand unnachvollziehbar bleibt. Die von Machine Learning-Anwendungen statistisch induzierten Sachverhalte können darum für menschliche Anwender*innen grundsätzlich den Charakter des Neuen und Unvorhersehbaren haben, da die Herleitung zu komplex ist, um vom menschlichen Verstand in Gänze erfasst zu werden.

Automation und Kontingenz

In der jüngsten Medientheorie wird aber zudem die Möglichkeit diskutiert, ob automatisierte Verfahren wie Machine Learning prinzipiell dazu in der Lage sein können, über Deduktion und Induktion hinaus auch Hypothesen zu bilden – eine dem menschlichen Verstand selbstverständliche Tätigkeit, die, nach Charles Sanders Peirce notwendig ist, um in logischen Argumentationen neue Erkenntnisse hervorzubringen. Für diesen Vorgang prägte Peirce den Begriff der Abduktion:

Abduction is the process of forming an explanatory hypothesis. It is the only logical operation which introduces any new idea; for induction does nothing but determine a value, and deduction merely evolves the necessary consequences of a pure hypothesis.

Deduction proves that something must be; Induction shows that something actually is operative; Abduction merely suggests that something may be.

Its only justification is that from its suggestion deduction can draw a prediction which can be tested by induction, and that, if we are ever to learn anything or to understand phenomena at all, it must be by abduction that this is to be brought about (Peirce 1935, 106, § 5.172).

Peirce beschreibt mit der Abduktion die Eigenschaft des (menschlichen) Verstands, nicht nur schlussfolgernd, sondern »ampliativ« vorzugehen, das heißt, das schon in den Prämissen existierende Wissen nicht nur zu bestätigen, sondern zu erweitern.

Die Philosophin Luciana Parisi schlägt vor,Footnote 17 Machine Learning-Anwendungen mit der von Peirce als Abduktion beschriebenen, synthetisch-ampliativen Form der Hypothesenbildung zu erklären (Parisi 2019).Footnote 18 So genannte »künstliche Intelligenz« sei demnach in der Lage, Kontingenz in die Bildung eigener Hypothesen einzubeziehen und diese mit den Mitteln von Induktion und Deduktion zu überprüfen. Mit Pedro Domingos beschreibt Parisi maschinelles Lernen als »automation of automation« (Domingos 2015, 9). Jedoch anders als Domingos, der auch noch die Fähigkeit der »knowledge discovery« auf die komplexe Verbindung von (nicht-ampliativen) Schlussfolgerungen auf Basis großer Datenmengen zurückführt, was bei ihm »making inferences from data« heißt (Domingos 2015, xi), spricht Parisi dem maschinellen Lernen auf Basis von neuronalen Netzwerken auch die Fähigkeit zum »abductive reasoning« zu. Über die Erfassung von Daten würden »soziale Praktiken« und »soziales Denken« in die Prozesse der Computation inkorporiert (Parisi 2019, 103, 106). Damit visiert Parisi nicht weniger als eine neue »Sozialität der Logik« (Parisi 2019, 112, 114) und die Automation des von Marx beschriebenen »general intellect«Footnote 19 als Gesamtheit des »allgemeine[n] gesellschaftliche[n] Wissen[s]« (Marx 2014, 69) an.

Ob Maschinen tatsächlich prinzipiell dazu in der Lage sein könnten, Abduktionen zu automatisieren und originäre Hypothesen aufzustellen, und welche Rolle die in den maschinell erfassten Bevölkerungsdaten aufscheinende Sozialität dabei spielen könnte, ist nicht nur ein aktuelles Problem der Technikphilosophie. Dass sich diese Frage gerade heute stellt, deutet jedoch auch darauf hin, dass der derzeitige Stand der Machine Learning-Anwendungen einen neuen Schwellenmoment markiert. Dieser ist mit dem Paradigmenwechsel vergleichbar, der in den 1970er Jahren durch den ersten mithilfe des Computers geführten mathematischen Beweis eingeleitet wurde. Damals musste, wie Donald MacKenzie hervorgehoben hat, die Definition dessen, was als »mathematischer Beweis« gelten kann, erweitert werden, von einem für Menschen nachvollziehbar nachrechenbaren, mathematischen Beweis zu einem nur vom Computer berechenbaren, nicht mit menschlichen Fähigkeiten überprüfbaren Beweis. Dieser stehe, wie kontrovers diskutiert wurde, empirischen bzw. experimentellen Methoden näher als mathematischen. Wurde schon in den 70ern diese computergestützte mathematische Beweisführung als »unsurveyable« [»nicht-überblickbar«] bezeichnet (MacKenzie 1999), so gilt dies umso mehr für Machine Learning-Anwendungen. Auch wenn diese nicht zur Abduktion, bzw. Hypothesenbildung in der Lage sein sollten und vielmehr, wie Matteo Pasquinelli einwendet, auf die Funktion der »Mustererkennung mithilfe statistischer Induktion« (Pasquinelli 2017a) reduziert bleiben, erreichen sie dabei ein Komplexitätslevel, auf dem induktive Schlüsse wie Abduktionen aussehen. Es handelt sich dabei also um eine hochkomplexe Form der Programmierung, die scheinbar dazu in der Lage ist, unvorhergesehene, nichtprogrammierte und nicht im Protokoll enthaltene Hypothesen hervorzubringen und so aus dem Unvorhersehbaren buchstäblich Kapital zu schlagen.

In Parisis Beschreibung sind Kontingenz und Unvorhersehbarkeit – im Gegensatz zu herkömmlichen Prinzipien der protokollarischen Kontrolle, die den Zufall zum Feind erklären – so auch nicht mehr als Bedrohung zu werten, vielmehr wird Kontingenz hier gerade zur Voraussetzung für die Generierung neuer Erkenntnisse:

While capital’s investment in the automation of cognition has led to the synthesis of logic and calculation, computational processing has rather exposed the limits of deduction and statistics and the central role of randomness (or infinities, or contingencies, or non-inferential materialities) within this synthesis (Parisi 2019, 106).

Parisi kann an dieser Stelle nicht entgehen, welchen Nutzen gerade die Automation der Abduktion für die Techniken der Daten-Extraktion und -Analyse sowohl des »kognitiven Kapitals« als auch der »digitalen Gouvernementalität« haben würde. Dennoch gelingt es ihr, darin eine Infragestellung der »techno-kapitalistischen Subsumtion maschinellen Denkens« und der »Dominanz der datengesteuerten Ordnung« (Parisi 2019, 115) auszumachen. Es scheint jedoch naheliegend, dass es sich bei der von Parisi vorgestellten Instrumentalisierung der Kontingenz durch komplexe Computation um eine Optimierung des Prinzips der protokollarischen Kontrolle handeln würde – ein Phantasma der Automation, das danach strebt, über das Protokoll hinaus, noch das nicht im Protokoll Enthaltene unter seine Kontrolle zu bringen. Wie Parisi gemeinsam mit Antonia Majaca an anderer Stelle schreibt, deuten die zeitgenössischen Methoden der »predictive governmentality« auf eine »Synthese von Empirismus und Statistik«:

The statistical ›qualculation‹ subtending the infrastructure of data positivism and predictive governmentality implies the triumph of an entirely new kind of empiricism in which data is ›liberated‹ from the static condition of the given. Data is now stretched to embrace potentiality, indeterminacy, and contingency. The new synthesis of empiricism and statistics includes the indeterminacies of information as a potential source of the unexpected. In other words, the relentless recalculations of data guarantee the possibility of discovering something new (Majaca und Parisi 2016, 4).

Diese Art der »Entdeckung von Neuem« muss jedoch nicht als Hypothesenbildung, beziehungsweise im Sinne der logischen Operation einer Peirce’schen Abduktion beschrieben werden. Sie entspricht vielmehr dem traditionellen kybernetischen Prinzip der Rekursivität, das über Feedback stets Neues in die Entscheidungsschleifen zu inkorporieren in der Lage ist. Denn die Einbeziehung kontingenter Ereignisse macht das zentrale Funktionsprinzip kybernetischer Kontrolle aus, die nicht starr und linear, sondern reflexiv vorgeht. In diesem Sinne formuliert auch Yuk Hui in seinen philosophischen Überlegungen zu Recursivity and Contingency, dass die durch die Rückkoppelung hervorgebrachte Realität stets über ihre eigene Logik hinaus geht: »the reality produced by feedback always exceeds its logic, since it also exteriorizes, and it is through exteriorization that another loop is created« (Hui 2019, 143). Dies trifft auf die massenhafte automatisierte statistisch-prädiktive Auswertung von Kommunikationsdaten zu, wo mithilfe von Machine Learning neue Verhaltensmuster erkannt werden, die nicht als ›Hypothesen‹ schon in den Suchanfragen enthalten waren. Hier verschmelzen die drei Funktionen des Protokolls – die nachträgliche Dokumentation des Gegebenen, die Projektion des Zukünftigen und die aktuelle Entscheidungsgrundlage – zu einer einzigen Funktion eines adaptiven Protokolls.

Determiniertheit und Offenheit, Kontingenz und Kontrolle, stehen sich in diesem Verständnis nicht in einem dialektischen Verhältnis gegenüber, wie es noch Galloway in seinen Thesen zu protocols formuliert hatte. Die pan-protokollarische Kontrolle löst diese Gegensätze auf, indem gerade das kontingente Ereignis zur Optimierung der Kontrollvorgänge beiträgt und die Ergebnisoffenheit gleichfalls in die Determiniertheit eingeschrieben scheint. Sowohl Parisi und Majaca als auch Hui verweisen jedoch auf die Möglichkeit von Zuständen des ›Unberechenbaren‹, die ganz außerhalb der Logik des Feedbacks stehen. Wenn erstere programmatisch zur Formierung »unberechenbarer Subjekte« (»unpredictable subjects«, Majaca und Parisi 2016, 4) aufrufen, die in der Lage sein sollen, der automatisierten »predictive gouvernementality« zu entgehen, lokalisiert Hui diese algorithmischen Ausnahmesituationen in der beispiellosen Katastrophe:

Regarding incomputability, we may want to consider cases in which contingencies cannot be absorbed by reflections – for example, a great cosmic catastrophe – or cases in which the exteriorized, which exceeds the logic of feedback, produces a contingency that cannot be made use of […], which is an algorithmic catastrophe. Failures and catastrophes direct us to a broader reality, which the previous system cannot integrate, and it enforces the discovery of another system (Hui 2019, 143).

In Huis Einschätzung, nach der selbst eine Katastrophe »kosmischen« Ausmaßes am Ende zur Entdeckung eines »anderen Systems« führe, klingen noch die Reste eines kybernetischen Optimismus nach, der auf eine automatisch ablaufende Selbst-Optimierung der Prozesse setzt. Aber im Nichtkomputierbaren, das in die Protokolle der prädiktiven und präskriptiven Kontrolle nicht integriert werden kann, scheint stets auch die Möglichkeit einer ultimativen Katastrophe auf, die über die Optimierungsschleifen hinaus geht und in der Selbstzerstörung des »Systems« mündet.