Schlüsselwörter

1 „Make nothing happen“ – Leben in einer Welt ohne Angst

Als öffentlicher SoziologeFootnote 1 beschäftige ich mich regelmäßig mit schleichenden Wandel. In diesem Fall stelle ich ein Beispiel für das Zusammenspiel nicht-menschlicher und menschlicher Intelligenz an der Schnittstelle zwischen natürlicher, sozialer, metrischer und technisch automatisierter Wahrnehmung der Umwelt im Kontext öffentlicher Sicherheit vor.

Da sich mein Beitrag im Kern mit einem Fallbeispiel aus England befasst, beginne ich mit einigen Gedichtzeilen des Lyrikers T. S. Eliot (1819–1965): Where is the life we have lost in living? Where is the wisdom, we have lost in knowledge? Where is the knowledge we have lost in information? (vgl.: https://news.ycombinator.com/item?id=3144409, Abgerufen: 12.03.2019). Diese Zeilen sind für mich eine nahezu perfekte Anspielung auf das Zeitalter der Digitalisierung. Insbesondere die letzte Zeile mahnt dazu, Handeln denkend zu verzögern und zu fragen, ob die vielen Versprechungen über (kollektive) Segnungen der digitalen Transformation nicht vielleicht auch mit (individuellen) Verlusten an Lebensdienlichkeit (Konvivialität) einhergehen. Oder anders: Gibt es neben den Gewinnern vielleicht auch Verlierer, z. B. Menschen, die aufgrund von (selbst gewählter) Datensparsamkeit über weniger Chancen oder Ressourcen verfügen?

Vor diesem Hintergrund befasse ich mich hier mit der Frage, ob und wie wir uns an die Durchdringung von künstlich intelligenten Technologien im Alltag gewöhnen. Als Fallbeispiel dienen zeitgenössische Maßnahmen zur Steigerung der öffentlichen Sicherheit in Großbritannien – wie ich diese als Soziologe im Außendienst während eines Forschungsaufenthalts in England (2018/2019) erlebe konnte. An zahlreichen öffentlichen Orten in England finden sich Plakate mit der Aufschrift Make nothing happen. If you see or hear something that could be terrorist related, act on your instincts and call the police. Hier wird nicht nur an die Kollaboration der BürgerInnen appelliert, sondern zur Legitimation gleich auch an deren Instinkte. Jegliches (diffamierendes) Anzeigen von Verdächtigen wird damit naturalisiert, zögern umgekehrt kriminalisiert. Dies ergibt sich einerseits aus der reinen Quantität der Plakate im öffentlichen Raum, andererseits auch aus der rhetorischen Aufladung, die die Last der Verantwortung in direkter Ansprache auf das Individuum verlagert.

All das setzt voraus, dass es wahrnehmbare Aspekte gibt, die einen Unterschied zwischen Normalität und Nicht-Normalität machen, die angezeigt werden können. Während die Feststellung von Abweichungen (Pathologien) im Kontext von Medizin, Psychotherapie oder Pädagogik notwendig, funktional und zielführend ist, ergibt sich im öffentlichen Raum eine andere Ausgangslage.

Im Alltag kennen wir den ersten Blick, auf dem basale soziale Kategorisierungen wie Sympathie oder Antipathie beruhen. Diese Form der Situationsdefinition leistet eine willkommene Komplexitätsreduktion. Positive Sichtweisen auf Normabweichler sind dabei je nach Kontext durchaus möglich. Geht es jedoch um Sicherheit im öffentlichen Raum verändert sich – so die hier vertretende These – die Perspektive grundlegend. Die anhand wahrnehmbarer Aspekte vorgenommenen, institutionalisierten und zunehmend standardisierten Bewertungen entscheiden über grundlegende Kategorisierungen in Gefährder oder Nicht-Gefährder. Genau an dieser Schnittstelle verbinden sich zunehmend menschliche und nicht-menschliche Intelligenzen, also sozial und kulturell erlernte Formen der Differenzfeststellung mit maschineller Mustererkennung durch Künstliche Intelligenz (KI).

Sicherheit im öffentlichen Raum wird immer häufiger unter Rückgriff auf intelligente (smarte) Technologien sichergestellt.Footnote 2 Technologien, die im Rahmen dieses Beitrages zur Diskussion stehen, stellen extrem viele Informationen zur Verfügung oder analysieren extrem viele Informationen.Footnote 3 Gleichzeitig zerstören sie Vertrauen in andere im öffentlichen Raum. Sicherheit wird auf dieser Basis lediglich suggeriert. Was würde T.S. Eliot dazu sagen – welches Wissen geht gegenwärtig in der „Flut der Informationen“ verloren? Meine These besteht darin, dass im Kern das Wissen um den humanistischen Blick verloren geht. Einen Blick, den der Soziologie John O’Neill mit circumstantial love umschreibt, als vertrauende Einbettung in die Welt (vgl.: O’Neill 1975).

Aber Menschen sind nicht aus Glas. Individuen lassen sich nicht sortieren. Indem Algorithmen Menschen dennoch transparent machenFootnote 4 und sortieren, werden schleichend Grundannahmen über Mensch und Welt verändert. Letztlich wird so die Neuorganisation des Sozialen vorbereitet. Sie mündet in einen neuen Gesellschaftsvertrag, dem wir alle bereits mehr oder weniger bewusst zugestimmt haben. In diesem Beitrag versuche ich daher anhand eines Fallbeispiels zu zeigen, wie sich diese Einwilligung schleichend vollzieht und welche Folgen damit verbunden sein können.

2 Schleichende Veränderungen in einer beschleunigten Welt

Bevor ich untersuche, wie Menschen an das neue Zusammenspiel von technologischem und sozialem Wandel durch neue Schnittstellen (Interfaces) zwischen menschlicher und künstlicher Intelligenz gewöhnt werden und welche Folgen dies für das Zusammenwirken menschlicher und nicht-menschlicher Intelligenz hat, gehe ich knapp auf Shifting Baselines ein. In Abgrenzung zu anderen KonzeptenFootnote 5 ist das Modell der Shifting Baselines immer dann hilfreich, wenn es um das Verständnis langsamer Prozesse des Wandels geht.Footnote 6 Verbunden damit ist daher eine radikale Gegenperspektive auf digitale Transformation. Ich gehe davon aus, dass Digitalisierung zu zahlreichen schleichenden Entgrenzungen (z. B. Norm- und Wertewandel, Veränderungen von Alltagspraktiken) führt, die metaphorisch als ‚humanitäre Entkernung des Menschen‘ bezeichnet werden können.Footnote 7 Das aus der Umweltpsychologie stammende Konzept der Shifting Baselines (vgl. Rost 2014). Ermöglicht es, in Distanz zu Querschnitts- und Kurzzeitbetrachtungen des digitalen Wandels zu treten und eine Verzeitlichungsperspektive (vgl. Schneidewind 2009; Welzer 2009) in die Debatte einzuführen und blinde Flecken sichtbar zu machen. Denn die digitale Revolution kann zwar oberflächlich betrachtet disruptiv sein, d. h. schnelle und tief greifende Veränderungen mit sich bringen. Gesellschaftliche Wirklichkeit hat jedoch immer einen prozessualen Charakter. Durch die Betonung von Disruptionen im Kontext der Digitalisierung wird dies jedoch verdeckt. Viel wichtiger sind schleichende Veränderungen, die bislang nicht genügend in den Blick genommen werden. Das Problematische an diesen Veränderungen besteht darin, dass sie weder wahrgenommen noch öffentlich diskutiert werden. Wenn Shifting Baselines als tiefer liegende gemeinsame Erfahrung aufgefasst werden, dann wirft schleichender Wandel gerade im Wechselspiel zwischen natürlicher und künstlicher Intelligenz – bzw. an den neu entstehenden Schnittstellen – prinzipiell neue Fragen auf und erfordert eine seismographische Beobachtung des Entstehenden. Was sind nun Shifting Baselines?

Zunächst sind Baselines kulturell gelernte und kollektiv ausgeprägte Referenzrahmen für die eigene Wahrnehmung und das eigene Handeln (oder Unterlassen). Sie sind eine Reaktion auf das Bedürfnis nach Konformität und dienen daher der kollektiven Stabilisierung. Baselines werden immer innerhalb von sozialen Bezugsgruppen ausgehandelt, gelernt und verstärkt. Für diese Bezugsgruppen stellen sie dann mehr oder weniger (unhinterfragte) Handlungsmodelle und Überzeugungen zur Verfügung. Baselines sind also etablierte, verlässliche und zugleich verbindliche Modelle, nach denen Menschen handeln (oder Handeln unterlassen) und nach denen sie entscheiden, was als normal zu gelten hat (und was nicht). Im öffentlichen Raum sind derartige Normalitätsdefinitionen alltäglich.

Unter Shifting Baselines wird folglich Veränderung (bzw. im Extremfall Verlust) eines Referenzrahmes für eigene Handlungen und situatives Problembewusstsein verstanden. Damit ist das Phänomen verbunden, dass sich der kulturelle Orientierungsrahmen (im Englischen: die baseline) über lange Zeiträume und meist unterhalb der Wahrnehmungsschwelle in vielen kleinen Schritten verändert. Baselines verändern sich ständig, weil jede Definition gesellschaftlicher Ziele zwangsläufig auch eine Veränderung des Referenzrahmens und der Auffassungen von Normalität mit sich bringt (vgl.: Link 2013). Indem eine stetige Wahrnehmungsanpassung an gesellschaftliche Umstände und Rahmenbedingungen vorgenommen wird, haben gleitende Referenzrahmen eine soziale Vereinfachungs- und Entlastungsfunktion. Das damit verbundene Vermeidungsverhalten wirkt sich in der Summe entlastend aus. „Provokant formuliert beschreiben Shifting Baselines die herausragende Fähigkeit von Menschen, sich in sozialen Kontexten immer wieder selbst zu täuschen“, so Uwe Schneidewind, „und sich damit vollziehende z. T. dramatische Umweltveränderungen erträglich zu gestalten.“ (vgl.: Schneidewind 2009, S. 9). Wenn sich aber die Kultur einer Gesellschaft an ihren Werten erkennen lässt, dann erweisen sich schleichende Veränderungen als problematisch, wenn nicht mehr sichtbar bzw. nachvollziehbar ist, wie sich Werte verändern. Das liegt auch darin begründet, dass Veränderungen erst dann sichtbar werden, wenn die Veränderungsprozesse irreversibel sind – weil dann die Folgen sowie Folgekosten sichtbar werden. Gesellschaftliche Veränderungen lassen sich nicht einfach auf einen Ausgangszustand zurücksetzen. Gesellschaftlicher Wandel hat keine Reset-Taste. Gleichwohl bedeutet die Tatsache, dass schleichende Veränderungen nicht beobachtbar sind, nicht, dass sie nicht stattfinden.

Zwei der wichtigsten Erklärungsansätze für schleichenden Wandel lassen sich gut am Beispiel der digitalen Transformation beobachten. Der Ausgangspunkt für Shifting Baselines ist erstens eine Sachzwanglogik. In deren Kontext wird zunächst Alternativlosigkeit suggeriert. Dies kommt etwa in Aussagen prominenter Politiker zum Ausdruck. „Unser Verhältnis zu Daten ist in vielen Fällen zu stark vom Schutzgedanken geprägt“, so die Bundeskanzlerin Angela Merkel bei der Eröffnung des Bosch-Campus’ in Baden-Württemberg, „und vielleicht noch nicht ausreichend von dem Gedanken, dass man mithilfe von Daten interessante Produkte entwickeln kann“ (vgl.: Selke 2015c). Hier kommt jene Sachzwanglogik der digitalen Transformation zum Ausdruck. Der Einführung technologischer Entwicklungen wird Vorrang eingeräumt. Und zwar auch dann, wenn dadurch zivilisatorischen Errungenschaften (Konsens über Werte) gefährdet werden. Die Praxis eilt der Reflexion voraus. Dies gilt gerade dann, wenn Vergleiche mit den Entwicklungen anderer Nationen gezogen und geopolitische Kalküle in den Mittelpunkt gerückt werden. Sachzwänge sind jedoch bei näherem Hinsehen soziale Zwänge.Footnote 8 Zweitens wird am Beispiel der digitalen Transformation prototypisch deutlich, dass es zu einer Stabilisierung von Ansichten, Deutungsmustern und Wahrheitsansprüchen innerhalb von Bezugsgruppen kommt. In seinem Manifest The Data-Driven Life kritisiert z. B. Gerry Wolf (einer der Gründer der weltweiten Selbstvermessungsszene Quantified SelfFootnote 9) die subjektiven Verzerrungen und blinde Flecken menschlicher Selbstwahrnehmung. Seine Forderung lautet: „We need the help of machines“ (vgl.: Wolf 2010, S.). In marktförmig organisierten Gesellschaften brauchen Karriere und Erfolg ‚Anpreisung’, wobei das Wissen um das eigene ‚Ich‘ immer mehr zur Pflichtübung wird. Selbstwissen und Selbstexperitisierung werden als notwendige Grundlage für Erfolg sowie ein „perfektes“ oder „optimiertes“ Leben angesehen. Kevin Kelly (der zweite Gründer von Quantified Self) ist zugleich Ideengeber der neoliberalen Ökonomie. Mit seinem Buch Neue Regeln für die New Economy legte er Prinzipien fest, die gegenwärtig im Big Data Zeitalter in der Praxis aufgehen. Der bemerkenswerte erste Satz darin lautet: „No one can escape the transforming fire of machines. Technology, which one progressed at the periphery of culture, now engulfs our minds as well as our lives. Is it any wonder that technology triggers such intense fascination, fear, and rage“ (vgl.: Kelly 1999, S. 19). Bei Gerry Wolf ist die helfende Maschine der vermessende Algorithmus. In Abgrenzung dazu versteht Kelly darunter den transformierenden Markt. Algorithmus und Markt sind wie füreinander geschaffen. Die Kombination sozialer und technologischer Programme bringt Menschen dazu, das eigene Leben marktfundamentalistisch zu organisieren. Im Folgenden beschäftige ich mich anhand eines Fallbeispiels mit dem langsamen Eindringen dieser Technologien und der damit verbundenen Denkweisen und Haltungen in unseren Alltag.

3 Öffentliche Sicherheit und die Gewöhnung an Künstliche Intelligenz

Soziologie im Außendienst bedeutet meist geduldige Beobachtung und flexible Begleitung schleichender gesellschaftlicher Veränderungen über einen längeren Zeitraum. Dabei besteht die Haltung öffentlicher Soziologie in einem vorgeschalteten Blick. Es beginnt mit dem Blick eines Menschen auf Menschen, dann erst folgt der Blick des Wissenschaftlers. Der humanistische Blick ist dem wissenschaftlichen Blick vorgeschaltet.Footnote 10 Empathisches Verständnis kommt vor dem Wunsch nach rationalen Erklärungen. Im Außendienst während eines Freisemesters in England befasste ich mich mit dem Thema der öffentlichen Sicherheit. Sicherheit ist ein durchaus elementares Thema: Menschen mögen keine Unsicherheit. Deshalb suchen sie immer wieder nach einfachen Antworten auf komplexe Phänomene. Eine wirksame Strategie besteht in der Kategorisierung von Situationen, Menschen und Verhaltensweisen. Das Spektrum der Anwendungen, die technische Antworten auf diese Sehnsucht nach Kategorisierung geben, ist breit. Die drei folgenden Beispiele zeigen, welche Entwicklungen es im Zusammenspiel nicht-menschlicher und menschlicher Intelligenz in Zukunft geben wird.

Eine halbe Millionen Bürger in Rio de Janeiro hat inzwischen die App „Onde Tem Tirtéio“ heruntergeladen, die auf einer Karte anzeigt, wo in der Stadt gerade eine Schießerei stattfindet (https://www.ondetemtiroteio.com.br). Gewalt gehörte in Rio schon immer zu den grundlegenden Alltagserfahrungen, mit der App kann diese nun aber in Echtzeit lokalisiert werden.

Etwas komplexer sind die folgenden beiden Beispiele, bei denen explizit KI zum Einsatz kommt. So wird Big Data als Instrument der Forensik eingesetzt, wenn es (prädiktiv) darum geht, die Rückfallquote von Straftätern (z. B. Mördern oder Vergewaltigern) abzuschätzen. Verhaltensvorhersagen mittels KI sind eines der großen Versprechen der Branche, wenngleich klinische Experten eher skeptisch sind. „Das Verhalten eines einzelnen Menschen mit IT vorherzusagen ist ein totalitärer Allmachtstraum“, so der forensische Psychiater Hans-Ludwig Kröber, „der entlassene Straftäter ist kein programmierter Automat, er trifft immer eigene Entscheidungen, und obendrein gibt es unvorhersehbare Zufälle.“ (Kröber 2019, in Die Zeit, S. 14).

Beim Robo-Recruiting, also dem Einsatz intelligenter Roboter zur Rekrutierung neuer Mitarbeiter, wird KI bereits im Bereich Human Resources für Vorstellungsgespräche eingesetzt (Rudzio 2018). Auch hier verbinden sich menschliche und nicht-menschliche Intelligenz zu einer neuen Synthese, wenngleich Kritiker befürchten, dass KI die Erfahrungen und Intuition menschlicher Experten restlos ersetzen wird. Damit wird ein Verhältnis auf den Kopf gestellt, das im Filmklassiker Blade Runner zeitlos verewigt wurde – einem Film, der übrigens in einer Zukunft spielt, die auf das Jahr 2019 datiert ist. In einer Szene des Films versucht ein menschlicher Experte durch Fragen herauszufinden, ob sein Gegenüber ein Mensch oder nur eine menschenähnliche Maschine ist – eine Art Turing-Test, die von einem Menschen durchgeführt wird.Footnote 11 Mittlerweile hat sich die Beobachtungsperspektive umgedreht: Algorithmen beobachten Menschen. Mittels KI werden Stimme, Wortwahl und Betonung analysiert, um auf das Persönlichkeitsprofil eines menschlichen Bewerbers zu schließen. Programme wie HireVue (https://www.hirevue.com) sind eine Kombination aus automatisiertem Assessmentcenter und Lügendetektor. Die dabei genutzte Software verspricht totale Objektivität. Indem neuronale Netze pro Sprachprobe eine halbe Millionen Datenpunkten auswerten, gleichen sich die technologische Black Box und die menschliche Intuition immerhin einander an: Beides ist schwer durchschaubar und erscheint zuweilen irrational.

Mit dieser Form der Prädiktion von Zukunft und der Angleichung von Perspektiven beschäftige ich mich nun im folgenden Beispiel, bei dem die Steigerung der öffentlichen Sicherheit in England und die dabei eingesetzten Maßnahmen geht. Auf dieses Thema kam ich (unfreiwillig) als Reisender. Wer gegenwärtig in England reist, hört in Zügen ungefähr alle 20 min die Durchsage If you see it, say it, and we’ll sort it. Ähnliche Aufforderungen finden sich an Flughäfen oder anderen öffentlichen Einrichtungen in der Form von Plakaten. Nach ein paar Monaten stellte ich mir die Frage, was eigentlich mit einem Menschen passiert, der immer wieder exakt diese Durchsage hört. Was verändert sich dabei? Und was hat das mit KI zu tun? Ich möchte einige Prozessschritte beschreiben, die idealtypisch zeigen, wie sich Shifting Baselines in der Praxis entwickeln und verändern und wie dabei am Ende KI ins Spiel kommen kann.

Schritt 1: Selbstverantwortung und Selbstexpertisierung

Auf der ersten Stufe findet eine Gewöhnung an eine neue Kultur der Selbstverantwortung (Schlagwort im Fachdiskurs: Responsibilisierung) und Selbstexperitisierung im Kontext ferngesteuerten Regierens statt. Es ist hier nicht möglich, auf alle Teilaspekte des Sozialstaats im Wandel einzugehen, ein Aspekt aber soll herausgehoben werden. Mit der Einführung eines neuen Regierungsmodells hat sich in modernen westlichen (und damit hoch-technologisierten) Staaten die Rolle der BürgerInnen fundamental verändert. Barbara Cruikshanks Buch The Will to Empower ist dabei der konzeptionelle Referenzpunkt für den Ansatz des ferngesteuerten Regierens („governing at a distance“) (Cruikshanks 1999). Dieser Ansatz kann wie folgt beschrieben werden: „Instead of government regulating a population from above and through rewards and sanctions, governance entailed mobilising the agency and capacities of individuals so that they themselves actively contributed, not necessarily consciously, to the government’s vision of the social order.“ (Shore und Wright 2018, S. 16). Die Mobilisierung von BürgerInnen findet sich heute in vielen Bereichen wieder, sei es als Verantwortungsübernahme des vorausschauend für sich selbst sorgenden Bürgers (präventives Selbst) im Gesundheitswesen (vgl.: Lengwiler und Madarász 2010), sei es in der Form von Selbstexpertisierung der LaienFootnote 12 oder in Form zahlreicher Aktivierungslogiken des sich neu erfindenden Sozialstaats (vgl.: Lessenich 2008). Der Wille zur Selbstermächtigung wurde im Kontext dieser Entwicklung immer selbstverständlicher, bei der sich Staaten bzw. Regierungen in vielen Lebensbereichen aus der Verantwortung (z. B. für Daseinsfürsorge) zurückziehen und die dabei entstehende Lücken durch Strategien der Selbstverantwortung geschlossen werden. Kurz: Regierung wird zu Selbstregierung. Dabei wird der Tod (vgl.: Rose 2004) bzw. die Ökonomisierung (vgl. Bröckling et al. 2000) des Sozialen billigend in Kauf genommen, weil Selbstdisziplinierungstechniken wirkungsvoller als Disziplinierungstechniken sind. Die Aufforderung, selbst Verantwortung zu übernehmen, kann als sanfte Form der Menschenregierungskünste (Bröckling 2017) angesehen werden oder als gesellschaftssanitäres Projekt (Schulz und Wambach 1983), bei dem statt auf repressive Kontrolle von oben auf freiwillige Mitwirkung von unten gesetzt wird.

Zurück zum Beispiel aus England. Der Wille zur Selbstermächtigung kommt in der positiven Attribuierung der Dauerdurchsage: If you see it, say it, and we’ll sort it deutlich zum Ausdruck. Die Wörter if und it suggerieren, dass es um Konkretes geht, das vorhanden oder eben nicht vorhanden ist. Um das Vorhandensein festzustellen, ist Aufmerksamkeit und eine bestimmte Fähigkeit notwendig. Weiterhin ist sehen (if you see it …) ein Verb, das einerseits eine visuelle Denotation, andererseits eine kognitive Konnotation mit sich trägt. Sehen bedeutet immer auch Erkennen. Erkenntnisse zu gewinnen, ist ebenfalls eindeutig positiv besetzt. Weiterhin ist sagen (say it …) ein Verb, dass sich auf einen Akt der Kommunikation bezieht. Kommunizieren, sich mitteilen, eine Information mit anderen teilen – all das sind ebenfalls positiv besetzte Alltagskompetenzen. Und schließlich bedeutet sortieren (…and we’ll sort it) einerseits Klassifikation, andererseits aber auch sich kümmern. Diese mitschwingende Bedeutung von kümmern (care) ist ebenfalls positiv besetzt. Auf dieser ersten Stufe werden also zugfahrende Reisende durch eine Dauerdurchsage, die aus positiv besetzten Sprachmosaiken besteht, an ihre Rolle als aktive und verantwortliche BürgerInnen erinnert – genau so, wie es in The Will to Empower vorgedacht worden war.

Schritt 2: Steigerung zu einer Suggestivwirkung

Auf der (idealtypisch gedachten) zweiten Stufe erfolgt dann durch ständige Wiederholung und Bezugnahme eine Steigerung dieser Positivaussage zu einer Suggestivwirkung. Hypnotische Redundanz ist dabei lediglich ein Euphemismus für die akustische Dauerberieselung, der nur durch die Nutzung von Kopfhörern zu entkommen ist – was übrigens einen aufmerksamkeitsminimierenden Effekt hat und damit eher zum Gegenteil dessen führt, was im Kontext des ferngesteuerten Regierens eigentlich gewollt ist. Trotz möglicher Abwendung von der Durchsage durch persönliche subversive Strategien erfolgt letztlich eine Wirkungssteigerung. Die Tatsache der ständigen Wiederholung suggeriert, dass es immer und überall etwas zu sehen gibt. Mehr noch: Etwas könnte übersehen werden. Hieraus ergibt sich die Notwendigkeit, die eigene Umgebung (also mindestens das eigene Zugabteil) aufmerksam zu observieren. Suggeriert wird aber auch, dass wir (als Menschen) Hilfe benötigen, um nichts zu übersehen und im besten Fall ein Ereignis vorherzusehen, das vermieden werden muss. Die Durchsage: If you see it, say it, and we’ll sort it, ist also auch eine Mahnung. Sie mahnt an, dass es zur Aufrechterhaltung der Sicherheit notwendig ist, in die Zukunft zu sehen. Und sie mahnt an, dass wir nur dann vor Übel geschützt werden, wenn wir Hilfe annehmen. Eine Möglichkeit, Hilfe anzunehmen, ist die Kooperation mit intelligenten Maschinen. Das ist die letzte Suggestion, die ebenfalls mitschwingt. Nehmen wir diese Hilfe an oder delegieren wir sogar die Aufgabe des Observierens an unseren nicht-menschlichen Kooperationspartner, werden wir entlastet. Nehmen wir die Hilfe von Maschinen an, so die Suggestion, wird unser Leben einfacher.

Schritt 3: Verallgemeinerung und implizite Ideologisierung

Auf der dritten Stufe dieses Prozesses erfolgt die Verallgemeinerung der gerade skizzierten Wirkungskette und damit eine implizite Ideologisierung. „Wenn sich alle Seiten im selben Produkt erkennen“, so der Philosoph Slavoj Žižek, „können wir sicher sein, dass dieses Produkt Ideologie in Reinform verkörpert.“ (Žižek 2018). In der Nomenklatur Žižeks ist die digitale Transformation ein Ereignis, „eine Veränderung des Rahmens, durch den wir die Welt wahrnehmen und uns in ihr bewegen.“ (Žižek 2016). Eine Definition die stark an die Idee der Shifting Baselines erinnert. Ideologiebestimmtes Handeln wurde vom Wissenssoziologen Karl Mannheim von utopischem Handeln abgegrenzt (vgl.: Mannheim 2015). Ideologien haben kein sprengendes oder umwälzendes Potenzial wie Utopien, sie gehen nicht über eine gegebene Lebensordnung hinaus, sondern täuschen im Gegenteil ein Wunschbild vor. Sie reproduzieren Standardwelten, zu denen es scheinbar keine Alternativen gibt. „Nur in der Utopie und in der Revolution steckt wahres Leben“ (vgl.: Mannheim 2015, S. 173), so Mannheim, aber eine Ideologie ist eher eine Täuschung über das wahre Leben. Im Fallbeispiel der Botschaft: If you see it, say it, and we’ll sort it besteht diese Täuschung in der Behauptung, dass Daten zu sammeln, zu prozessieren und zu analysieren eine gute Grundlage für mehr Sicherheit darstellt. Diese Form der Wirkungsunterstellung findet schleichend immer breitere Akzeptanz. Damit aber wird die nächste Stufe vorbereitet.

Schritt 4: Assistive Kolonialisierung

In der vierten Stufe wird die Wirkungsmacht (agency) im Kontext eines immer wieder erneuerten Entlastungsversprechens zunehmend auf unsichtbare Kräfte übertragen. Dazu braucht es keine explizite Erwähnung. Gerade weil sich in der Botschaft: If you see it, say it, and we’ll sort it, keinerlei explizite Referenz auf Maschinenintelligenz findet, kann die Übertragung dennoch gut in der Praxis funktionieren. Die Durchsage wird ständig wiederholt, damit wird unterstellt, dass menschliche Intelligenz auf Dauer nicht ausreichen wird, um die Wirkung (Sicherheit) zu garantieren. Für die zugfahrenden Menschen bleibt zudem unsichtbar, ob und wo je eine Wirkung auftritt. Wenn aber nicht klar ist, wo und wie die eigentliche Wirkung erzeugt wird (hat je einer der Zugfahrenden etwas gesagt? Wurde je etwas sortiert?) ist es leichter, die Kompetenz zur Integration von Informationen nicht bei Menschen, sondern tendenziell eher bei Maschinen zu vermuten. Unsichtbare Technologie und unerklärbare Mechanismen leisten im Hintergrund etwas, das zugleich prophetisch und wirkungsvoll ist. Als prophetische Technik (Achatz 2019) lässt sich die von Arnold Gehlen (1957, S. 18) herausgearbeitete Restmenge magischer bzw. triebhafter Reize bezeichnen, die Resonanz erzeugt und auch Teil vermeintlich nüchtern-rationaler Vorhaben ist, wie z. B. das eigene Gesundheits-, bzw. Todesrisiko über Daten erheben, bemessen, berechnen und letztlich vorhersagen zu wollen. Sicherheitsversprechen basieren also zunehmend auf prophetischen Techniken.

Diese Form des Technologieeinsatzes führt zu dem, was ich assistive Kolonialisierung nenne (vgl. Selke 2017a) – das schleichende Eindringen von technischer Assistenzsysteme in unseren Alltag. Assistenz ist einerseits in vielen Formen eine Signatur der Gegenwartsgesellschaft. Der Begriff wird zunehmend als Ersatz oder Synonym für Begriffe wie Hilfe, Mithilfe, Mitarbeit, Hilfestellung, Unterstützung, Förderung, Fürsorge, Beistand, oder Dienst genutzt. Damit kann Assistenz zunehmend als Vermittlungsform zwischen weitreichende Aktivierungsimperative, Beschleunigungsherausforderungen sowie Übungs- bzw. Selbstoptimierungsansprüche in sozial erschöpften Gesellschaften angesehen werden. Der Begriff der assistiven Kolonialisierung drückt folgendes aus: Assistenzsysteme tauchen immer häufiger im Alltag auf, die Assistenzleistung kann sich prinzipiell auf viele unterschiedliche Aspekte des Lebens beziehen, immer aber darauf, durch Technik stellvertretend Komplexität zu reduzieren. Assistive Kolonialisierung meint Prozesse, die Unterstützung- und Hilfeformen immer zweckrationaler, einplanbarer sowie in (neuen) Märkten verhandelbar machen. Im Sinne von Habermas lässt sich dies als Strategie des Eindringens bezeichnen. Aber nicht nur das Bild der Kolonialisierung passt, auch die Folgen lassen sich (ähnlich wie bei Habermas) als Pathologien lebensweltlichen Handelns beobachten. Es kommt zu neuen Korridoren der Unselbstständigkeit, einem Verlust von Sinngehalten und Kompetenzen (Stichwort: De-Skilling), einer Destabilisierung bislang stabilisierender Denkkategorien und letztlich neuen Subjektmodellierungen. Verantwortung wird in technische Systeme verlagert, was zwar eine Entlastungfunktion beinhaltet, aber auch zur Befreiung des Sozialen von zentralen Wertmaßstäben führt.

Schritt 5: Transformation des sozialen Raumes

Auf der fünften und letzten Stufe des schleichenden Wandels erfolgt eine Konsolidierung dieser Assistenzfunktion innerhalb eines neuen normativen Modells des Sozialen. Damit wird eine neue Normalität, ein neuer Referenzrahmen etabliert. Immer mehr Handlungen werden unterlassen. Zumindest auf den ersten Blick sieht es gegenwärtig so aus, als würden immer mehr Unterlassungen gesellschaftlich akzeptiert. Das Selbstkonzept der Menschen passt sich adaptiv an den dominanten Deutungsrahmen an. Der Binnenbereich der Moralität verändert sich, neue sprachliche Kategorien (z. B. über Gefährder) tauchen auf, neue kategoriale Einordnungen von Menschen (z. B. Kostenverursacher) werden selbstverständlicher. Die Zustimmungsbereitschaft zur veränderten normativen Aussage erhöht sich stetig. In einem Satz: Der soziale Raum transformiert sich nachhaltig. Diese schleichenden Entgrenzungen bereiten den Boden für einen neuen Gesellschaftsvertrag. Aber was ist eigentlich das Problem an einem neuen Gesellschaftsvertrag?

4 Vorboten eines neuen Gesellschaftsvertrags

Die Dauerdurchsage: If you see it, say it, and we’ll sort it, mag zunächst als ein triviales Beispiel erscheinen. Doch vielleicht werden auf den zweiten Blick genau jene schleichenden Entgrenzungen der kulturellen Matrix (die Summe aller sozialen Vorannahmen und Regeln) deutlich, die mit darüber entscheiden, wie gutes Leben in Zukunft aussieht – oder auch nicht. Ich komme daher zu meiner Eingangsthese zurück, die besagt, dass sich Individuen nicht sortieren lassen. Gleichzeitig mögen Menschen keine Unsicherheit und reagieren mit Kategorisierungen. Bevor ich mich dem neuen Gesellschaftsvertrag zuwende, möchte ich exemplarisch einige der schleichenden Veränderungen skizzieren, die sich m. E. zukünftig deutlicher zeigen werden.

Verschiebung des sozialen Blicks

An der Fassade der Universität von Huddersfield (an der ich ein Gastsemester verbrachte) findet sich folgendes Zitat einer Bürgerrechtlerin Maya Angelou: „We are more alike my friends, than we are unalike“. Besser lässt sich der humanistische Blick nicht zusammenfassen. Schleichend geht dieser Blick gegenwärtig verloren. Statt auf Gemeinsamkeiten zu fokussieren, stellt der neue algorithmisierte Blick (d. h. der Blick, der auf Basis von Daten, Programmen und digitaler Analytik entsteht) tendenziell Unterschiede in den Mittelpunkt. Der soziale Blick richtet sich nicht mehr auf die Wiedererkennbarkeit einer Person, sondern auf Klassifikation.Footnote 13 Digitale Datensammlungen dienen meist dazu, Objektivität und Rationalität zu steigern und letzte Zonen der Intransparenz auszuleuchten. Dabei erzeugen sie jedoch auch neue soziale Unterscheidungsmöglichkeiten. Aus immer genauer auflösenden (‚granularen‘) Datensammlungen ergibt sich die Möglichkeit numerischer Differenzierung. Diese Explosion der Unterschiedlichkeit (vgl.: Kucklick 2014, S. 12) führt zu genaueren Einzelbildern von Konsumenten, Patienten, Mitarbeitern und Bürgern. Aber die auf digitalen Daten basierende (Selbst-)Beobachtung wird nicht nur immer genauer, sie wird auch immer trennender.

Von rationaler Diskriminierung spreche ich daher, wenn nicht nur Unterscheidungen gemacht werden, sondern wenn diese Unterscheidungen auch soziale Folgen nach sich ziehen (Selke 2015b). Rationale Diskriminierung basiert auf vermeintlich objektiven und rationalen Messverfahren. Gleichwohl resultiert daraus die Kopplung von Daten und Chancen (vgl.: Selke 2015b). Daten dienen primär dazu, soziale Erwartungen zu übersetzen. Aus deskriptiven Daten werden normative Daten, die soziale Erwartungen an richtiges Verhalten, richtiges Aussehen, richtige Leistung usw. in Kennzahlen ausdrücken. Damit setzt sich letztlich ein defizitorientiertes Organisationsprinzip des Sozialen durch. Durch die Allgegenwart von Vermessungsmethoden kommt es zu ständiger Fehlersuche, sinkender Fehlertoleranz und gesteigerter Abweichungssensibilität anderen und uns selbst gegenüber. Rationale Diskriminierung bedeutet, dass Daten autoritative Macht erhalten, sie werden Teil einer neuen Beziehungsform zu uns selbst und zu anderen: Wir beginnen, uns anders zu sehen, wenn wir uns auf der Basis von Daten beobachten – und uns gegenseitig der Normabweichung verdächtigen.

Verdächtig ist, wessen Werte von der Norm abweichen. Die neue Verdachtskultur der rationalen Diskriminierung basiert auf der wissenschaftlichen Dignität einer Wahrscheinlichkeitsrechnung. Damit stehen auch die modernen Ideologien der Prävention „im Banne einer großen technokratischen, rationalisatorischen (sic!) Träumerei von der absoluten Kontrolle über den Zufall.“ Vor dem Hintergrund einer „großen Hygienikerutopie“ (Schulz und Wambach 1983, S. 62) setzt sich die absolute Herrschaft der kalkulierenden Vernunft durch. Damit erhöht sich die um die Macht ihrer Planer, Agenten, Verwalter und Technokraten, die sich als Verwalter eines Glücks sehen, dem nichts mehr widerfahren kann. Schon der Soziologe Robert Castel stellte fest, dass sich dabei „nicht die leiseste Spur einer Reflexion über den gesellschaftlichen und menschlichen Preis dieser neuen Hexenjagd“ findet, an deren Ende ein radikal anders Bild des Sozialen steht (vgl.: Castel 1983, S. 62). Das Soziale wird zu einem homogenen Raum, in dem sich Menschen auf vorgezeichneten Bahnen bewegen und Populationen durch Profilgebungen nach wünschenswerten Maßstäben in Risiko- und Verwertungsgruppen eingeteilt werden. Es geht hierbei längst nicht mehr um Ordnung, sondern allein um Effizienz, die zur Übereffizienz anwächst.

Die vermeintlich perfekte Passung zwischen digitaler und technisierter Sorge bzw. Selbstsorge sollte also kritisch in den Blick genommen werden, weil derartige Präventionsprojekte immer auch repressive Gesellschaftsveränderungsprojekte sein können. Im Kontext dieser Projekte werden Anpassungszwänge für Subjekte organisiert, weil dies einfacher ist, als Systemalternativen utopisch zu entwerfen und politisch durchzusetzen. Nach und nach setzt sich aber als Folge ein instrumentelles Menschen- und Gesellschaftsbild durch. Statt Systeme und Strukturen zu verändern (z. B. die Struktur der Erwerbsarbeit), muss sich das präventive Selbst in das herrschende System einfügen und die eigenen subjektiven Verhaltensdispositionen ändern. Die adaptive Selbstregulation präventiver Subjekte ist um so vieles einfacher, als die Transformation des sozialen Raums. Kurz gesagt wird dabei im großen Stil eine Problemverlagerung in die Subjekte hinein betrieben. Soziale Phänomene wie Solidarität, Fürsorge oder Verantwortung werden nach und nach mit den Qualitäten von Dingen ausgestattet und damit ökonomisch kalkulierbar gemacht. Rationale Diskriminierung basiert nicht mehr auf rassistischen oder sexistischen Formen der Aberkennung, sondern auf vermeintlich objektiven und rationalen Messverfahren. Gleichwohl werden mit den Vermessungsmethoden digitale Versager und Gewinner entlang neuer soziale Bewertungsmechanismen produziert. Das läuft letztlich auf ein Programm der Umerziehung hinaus. Wenn die Daten-Dublette des Menschen zur Basis des Selbst- und Fremdverständnisses erhoben wird, dann werden Menschen zu Konformisten, blind für die Möglichkeiten eigenen Denkens und vor allem ohne Urteilskraft für autonome Entscheidungen.

Verletzung der Menschenwürde

Mit dieser Übereffizienz geht letztlich eine Verletzung der Menschenwürde einher. Menschen sind immer häufiger als Lebendbewerbung (wir müssen zeigen, was wir können, wir müssen performen) unterwegs – und scheitern daran. „We are viewed more and more as people with something to sell – our own brands – and our capacity to dramatize and showcase that product is a primary survival skill. If we cannot show how and why we count, the we will be cast as extras or as backdrop, at best, and past over, at worst“ (vgl.: Ross 1999, S. 135). Sehr deutlich wird dies im britischen Film I, Daniel Blake, einem Sozialdrama über einen verunfallten Zimmermann. Blake versucht seinen Sozialhilfeanspruch prüfen zu lassen und gerät zwischen die Mühlen der Bürokratie. Er wird zu einem Fall. Das Beispiel I, Daniel Blake zeigt sehr drastisch, wie individuelle Personen auf reine Manifestation einer Typik oder eines Schemas reduziert werden. „Der Mangel an Achtung besteht in dem Umstand, dass irgendein wichtiges Faktum über die Person nicht angemessen wahrgenommen oder gewürdigt wird“, so der Philosoph Harry G. Frankfurt, „mit dem Betreffenden wird verfahren, als sei er nicht der, der er in Wirklichkeit ist. (…) Wenn ihm der nötige Respekt verweigert wird, ist dies so, als würde seine Existenz herabgesetzt. (…) wenn jemand so behandelt wird, als zählten wesentliche Teile seines Lebens nicht, ist es eine natürliche Reaktion, wenn er dies in gewisser Weise als Angriff auf seine Realität empfindet“ (vgl.: Frankfurt 2016, S. 93 f.).

Dieser Angriff auf die existenzielle Realität wird dann noch gesteigert, wenn Daten über Menschen zu einer einzigen Zahl zusammengefasst werden, wenn ein Index gebildet wird. Durch Indizierung werden Personen nicht nur zu einem Fall, sie werden objektiv vergleichbar und sortierbar. Wo vermessen wird, da wird auch verglichen. Ende der 1950er Jahre fanden die berühmten Darmstädter Gespräche statt. 1958 lautete die Leitfrage: Ist der Mensch messbar? Damals waren gerade Intelligenz- und Persönlichkeitstests in Mode. Das Fazit dieser Gespräche fasst Erich Franzen, der Leiter der Gespräche, so zusammen: „Ich glaube, der Hauptgewinn liegt darin, dass man Vergleiche anstellen kann“ (vgl.: Franzen 1959, S. 18). Wo verglichen wird, da gibt es also auch Verlierer. Indexikalisierung ist eine Form der Komplexitätsreduktion, bei der viele qualitative Aussagen in einem quantitativen Maß zusammengefasst werden, um Vergleichbarkeit in Kollektiven zu erzeugen. Das schafft Sicherheit, aber eben auch Verlierer.

Neuorganisation des Sozialen durch einen neuen Gesellschaftsvertrag

Diese Strategie ist gleichwohl attraktiv. Es gibt zahlreiche Referenzen, die deutlich von der Sehnsucht nach Rationalität und Übereffizienz künden. Die Sehnsucht nach Entscheidungsmaschinen begann schon lange vor dem digitalen Zeitalter (Selke 2014, 2016). 1948 veröffentlichte der Dominikanermönch Pater Dubarle eine enthusiastische Skizze. Sein Ziel bestand in der „rationalen Regelung menschlicher Angelegenheiten, insbesondere diejenigen, die die Gemeinschaft angehen und eine gewisse statistische Gesetzmäßigkeit (…) zeigen“ (vgl.: Dubarle, zit. n. Wiener 1958, S. 174 ff.). Dubarle wünschte sich einen Staatsapparat, eine machine à gouverner, die auf der Basis umfangreicher Datensammlungen bessere Entscheidungen treffen sollte. Er war dabei nicht so naiv, zu glauben, dass sich menschliches Handeln vollständig in Daten abbilden ließe. Daher forderte er eine Maschine, die nicht rein deterministisch handelt, sondern „den Stil des Wahrscheinlichkeitsdenkens“ (a. a. O.) anstrebt. Wesentlich ist jedoch, dass er die Macht der Entscheidungsmaschine auf den Staat übertrug. Der Staat sollte zum „bestinformierten Spieler“ und zum „höchsten Koordinator aller Teilentscheidungen“ werden. Die Aufgabe der Entscheidungsmaschine sah Dubarle in der fundamentalen Entscheidung über Leben und Tod, „Unmittelbare Vernichtung oder organisierte Zusammenarbeit.“ Und er fügt in seiner Fortschrittseuphorie hinzu: „Wahrlich eine frohe Botschaft für die, die von der besten aller Welten träumen!“ (a. a. O.)

Die Philosophin Hannah Arendt schrieb über die Entscheidungsträger des Pentagons in einer Art und Weise, wie es auch gut auf die zeitgenössischen Apologeten der digitalen Transformation passen würde. „Sie waren nicht unbedingt intelligent, brüsteten sich jedoch damit ‚rational‘ zu sein“, so Arendt,

„sie waren ständig auf der Suche nach Formeln, am besten nach solchen, die sich einer pseudo-mathematischen Sprache bedienten, mit denen sich die disparatesten Erscheinungen auf einen Nenner bringen ließen, der für sie die Wirklichkeit darstellte; das heißt, sie wollten ständig Gesetze auffinden, mit denen man politische und historische Tatsachen erklären und prognostizieren konnte, als ob diese mit derselben Notwendigkeit und Verlässlichkeit erfolgten, wie dies früher die Physiker von den Naturereignissen glaubten (…) (Sie) beurteilten nicht, sondern sie berechneten. (…) Ein äußerst irrationales Vertrauen in die Berechenbarkeit der Realität (wurde) zum Leitbild der Entscheidungsfindung“ (vgl.: Arendt, zit. n. Weizenbaum 1977, S. 57).

KI und das zugehörige Denken kann als Erbe der 1960er Jahre angesehen werden. Andrés Duany, der charismatische Vordenker des New Urbanism, berichtet davon, wie eine Präsentation, die er in der Disney-Company verfolgt hatte, sein Leben grundlegend veränderte. „Es geht darum, vollkommen neues soziales Klima zu entwickeln. Einen neuen Ansatz, dem Leben gegenüber.“ (Duany, zit n. Ross 1999, S. 27). Dieser Ansatz (der Neo-Traditionalismus) verbindet zwei Wertesysteme in einer Synthese – das Traditionelle und das Moderne. „Er kombiniert die soziale Sicherheit und Verantwortung der 1950er Jahre mit der individuellen Freiheit der Me-Generation. Konsumenten scheinen ein Äquilibrium, eine Balance zwischen diesen beiden Extremen zu suchen“ (vgl. Duany, zit n. Ross 1999, S. 27). Und genau diese Suche nach dem Äquilibrium in Verbindung mit der neo-positivistischen Aktualisierung der frohen Botschaft einer rationalen und allmächtigen Entscheidungsmaschine bereitete den Boden für einen neuen Gesellschaftsvertrag.

So fordern Eric Schmidt und Jared Cohen von Google auf den letzten Seiten ihres Manifests The New Digital Age zu nichts anderem auf, als zu einer freiwilligen Unterwerfung unter die wohl bekannteste Entscheidungsmaschine der Welt: „In einer Art Gesellschaftsvertrag werden die Nutzer freiwillig auf einen Teil ihrer Privatsphäre und andere Dinge verzichten, die sie in der physischen Welt schätzen, um die Vorteile der Vernetzung nutzen zu können“ (vgl.: Schmidt und Cohen 2013, S. 368). Und ihre Begründung hört sich fast genauso an, wie der fortschrittsgläubige Überschwang von Dubarle. Mit zwei entscheidenden Unterschieden. Erstens: Die assoziativen Entscheidungsmaschinen funktionieren inzwischen tatsächlich – mittels KI. Und zweitens: Unternehmen und nicht der Staat sind heute die „bestinformierten Spieler“ und „höchsten Koordinatoren aller Teilentscheidungen.“Footnote 14 Und wenn Google behauptet, dass Vernetzung und Technologien der beste Weg seinen, „um das Leben in aller Welt zu verbessern“ muss an die entscheidende Frage erinnert werden, wer denn eigentlich darüber entscheidet, was normal ist. Wie weit also hat sich die Baseline inzwischen unbemerkt verschoben? Selbstermächtigung durch Hochtechnologie ist eine Illusion. Entscheidungsmaschinen sind von Menschen programmierte Apparaturen, die darüber entscheiden, wie weit man von der Norm abweichen kann und trotzdem noch normal ist. In Zukunft werden in immer weniger realweltliche Fragestellungen im Mittelpunkt stehen, sondern datengetriebene Prozesse (vgl.: Krcmar 2014, S. 10). Es geht also nicht darum, was Menschen brauchen, sondern darum, wie sich Daten (gewinnbringend) verbinden lassen.

5 Ausblick: Gesundes Misstrauen in das Bedienpersonal der Zivilisation

Um intelligent handeln zu können, müssen Menschen über Alternativen Bescheid wissen, die in der Zukunft für sie bereitstehen. Sie müssen die zukünftigen Konsequenzen ihrer eigenen Handlungen und die Konsequenzen der Handlungen anderer abschätzen und sie müssen unterscheiden, worauf sie Einfluss haben, was sie kontrollieren können und was nicht. Menschen müssen sich mit möglichen, wahrscheinlichen und wünschenswerten Zukünften beschäftigen. Wir aber leben so, als würden wir in einer rationalen Welt leben, einer Welt, die durch die Engel der Mechanik zusammengehalten wird. Wir stellen uns vor, dass in dieser Welt alles perfekt für den menschlichen Geist zu erfassen und zu verstehen ist. Aber stimmt das? Menschen sind nicht aus Glas. Die Sprache der Metrik tut dennoch so, als ob wir in Menschen hineinschauen könnten und als ob wir dann deren Leben kennen würden. Als ob sich Leben auf Input-Output-Funktionen und rein energetische Prozesse reduzieren ließe. Das Fatale daran ist die implizite Gleichsetzung zwischen dem Messwert und einem Zustand, denn trotz aller Beteuerungen einer Differenz zwischen Zahl und Mensch wird genau diese Gleichsetzung immer wieder kommuniziert.

Das Bedienpersonal der Zivilisation

Wenn Gerhard Biedenkopf (ehemals Vorsitzender der VDI-Hauptgruppe Der Ingenieur in Beruf und Gesellschaft) Mitte der 80er Jahre über das Selbstverständnis des Ingenieurs spricht, nennt er sich und seine Kollegen das „Bedienungspersonal der Zivilisation“ (vgl.: Biedenkopf 1983, S. VI) In einem Buch, das den Titel Technik und Ingenieure in der Öffentlichkeit trägt erkennt er die grundlegende Verantwortung für dieses Bedienpersonal an. „Die Ingenieure haben eine Bringschuld an Informationen über die Technik gegenüber der Gesellschaft abzulösen“ (a. a. O.). Er fordert, dass der kritisch-konstruktive Dialog über zukünftige Technologien sich keinesfalls in affirmativen Gesten erschöpfen darf und er weist auf die Notwendigkeit einer auch außerakademischen Technikdiskussion hin. „Nicht Präsentation von Technik in der Öffentlichkeit, sondern Dialog über Technik in der Öffentlichkeit ist gefordert“ (vgl.: Biedenkopf 1983, S. 10). Dieses Berufsethos ist mit der Digitalisierung inzwischen verloren gegangen. Inzwischen leben wir in einer Nebenfolgengesellschaft, die mit ihren Technologien permanent entgrenzte Probleme (wicked problems) erzeugt, die sich gerade nicht wieder technologisch lösen lassen. Jetzt, zu Beginn des 21. Jahrhunderts, sollten wir uns vom Personal nicht vorschreiben lassen, wie wir zu leben haben. Dringender denn je brauchen wir Gegenmodelle zu der scheinbar alternativlosen Sachzwanglogik, die nicht nur zu schleichendem Wandel, sondern auch zur impliziten Einwilligung in einen neuen Gesellschaftsvertrag führt, der das Soziale metrisch reguliert.

Der Physiker, Röntgenpionier und Technikphilosoph Friedrich Dessauer forderte bereits vor Jahrzehnten (1956) den Beginn eines Weltgesprächs über Technik. KI, als Technologie, Prozess und Kultur, hat die notwendige Fallhöhe, um ein solches Weltgespräch endlich zu beginnen. Dieser Dialog müsste zunächst davon ausgehen, dass Problemlösungswissen oftmals außerhalb des eigenen Kompetenzbereichs liegt. Das „Bedienpersonal der Zivilisation“ mag sich gut mit der Erzeugung instrumentellen Wissens (know how) auskennen und immer leistungsfähigere KI-Systeme erstellen. Zumindest dies kann man von den Engländern lernen: Wir sollten uns nicht vom Personal vorschreiben lassen, wie wir zu leben haben. Die Experten für die Zivilisation, nicht deren Personal, sollten eine leitende Rolle im zukünftigen „Weltgespräch“ innehaben. Experten für Zivilisation wissen, dass Wandel viele Facetten haben kann. Und sie wissen, dass moralische Integrität kontingent ist. Sie erzeugen dringend notwendiges reflexives Wissen (know why) und zudem wertebasiertes transformatives Wissen.

Eine solche Rolle für Geistes- und Gesellschaftswissenschaftler zu fordern, ist nicht utopisch, sondern lehnt sich an konkrete Vorbilder an. Als es Mitte der 1980er noch danach aussah, dass die amerikanische Weltraumbehörde NASA eine führende Rolle bei der Weltraumexploration einnehmen würde, wurde die National Commission on Space gegründet. Diese startete ein Weltgespräch über eine neue Technologie und deren gesellschaftlichen Nutzen. Im Abschlussbericht der Kommission Pioneering the Space Frontier wurde der äußerst progressive Vorschlag einer großen Synthese gemacht, deren Basis ein für die damalige Zeit geradezu sensationell progressives Wissenschaftsverständnis war. Der Bericht verstand sich als leidenschaftliches Plädoyer für die Einheit der Wissenschaften. Durch eine große Synthese aller Disziplinen sollte es zu Wissensintegration kommen, von der man sich einen besseren Beitrag zur Lösung komplexer und entgrenzter Probleme versprach.

Die Pointe der großen Synthese war jedoch, dass den Sozialwissenschaften eine Leitfunktion und Führungsrolle im sich entwickelnden Weltraumprogramm zugedacht wurde. Vielleicht reicht die Zeit gerade noch, um in einem neuen Weltgespräch über KI wieder zu einem Erkenntnisstand zurückzukehren, den wir schon einmal hatten.