1 Intelligente Systeme zwischen Fluch und Segen

In den Jahren 2018 und 2019 stürzten zwei voll besetzte Passagierflugzeuge des Typs Boeing 737 Max 8 ab. Die viel beachtete Tragödie ließ sich auf eine schlechte Konfiguration der Mensch-Maschine-Beziehungen zurückführen. Ein automatisiertes Korrektursystem (Maneuvering Characteristics Augmentation System, MCAS) hatte die Flugzeuge fälschlicherweise in einen Sinkflug gelenkt und die Piloten konnten das Steuerungssystem nicht unter Kontrolle bringen. Die Boeing 737 ist seit mehr als 50 Jahren das weltweit am meisten genutzte Flugzeug. Der treibstoffsparende Typ mit der Zusatzbezeichnung „Max“ wurde eingeführt, um die Wirtschaftlichkeit und Nachhaltigkeit zu verbessern. Dafür mussten die Triebwerke vergrößert und versetzt werden, wodurch das Risiko für einen gefährlichen Strömungsabriss stieg, den die MCAS-Software verhindern soll.

Nach ersten Berichten über Steuerungsprobleme stürzte am 29. Oktober 2018 eine fast fabrikneue Maschine ab, weil ein Sensor am Bug des Flugzeugs dem automatisierten Korrektursystem einen falschen Neigungswinkel meldete, die Automatik das Höhenleitwerk verstellte und die Flugzeugnase unwiderruflich nach unten drückte. Flugkapitän und Co-Pilot bemerkten die Gegensteuerung, konnten aber das intelligente System nicht überwinden und auch im Handbuch keine Problemlösung finden. Am 10. März 2019 stürzte das zweite Flugzeug ab, obwohl die Piloten, wie nach dem ersten Absturz empfohlen, die Trennschalter betätigt und insgesamt 26 Mal manuell den Sinkflug korrigiert hatten: Bei ihrem verzweifelten Kampf gegen die automatisierte Steuerung hatten sie die Geschwindigkeit so stark erhöht, dass am Ende die Kräfte am Heck zu groß waren. Seither ist der gesamte Luftraum für diesen Flugzeugtyp gesperrt.

In den aufschlussreichen Untersuchungen zeigten sich mehrere Probleme, die sowohl die technische Qualität, Integration und Auslegung der (teil-)autonomen Maschinen als auch die Information und Schulung der steuernden Menschen, Sicherheitsprinzipien und darüber hinaus die institutionelle Aufsicht betreffen. So hatte Boeing bei der amerikanischen Sicherheitsbehörde eine schnelle Zulassung ohne aufwendige, externe Prüfverfahren mit viel Druck und dem Argument erzwungen, es handele sich nur um geringfügige Veränderungen an einem bekannten Flugzeugtyp. Die Anfrage einer ausländischen Fluggesellschaft nach Trainingsprogrammen wurde mit der Begründung abgelehnt, diese würden dem Unternehmen eine schwierige und unnötige Belastung aufbürden. Erstkunden hatte Boeing sogar eine Erstattung von einer Million Dollar versprochen, sollte die Aufsichtsbehörde Simulatorschulungen für Piloten vorschreiben. Erfahrene Ingenieurinnen und Ingenieure wundern sich über den ungewöhnlichen Mangel an Redundanz, durch den ein intelligentes Kontrollsystem, das ein Flugzeug zum Absturz bringen kann, von einem einzigen und extern störbaren Sensor abhängt. Ein Grund hierfür mag sein, dass Boeing die Entwicklungskosten im vergangenen Jahrzehnt deutlich reduziert hat, sodass wenige Ingenieurinnen und Ingenieure unter hohem Zeitdruck und mit vielen extern vergebenen Entwicklungsschritten technische Anpassungen vornahmen, die vor allem an Wirtschaftlichkeit und Wettbewerbsfähigkeit gemessen wurden. In den Untersuchungen zu den Unfällen wird auch bemängelt, dass die Software im Cockpit insgesamt zu wenig integriert sei, wodurch sich weitere Softwarefehler herausstellten.

Tatsächlich machen Automatisierung und digitale Technologien das Fliegen schon seit Ende des 19. Jahrhunderts sicherer und zugleich komplizierter (Lausen 2020). Während die menschlichen Akteure im Cockpit als potenzielle Fehlerquellen betrachtet und reduziert wurden, repräsentiert der Autopilot im Volksmund die Leistungen der maschinellen Eigensteuerung. Die damit im Cockpit bewirkte Verschiebung der Handlungsgewichtung zwischen (teil-)autonomen Maschinen und menschlichen Akteuren wurde zu einem wichtigen Thema der Techniksoziologie und lenkte den Blick auf die „verteilte Steuerung“ und riskante „Governance“ von automatisierten und robotischen Systemen (Rammert, Schulz-Schaeffer 2002; Rammert 2016; Weyer 2007; Weyer, Cramer 2007). Wir haben das Verhängnis der Boeing 737 Max als Eingangsbeispiel für die Untersuchung von Mensch-Maschine-Verhältnissen gewählt, weil es die wesentlichen Merkmale hybrider Netzwerke verdeutlicht.

Da ist zunächst die seit vielen Jahren beobachtete Verschiebung von „Handlungsfähigkeit“ (oder Handlungsträgerschaft, „agency“), die nicht länger nur beim Menschen als Entscheider zu suchen, sondern auf die verschiedenen Komponenten intelligenter Systeme verteilt ist (Rammert 2016). Diese Verteilung ist weder gleichmäßig noch stabil, sondern hängt von der konkreten Konfiguration der Systeme, ihrer Komplexität und ihren Wechselbeziehungen (Relationen) ab (Suchman 1998). In dieser Gemengelage gelten insbesondere inter- und transaktive Maschinen wie Computer, Roboter und Künstliche Intelligenz (KI), die den passiven Werkzeugcharakter zugunsten neuartiger Grade maschineller Handlungsautonomie hinter sich lassen (Rammert, Schulz-Schaeffer 2002: 49), gleichzeitig als „autonom“, „intelligent“ und „überlegen“ sowie als „unterstützend“ und „determiniert“. Die Zurechnung von Handlungsfähigkeit und Handlungsgewichten ist also keineswegs selbstverständlich, sondern offensichtlich eine Frage der Perspektive – operativ und theoretisch.

In intelligenten Systemen wie automatisierten Verkehrssystemen oder cyber-physischen Bauprozessen koordinieren sich physische, elektronische und digitale Komponenten über eine gemeinsame Dateninfrastruktur selbstständig und kontextbezogen, sodass vielfältige, digital vermittelte Interaktionen von Menschen, Maschinen und Programmen entstehen. Bei der Betrachtung derartiger Systeme spielt die Kontrollfrage – und damit verbunden die Frage nach Verantwortung – eine wichtige Rolle (Grote 2015: 135). Unter Kontrolle wird die Macht verstanden, eine Situation so zu beeinflussen, dass sie sich in einer Weise entwickelt oder bleibt, die vom kontrollierenden Agenten vorgegeben wird (Flemisch et al. 2016: 73). Allerdings sind die Kontrollverhältnisse in intelligenten Systemen komplex und involvieren verschiedene Agenten, deren Handlungsträgerschaft nicht nur das Fliegen, sondern auch das Bauen zunehmend bestimmt.

Als verteilte Kontrolle („shared control“) wird dementsprechend der Umstand bezeichnet, dass sich die menschlichen und technischen Agenten eines intelligenten Systems nicht nur die Aufgaben (Mensch-Maschine-Kooperation), sondern auch die Steuerung und gegebenenfalls eben auch die Kontrolle der Ausführung teilen. In allen Arbeitsprozessen sind Kontrollfragen heikel, meist kritisch und folgen bei den verschiedenen Beteiligten unterschiedlichen, mitunter auch widersprüchlichen Rationalitäten. Auch in Mensch-Maschine-Interaktionen teilen die Beteiligten die Kontrollstrategien und -orientierungen nicht bruchlos. Deshalb werden intelligente Systeme unter Bedingungen von shared control als „hybride Netzwerke“ (Callon, Latour 1981; Latour 1995; Lausen 2020: 17; Rammert 2016: 175) beschrieben, in denen Menschen, Maschinen und Programme so eng interagieren, dass letztlich unklar ist, wer oder was steuert oder funktioniert (vgl. Abb. 1).

Abb. 1.
figure 1

(Eigene Darstellung in Analogie zu Rammert 2016: 175)

Verteilte Kontrolle zwischen Mensch, Maschine und Programm.

In diesen Netzwerken sind von keinem Punkt aus alle Elemente und ihre „Handlungsfähigkeiten“ vollständig bekannt, weil schon die Vielfalt der Systeme, Anbieter und Versionen, erst recht aber die komplexe Interdependenz menschlicher Akteure und (teil-)autonomer Maschinen ohne abgestimmte Governance (Weyer, Cramer 2007) eine fragmentale Organisation verursachen. Hinzu kommt die Abhängigkeit der offenen Systeme von übergeordneten Steuerungs- und Kommunikationsstrukturen wie Flugsicherungs- und Antikollisionsdiensten oder Rechenprotokollen. Im Ergebnis muss jede Kontrollstrategie mit einer Unbestimmtheit der Interaktionsergebnisse und deren nicht vorhersehbarer Interdependenz mit weiteren Kontrollagenten rechnen, die weder technisch noch menschlich „stabil“ sind, sondern variablen „Intuitionen“ und Situationsbewertungen menschlicher und maschineller Art folgen. So beeinflussen beispielsweise Wetterlage und Wetterdaten sowohl die Wahrnehmung der Sensoren als auch die der Pilotinnen und Piloten. Semantisch besteht zwar die Unterscheidung von Mensch und Maschine trotz der verflochtenen Handlungs- und Kontrollfähigkeit fort, aber analytisch kann sie aufgrund der Verschränkungen nicht aufrechterhalten werden. Vielmehr kommt es in intelligenten Systemen zu wechselseitigen Beobachtungen aller Komponenten, sodass neben menschlichen Akteuren auch Maschinen, Sensoren und Programme aus ihren jeweiligen Beobachtungswinkeln entlang digital oder neuronal programmierter Möglichkeiten Interaktionsergebnisse wahrnehmen und interpretieren. Alle Elemente eines intelligenten Systems berücksichtigen unter Umständen die erkennbaren Wahrnehmungen anderer Systemkomponenten und reagieren entsprechend – oder sie reagieren nicht. Handlungs- und Kontrollfähigkeit, Wahrnehmung, Intelligenz und in der Folge auch Adaptivität und Reaktivität sind also relational und verteilt, aber keineswegs gleichsinnig!

Das systemtheoretisch beschriebene Problem der doppelten Kontingenz führt auch in Mensch-Maschine-Interaktionen zur Bedeutungszunahme stabiler Erwartungssicherheiten, die sich meist ungeplant herausbilden. Die doppelte Kontingenz besteht in der zweiseitig unsicheren Auswahl von HandlungsoptionenFootnote 1, die nicht festgelegt sind, sondern, je nachdem, was Alter (Pilot) und Ego (MCAS) selbst wahrnehmen und dem anderen zuschreiben, in der ein oder anderen Weise erfolgen oder unterlassen werden können. Weil die Möglichkeiten vielfältig und die notwendigen Informationen meist mehrdeutig und nur partiell verfügbar sind (Grote 2015: 132), dienen emergente Erwartungssicherheiten („das ist wieder dieser Fehler“) zur Kontingenzreduktion und überbrücken die Unsicherheiten ungeklärter Handlungsregeln. Für die Genese der hochrelevanten Erwartungssicherheiten, aus denen menschliche Akteure Handlungs- und Kontrollvermögen schöpfen, ist eine prinzipielle Vertrautheit mit den zugrunde liegenden Prozessen und Problemlösungsmustern unverzichtbar. Fehlen aber, wie im Fall der Boeing 737 Max, der Einblick in die Systemarchitektur, geeignete Schulungen, Trainings und Interpretationshilfen oder wird gar eine falsche Vertrautheit suggeriert, so als steuerten die Piloten den altbekannten Typ, sind über die vielbeschriebenen „Ironien der Automatisierung“ (Bainbridge 1983) hinaus Fehlleistungen, Unfälle und eine zunehmende Belastung aller Beteiligten bis hin zur Katastrophe vorgezeichnet. Ob intelligente Systeme als Fluch oder Segen zu betrachten sind, hängt daher wesentlich davon ab, wie gut es gelingt, maschinelle und menschliche Intelligenz zu verknüpfen. Aus einer gesellschaftlichen Perspektive liegen die Grenzen der Einführung automatisierter Systeme deshalb weniger in der technischen Machbarkeit oder der sozialen Akzeptanz als darin, „dass Menschen die Systemziele bestimmen und für ihr Erreichen sowie alle dabei entstehenden positiven wie negativen Folgen verantwortlich sind“ (Grote 2015: 135).

2 Das Versprechen intelligenter Systeme in der Bauwirtschaft

Für die Bauindustrie versprechen cyber-physische Systeme die Verknüpfung der digitalen Bauplanung mit robotischen Bauprozessen bis hin zur algorithmischen Überwachung von Gebäude(teile)n. Dafür wird die Bauwertschöpfungskette von der Planung über die Vorfertigung und die Ausführung auf der Baustelle bis zur Gebäudebewirtschaftung digital abgebildet und in einer Software mit Echtzeitdaten der unterschiedlichen Prozesse vernetzt (Building Information Modeling, BIM) oder auch anhand digitaler Zwillinge gesteuert. Hochgesteckte Erwartungen gehen dahin, zukünftig mit integrativen computerbasierten Entwurfs- und Fertigungsmethoden (computational design) die Wechselwirkungen zwischen Bauformen und -strukturen, Materialeigenschaften und (additiven, robotischen) Fertigungsverfahren flexibel berücksichtigen zu können, um sehr viel leistungsfähigere Material- und Bausysteme zu ermöglichen, die sich optimal an den projektspezifischen Randbedingungen orientieren (Menges et al. 2020). Auf der Baustelle der Zukunft bauen dann Fachkräfte unterstützt von Exoskeletten und AR-Brillen, die adaptive 3D-Pläne visualisieren, im permanenten Dialog mit entsprechender Sensorik und Steuerungssystemen gemeinsam mit Roboter-Fertigungsplattformen, 3D-Druckern sowie umgebungssensiblen Baumaschinen mit integrierten Kameras und können auch auf sich änderndes Materialverhalten reagieren (vgl. Abb. 1).

Wenn cyber-physische Systeme aber mit besonderen Risiken und Unwägbarkeiten der Koordination und Kontrolle einhergehen, was motiviert ihre Nutzung in einem Sektor mit sehr langlebigen Produkten und entsprechend hohen Sicherheits- und Qualitätsanforderungen? Und wie sollte ihre Implementation konfiguriert sein, um die versprochenen Vorteile der computerbasierten Entwurfs- und Bauprozesse umfassend auszuschöpfen, ohne auf lange Sicht menschliche Reaktions- und Handlungsfähigkeit sowie das Erreichen baupolitischer und gesellschaftlicher Ziele zu gefährden? Wir möchten zu einer Antwort auf diese Fragen beitragen, indem wir knapp das Versprechen der Nutzung intelligenter Systeme im Baubereich skizzieren und drei Typen der Mensch-Maschine-Konfiguration mit ihren Vor- und Nachteilen diskutieren, um Ansatzpunkte einer verantwortlichen Gestaltung von Mensch-Maschine-Kooperationen zu benennen.

Motiviert wird der Einsatz zum einen durch die Vorteile einer höheren Produktivität und Präzision cyber-physischer Bausysteme, die unermüdlich rund um die Uhr eingesetzt werden können, algorithmisch berechnete Bauteile ermöglichen und – entsprechend konfiguriert – auch die Sicherheit der Prozesse bei schlechtem Wetter und mit gefährlichen Baustoffen verbessern. Seit den Anfängen der numerischen, später computergestützten Steuerung von Werkzeugmaschinen (Computerized Numerical Control, CNC) steht die Digitalisierung von Produktionsprozessen für eine erheblich schnellere, präzisere und effizientere Serien- und auch Einzelfertigung, die zudem die Maschinenbedienenden von schweren und repetitiven Tätigkeiten zumindest teilweise entlastet. Eine Erhöhung der Produktivität, Präzision und Flexibilität erscheint gerade in der Baubranche angesichts der weltweit wachsenden Nachfrage und dem Wunsch nach architektonischen Einzellösungen vielversprechend. Der Wert einer verbesserten Arbeitssicherheit in der Vorfertigung und insbesondere auf der Baustelle muss nicht weiter begründet werden. Mit dem Einsatz cyber-physischer Produktionsprozesse geht zudem häufig eine Aufwertung der Arbeitsprodukte und -tätigkeiten einher. In vielen Bereichen ermöglichen sie flexiblere, modulare und stärker individualisierte Produkte, sodass die Sonderanfertigung der „Losgröße 1“ als rentables Serienprodukt denkbar wird.

Da die Anforderungen an eine kompetente Maschinenführung in intelligenten Systemen beständig wachsen, steigt auch der Anteil der Beschäftigten mit einem ingenieurwissenschaftlichen Abschluss, zusammen mit den Durchschnittslöhnen. Insgesamt nehmen Qualifikationserfordernisse und -möglichkeiten zu und zugleich tragen vereinfachte Programmieroberflächen dazu bei, den Kreis der kompetenten Anwendenden zu vergrößern. Digitalisierung, Automatisierung und Roboterisierung verändern die Anforderungen und Formen der Beschäftigung zwar stark, sie machen aber menschliche Arbeit und Qualifikation nicht überflüssig (Hartmann 2015; Hirsch-Kreinsen, Karacic 2019; Spöttl, Windelband 2019). Durch die avancierten Möglichkeiten der vernetzten Automatisierung und insbesondere KI verändern sich nun auch anspruchsvolle Tätigkeiten (und hochqualifizierte Berufe). Wieder einmal steht das Versprechen im Raum, komplexe Prozesse, die Spezialwissen erfordern, durch geeignete Schnittstellen wie beispielsweise Augmented Reality (AR) für eine Vielzahl von mehr oder weniger qualifizierten Beschäftigten zu öffnen (Ribeirinho et al. 2020). In der Summe werden nach wie vor beide Thesen diskutiert, die des (zumindest partiellen) „De-Skilling“ und Kompetenzverlusts durch zunehmend automatisierte Prozesse, aber auch die des „Up-Skilling“ und damit die Möglichkeit einer wachsenden Attraktivität der Baustelle für hochqualifizierte Facharbeitskräfte.

Die Untiefen der unternehmerischen und gesellschaftlichen Nutzbarkeit von als intelligent bezeichneten, cyber-physischen Systemen liegen in der Gleichzeitigkeit der Zu- und Abnahme von Handlungs- und Kontrollkompetenzen. Schon im Falle des Umstiegs von einfachen Werkzeugmaschinen auf CNC-Maschinen konnten weder die versprochenen Rationalisierungsgewinne noch die Entlastungspotenziale umstandslos realisiert werden, vielmehr erwies sich ihre Nutzbarkeit als abhängig von Urteilsvermögen, Kompetenzen und Kooperationsfähigkeiten der Maschinenführenden (Hirsch-Kreinsen 1993). So unterliegen die relevanten Fähigkeiten und Kompetenzen im Umgang mit der Digitalisierung von Arbeits- und Produktionsprozessen einem starken Wandel, aber noch ist nicht geklärt, welche Formen menschlicher Kompetenzen notwendig und vorhanden sind, um intelligente Systeme zu einem Erfolgsmodell zu machen (Botthof, Hartmann 2015; Pfeiffer 2020; Spöttl, Windelband 2019).

Darüber hinaus versprechen cyber-physische und insbesondere additive Systeme den Material- und Ressourcenverbrauch zu verringern und so die Prozesse nicht nur wirtschaftlicher, sondern auch nachhaltiger zu machen. Da im Bausektor einige der zentralen Baustoffe wie etwa Sand überraschend endlich sind, und der Sektor zudem für einen hohen Anteil schädlicher Kohlendioxidemissionen verantwortlich ist, werden in diesem Aspekt große Potenziale gesehen. Aber auch in Bezug auf Wirtschaftlichkeit und Nachhaltigkeit wird wissenschaftlich durchaus debattiert, ob sich die ökologischen und ökonomischen Kosten nur verschieben oder tatsächlich insgesamt verringern. Für eine Bewertung der Stoffstrombilanzen müssen externalisierte Kosten, der Fußabdruck von Serverfarmen oder Transportbedarfe einbezogen werden (Santarius et al. 2020).

Last but not least erlauben cyber-physische Prozesse die Möglichkeit der Überwachung jener Faktoren, für die explizit Daten aufbereitet und gesammelt werden. Da in der Bauindustrie stark fragmentierte Produktionsprozesse üblich sind und sich in überlangen Bauzeiten und vielen, als schwarzer Peter hin- und hergereichten Baumängeln niederschlagen, erscheint das attraktiv. BIM und weitere digitale Technologien der vernetzten Modellierung von Entwurf, Ausführung und Betrieb von Gebäuden verbessern Informationsfluss und Transparenz und ermöglichen eine entsprechende Kontrolle bis hin zur Übernahme unternehmerischer Kalkulations- und Verfahrensweisen. Allerdings bedrohen die Möglichkeiten der digitalen Erfassung von Planungs- und Bauwissen und der Speicherung und Wiederverwendung von architektonischen und handwerklichen Fähigkeiten und Einfällen zugleich Urheberrechte, Geschäftsmodelle und personenbezogene Expertise. Entlang der diskutierten Ambivalenzen zeichnet sich ab, dass es für eine robuste Konfiguration intelligenter Systeme im Baubereich kluger Strategien bedarf, um eine Balance zwischen dem Erhalt menschlicher Steuerungsintelligenz und der zielgerichteten Nutzung cyber-physischer Möglichkeiten herzustellen, die wir im nächsten Schritt ausloten.

3 Konfigurationen der Handlungsfähigkeit von Menschen und Maschinen in intelligenten Systemen

Die Handlungsfähigkeiten von Menschen und Maschinen in intelligenten Systemen hängen wesentlich von den jeweiligen Konfigurationen ab. Diese gehorchen einerseits expliziten Gestaltungsansätzen und andererseits impliziten Interessen und Vorstellungen. Grote (2015: 132) unterscheidet zwei explizite Gestaltungsansätze für das komplementäre Zusammenwirken in cyber-physischen Systemen, nämlich entweder eine Priorisierung zentraler Steuerungs- und Kontrollmechanismen, die eher mit standardisierten Lösungsmustern und wenig operativen Handlungsspielräumen in der Einzelanwendung einhergehen, oder eine Priorisierung dezentraler Autonomie, die sich vom „Mythos der zentralen Kontrollierbarkeit komplexer Systeme“ (ebd.) verabschiedet und organisationale Resilienz durch die Selbstorganisation der verschiedenen Interdependenzen anstrebt. Mit der Verschiebung von Kontrollzuständigkeit und Verantwortung auf die nachgeordnete Selbstorganisation kleinerer Einheiten wird zwar versucht, auf den vorhandenen Mangel an Überblick und Durchgriff auf übergeordneten Ebenen zu reagieren. Ob die Systeme dadurch aber resilienter werden, hängt von den Handlungsfähigkeiten und -motiven auf den unteren Ebenen ab (Weyer, Cramer 2007: 282), wie auch das Eingangsbeispiel zeigt. Neben expliziten Gestaltungsansätzen prägen Interessen und Vorstellungen die Konfiguration des Zusammenwirkens in cyber-physischen Systemen über implizit zugrunde liegende Erwartungen, beispielsweise über Zielsetzungen auf der Nachfrageseite („es muss vor allem wirtschaftlich sein“) oder Anwendungsbedingungen („eine Nutzung soll möglichst wenig Schulung erfordern“). So gehen in die Entwicklung cyber-physischer Systeme oftmals Annahmen ein, die weniger den Anwendungskontexten als den simplifizierenden Annahmen der Entwicklerkontexte entstammen (Fischer et al. 2020).

Im Folgenden diskutieren wir drei typisierte Konfigurationen des Zusammenwirkens von Menschen und intelligenten Maschinen mit unterschiedlichen Handlungsgewichtungen. Wir richten den Blick dabei exemplarisch auf Montageprozesse in der Vorfertigung und auf der Baustelle und insbesondere auf die derzeit stark beworbene Nutzung von Exoskeletten zur Erleichterung körperlich schwerer Arbeit und von Augmented-Reality-Tools zur Verbesserung des Informationsflusses. Exoskelette sind am Körper getragene, robotische Assistenzsysteme, die mechanisch auf den Körper einwirken, um die Arbeitssituation ergonomisch zu optimieren, entweder zur Entlastung beim Heben von Lasten und bei Arbeiten über Schulterhöhe oder um bestimmte Tätigkeiten überhaupt ausführbar zu machen. AR visualisiert im Sinne einer „erweiterten Realität“ relevante Sachverhalte kontextbezogen in externen Smartphone- und Tablet-Bildschirmen oder legt Computergrafiken mittels AR-Brillen über die reale Welt (3D-Hologramme), um automatisiert in Echtzeit zu kontrollieren, was sich z. B. hinter bereits verputzten Decken und Wänden befindet oder ob Bauelemente akkurat und plangerecht angebracht sind. Beide Technologien sollen Bauprozesse präziser und effektiver machen und Fehler und Unfallgefahr verringern. Ihr Einsatz verändert die Bauprozesse und stellt neben der intendierten Entlastung auch neue Anforderungen an die Arbeitenden. So kann die Nutzung von AR-Brillen Montagetätigkeiten durch die Einblendung von 3D-Explosionszeichnungen und Zusatzinformationen erleichtern und beschleunigen. Sie geht aber mit einer Belastung der Hals-Nacken-Muskulatur sowie einem eingeschränkten Sichtfeld einher und erfordert bei den Werkenden permanent einen flexiblen Wechsel zwischen abstrakten und konkreten Bauwelten (abgesehen davon, dass die relevanten Daten kontextspezifisch eingepflegt und verifiziert werden müssen).

Der Großteil der Forschung zu Mensch-Roboter- und Mensch-Computer-Interaktionen konzentriert sich auf die Verbesserung der Nutzbarkeit intelligenter Systeme als „collaborators, companions, guides, tutors, and all kinds of social interaction partners“ (Bartneck et al. 2020: 8) und ihrer Schnittstellen und nimmt dabei die technischen Möglichkeiten zum Ausgangspunkt. Demgegenüber geht es uns, ausgehend von gesellschaftlichen und menschlichen Handlungsmöglichkeiten, um eine Analyse der Technisierungsfolgen für diese Handlungsfähigkeiten unter Bedingungen „verteilter Kontrolle“. Wir unterscheiden dazu drei typisierte Konfigurationen der Handlungsfähigkeit in intelligenten Systemen unter den Etiketten „Mensch als Maschinenführer“, „Mensch als Maschinenbediener“ und „Mensch als Maschinenpartner“. Die Metapher der Maschine nutzen wir pauschal für alle technischen Mittel, die zur Erleichterung, Verstärkung oder Einsparung menschlicher Handlungen eingesetzt werden, unabhängig davon, ob die entstehenden Substitutionsverhältnisse mechanisch, elektrisch oder computerbasiert funktionieren.

3.1 Mensch als Maschinenführer

Die instrumentelle Konfiguration des Mensch-Maschine-Verhältnisses ist uns als „Werkzeugszenario“ am vertrautesten. Sie geht von einer weitgehend passiven Technik aus, die in der Hand der Nutzer deren Wirkungsgrad und Effektivität verstärkt. Der Mensch bleibt in dieser Konfiguration der zentrale Entscheider und bestimmt, wann und wofür er die Maschine als Werkzeug einsetzt und welche Ergebnisse damit erzielt werden.

Selbst einfache Tools, wie etwa ein Tablet mit visualisierten Bauinformationen, setzen für die Nutzung eine kognitive und körperliche Anpassung voraus, etwa ein Fokussieren auf den Bildschirm, ein Verständnis der Darstellungsinhalte und -methoden sowie ein absichtsvolles und feinmotorisches Öffnen der relevanten Informationsausschnitte. Es bleibt aber den menschlichen Nutzern vorbehalten, die Anwendung den eigenen Absichten in einer festgelegten Weise zu unterstellen oder die Gleichzeitigkeit des menschlichen und maschinellen Wirkens einzustellen. Dies gilt trotz der hohen Komplexität intelligenter Tools und ihrer Verknüpfung mit übergeordneten Systemen, etwa des BIM, da die Anwendung selbst in überschaubaren Zusammenhängen geschieht. Allerdings liegt in dieser unterstellten Überschaubarkeit die Gefahr einer unterschätzten „Interobjektivität“ (Rammert 2016) intelligenter Maschinen, die als Teil hybrider Netzwerke mit weiteren intelligenten Maschinen über Material-, Form- und Kontextvariablen kommunizieren und durch selbstorganisierte Rückkoppelungen „auch anders handeln“ könnten (Rammert 2016: 35), hier also andere Informationen anders aufbereiten. Sie intervenieren insofern in die Wahrnehmung von Qualitätsanforderungen und Handlungsoptionen und verschieben damit die Handlungsgewichte in Richtung übergeordneter, teils dem Menschen undurchsichtiger Beobachtungs- und Steuerungssysteme und dort eingehender Interessen (vgl. Suchman 1998).

Der Mensch kann als kontrollierender Agent die Mensch-Maschine-Konfiguration unterbrechen und hat ausführende, organisierende, planende und kontrollierende Aufgaben (Hartmann 2015: 11). Er bleibt dadurch Träger von lernförderlichen Entscheidungs- und Optimierungsprozessen, weshalb für seine Selbstwahrnehmung eher von einer Erhöhung von Schöpferstolz, Arbeitsimage und Verantwortlichkeit als von einer Entfremdung auszugehen ist. Erwartbar ist auch kein unmittelbarer Verlust der Kontrollfähigkeit, sondern allenfalls im Rahmen eines langfristigen De-Skilling, ähnlich der Verarmung von Raumorientierungskompetenz durch die häufige Nutzung von Navigationshilfen (Darken, Peterson 2002). Damit ‚Maschinenführer‘ passive intelligente Tools kompetent einsetzen, benötigen sie eine Einführung in Funktionsweise und -bedingungen sowie ein ganzheitliches Verständnis ihrer Anwendbarkeit. Letzteres besteht aus einem auf die Arbeitsprodukte bezogenen Systemwissen (Fachwissen über Tätigkeitsziele, Integration der darauf bezogenen Arbeitsprozesse und Qualitätsanforderungen) und aus einem Wissen über die prozessbezogenen Nutzungsmöglichkeiten intelligenter Maschinen und ihre Grenzen sowie mögliche Fehlleistungen, Fehlerquellen und Störungen. Für die Nutzung visualisierter Bauinformationen durch AR-Schnittstellen müssen Baufacharbeiter und -ingenieure die Daten nicht nur ablesen und interpretieren, sondern auch ihre Plausibilität einschätzen und gegebenenfalls Fehler erkennen und berichtigen können. Da der jeweilige Werker weiterhin als Hauptträger von Handlungs- und Problemlösungswissen auftritt, ist er bezüglich der Weitergabe dieser Handlungsfähigkeiten nicht substituierbar, auch nicht in Bezug auf die weitere Innovationsentwicklung oder -übernahme.

3.2 Mensch als Maschinenbediener

Die Wahrnehmung einer Mensch-Maschine-Konfiguration, in der Menschen intelligente Maschinen „bedienen“, die ihnen unter Umständen außer Kontrolle geraten, ist im deutschen Kulturraum stark von Goethes Zauberlehrling geprägt und wird überwiegend negativ bewertet, mutet oftmals als „unheimlich“ an. Die große Mehrheit der Deutschen befürchtet in einer repräsentativen Befragung von 2018 dementsprechend, durch Digitalisierung und Automatisierung einer Zunahme technischer Zwänge ausgeliefert zu sein, weniger als sieben Prozent widersprechen dem (Störk-Biber et al. 2020: 24). Als Maschinenbediener unterstützen Bauhandwerker oder -ingenieure die Funktionsfähigkeit der intelligenten Maschine, die sie warten, updaten, „hoch- und runterfahren“ und in Bezug auf die Prozessergebnisse überwachen.

In dieser Konfiguration optimieren z. B. AR-Brillen Bauprozesse, indem sie Handlungsoptionen aus einem hinterlegten oder berechneten Repertoire auswählen oder die planungsgerechte Ausführung kontrollieren; Exoskelette garantieren die Ausführbarkeit bestimmter Tätigkeiten, indem sie beispielsweise die Über-Kopf-Montage schwerer Bauteile ermöglichen oder die Haltungen der Menschen in Posen übersetzen und als Richtungs- und Kraftinformationen an übergeordnete Steuerungssysteme melden. Dabei bleiben die intelligenten Maschinen nicht passiv, sondern werden in gewisser Weise aktiv bzw. „selbsttätig“ und erlangen in den hybriden Netzwerken eine eigene interaktive und reaktive Handlungsträgerschaft (vgl. Rammert 2016: 124 ff.): Augmented Reality oder Exoskelette übernehmen Steuerungsfunktionen (guidance), lenken menschliches Handeln in technisch optimierte Bahnen, bestimmen Qualitätsanforderungen und Bewegungsrichtungen und unter Umständen auch die Abfolge von Anweisung und Ausführung selbst. Sie reagieren auf andere Komponenten intelligenter Systeme und verändern reaktiv die Ausführungsplanung im Dialog mit Sensor- und Steuerungssystemen. Die Maschinenbediener müssen die Interoperabilität der digitalen Technologien nur noch ermöglichen, indem sie in die technischen Schnittstellen „hineinschlüpfen“, also Exoskelette und AR-Brillen anlegen. Haben Letztere eine Aufgabe erhalten, „werden sie von sich aus aktiv, begeben sich ins Internet, suchen passende Datenbanken auf, kopieren gesuchte Listen“ (Rammert 2016: 125), wählen die günstigsten Optionen, begleichen Rechnungen, melden die Ausführung und ihre Qualitätsmerkmale an weitere Systemelemente. Die einzelnen Handlungsschritte sind zwar algorithmisch determiniert und folgen den geplanten Bauprozessen, aber im Auftrag anderer, nicht der Maschinenbedienenden. Die intelligente Anpassung cyber-physischer Systeme an sich wandelnde Rahmenbedingungen und ihre Selbstoptimierung in Bezug auf Produkte und Produktionsprozesse wird als neues Automatisierungsniveau betrachtet (Windelband, Dworschak 2018: 64). Den Algorithmen, die nun über die Ausführung bestimmen, kommt in gewisser Weise ein „Subjektstatus“ zu (Lange et al. 2019: 64), während die Maschinenbediener assistieren, zum Werkzeug ihrer Aufgabenerfüllung werden. Sie kennen zwar die organisatorischen Anforderungen der einzelnen Arbeitsprozesse, die der Optimierung zugrunde liegenden Parameter, Strategien und Interessen bleiben aber (teils) unerkannt („black box“). Für die assistierenden Tätigkeiten der Maschinenbediener wird oft versprochen, dass nun wenig bis kein Systemwissen erforderlich sei, weil die komplexen Hintergründe über eingeblendete Informationen und Anleitungen praxisnah, ortsunabhängig und interaktiv zur Verfügung gestellt werden (Kind et al. 2019: 46 f.). Die Auflösung der zuvor ganzheitlich qualifizierten Tätigkeiten geht mit einer seit Langem aufgezeigten Belastung durch die notwendige Überwachung intelligenter Maschinen ohne hinreichendes Erfahrungs- und Problemlösungswissen einher und sensibilisiert für die begrenzte Beherrschbarkeit inter- und reaktiver Maschinen (Bainbridge 1983; Hirsch-Kreinsen, Karacic 2019) und für die Notwendigkeit der behelfsmäßigen Entwicklung soziodigitalen Erwartungswissens. Fachkräfte erscheinen in der assistierenden Konfiguration als „Anhängsel“ (Deuse et al. 2018: 209), die nur noch „Anweisungen aus[führen], ohne eingreifen zu können und mitdenken zu müssen“ (Windelband, Dworschak 2018: 71).

Sie beugen sich den Veränderungen ihrer Rolle durch Automatisierung und digitale Schnittstellen, die sie zu schnellerem, regelmäßigerem, unermüdlichem Handeln antreibt, eine hohe Anpassungsfähigkeit und -bereitschaft an Maschinentakt und -ergebnisse erfordert und sie auch emotional an deren Funktionstüchtigkeit bindet. Die Handlungsgewichte verschieben sich im Assistenz-Szenario stark in Richtung der digitalen Komponenten intelligenter Systeme, wenn auch zurecht angemerkt wird, dass diese Verschiebung weniger technischen Möglichkeiten als sozioökonomischen und organisationspolitischen Interessen zuzurechnen ist, etwa Rationalisierungs- und Kontrollbestrebungen (Hirsch-Kreinsen 2016; Lange et al. 2019; Sadowski, Pasquale 2015). Die Entscheidungshorizonte der Maschinenbedienenden werden einerseits algorithmisch definiert, sind andererseits von Ursprung, Zuschnitt und Verfügbarkeit relevanter Inhalte abhängig. Für Letztere wird eine wachsende Bedeutung ihrer kommerziell und proprietär betriebenen Bereitstellung erwartet (Kind et al. 2019: 72) und ist in datenbankgestützten BIM-Modelle bereits zu beobachten (Ribeirinho et al. 2020). Die Optimierungs- und Kontrollfähigkeit der Fachkräfte erscheint aus Perspektive der IT-Entwicklung auf assistierende Tätigkeiten beschränkt. Industriestudien zeigen allerdings immer wieder, dass sie auf Basis (noch) vorhandenen praktischen Problemlösungswissens viel stärker in die automatisierten Prozesse eingreifen (müssen) als vorgesehen und oft „Lückenbüßerfunktionen“ (Weyer, Cramer 2007: 267) übernehmen. Für ihre kontrollierenden Eingriffe ist die Undurchschaubarkeit und Unerklärbarkeit computergesteuerter Maschinen problematisch, die sich aus Sicht der Werker unerwartet und unvorhersehbar verhalten und damit eine „erlernte Inkompetenz“ verursachen (Brödner 2019: 82). In ihrer Folge kann es im Umgang mit intelligenten Systemen zu überzogenen Erwartungen an die maschinelle Leistungsfähigkeit, zu überhöhtem Vertrauen (overtrust), Wahrnehmungsveränderungen in Bezug auf die reale Welt und ihre Anforderungen, zu verlernten Fähigkeiten und Technikangst kommen. Diese Konsequenzen gefährden auf der einen Seite die Resilienz der Systeme und führen auf der anderen zu einer Arbeitsentfremdung und Entwertung der Tätigkeiten, Berufe und des Images der Operateure. Demgegenüber wäre es wichtig, die Maschinenbedienung nicht so kleinteilig zu konfigurieren, dass Systemwissen verloren geht, sondern eine Balance zwischen führenden und dienenden Tätigkeiten in intelligenten Systemen zu sichern. Eine solche Balance verspricht der dritte Konfigurationstypus.

3.3 Mensch als Maschinenpartner

Die in den vergangenen Jahren ermöglichte Verzahnung physischer und virtueller Welten in intelligenten cyber-physischen Systemen hat neuartige hybride Netzwerke für dynamisch rückgekoppelte Fertigungsprozesse auf den Weg gebracht, in denen Menschen und Maschinen in einem „Kollaborationsszenario“ interagieren. Wir greifen hier bewusst den seit dem Vichy-Regime belasteten Begriff der Kollaboration auf, der dann für die Beschreibung von Mensch-Maschinen-Interaktionen gewählt wird, wenn die Kooperation nicht als Neben- und Nach-, sondern als Miteinander organisiert ist, wie im Fall eines kooperativen Hebens oder Tragens. Mit dem Konzept wird eine „Partnerschaft“ zwischen Menschen und robotischen Maschinen suggeriert, in der beide Seiten ihre Kompetenzen und Handlungsfähigkeiten zusammenfließen lassen. Auch die begrifflich wachgerufene „Kollaboration“ der Franzosen mit der nationalsozialistischen deutschen Besetzungsmacht im Vichy-Regime von 1940 bis 1944 umfasste nicht nur die „angeordneten“ staatlichen Stellen, sondern viele weitere „horizontale“ Kollaborationen, die zu einer Anpassung („accomodation“) an Autoritarismus, Antisemitismus und Milizstaat führten (Burrin 1995). Natürlich ist diese Assoziation nur semantisch veranlasst. Sie kann aber davor warnen, diese meist in werbenden Worten beschriebene Konfiguration eines „Schulter an Schulter mit Kobots“ (kollaborierende Roboter) (vgl. Weiss et al. 2020), in der sich Menschen und Maschinen wechselseitig unterstützen, voreilig als „Königsweg“ zu bewerten.

Geht es nämlich um die Verschmelzung digitaler und physischer Welten durch algorithmisch gesteuerte Systeme, sind die Rollen der darin agierenden Menschen noch unklar und werden aus verschiedenen Perspektiven beleuchtet, auch in sogenannten critical code studies (Manovich 2013). Unbestritten ändert sich ein Merkmal gegenüber den bisher diskutierten Konfigurationen, die – zumindest temporär – ohne den jeweils anderen Part betrieben werden können. Im Kollaborationsszenario hingegen sind die Interaktionen so verflochten bzw. „inter- und transaktiv“, dass sie wechselseitig nicht substituierbar und daher in besonderer Weise instabil sindFootnote 2. Mensch und Maschine reflektieren nun permanent und interdependent ihre Eigen-, Fremd- und Gesamtaktion, auch in Bezug auf Zweck-Mittel-Relationen, sodass alle Elemente Wechselwirkungen ausgesetzt sind und substanziell in ihren Eigenschaften und ihrer Handlungsfähigkeit kovariieren – ein Befund, der nicht ohne Folgen für die unternehmerische und gesellschaftliche Ebene bleibt. So erhöht bspw. das datenbasiert gesteuerte Exoskelett Muskelkraft, Kapazität und Produktivität seiner Träger, die AR-Brille macht, so die Ankündigungsrhetorik, den Facharbeiter im Rahmen von „shared expertise“ zum Bauexperten. Zugleich sinken aber durch die regelmäßige Nutzung von Exoskeletten und AR-Tools die Muskelkraft und das aktive Wissen über Baunormen, und das beste Exoskelett scheitert im Gespann mit einem menschlichen Maschinenpartner ohne Motivation und Kompetenz.

Unter diesen Bedingungen verändern sich erwartbar auch die Problemlösungs- und Innovationsfähigkeit der Menschen und zwar insbesondere in fragmentierten intelligenten Systemen, deren Entwicklung nicht einer übergeordneten Organisationslogik folgt, sondern von vielen, untereinander schlecht koordinierten Soft- und Hardwareprovidern, Planungsbüros und Bauunternehmen abhängt. In fragmentierten Systemen sind schon heute unvollständiges Wissen und fehlende Transparenz („opacity“, Burrell 2016) die Norm und können kaum durch geeignete Schnittstellen abgefangen werden, sodass die Fähigkeit, mit Ungewissheit und fehlendem Durchgriff auf die Prozessebene unter komplexen Bedingungen umzugehen, eine Schlüsselrolle gewinnt. Dafür spielt der bereits angesprochene Aufbau von Erwartungssicherheit im Umgang mit doppelter Kontingenz eine große Rolle. Er setzt basale Kenntnisse zur Einschätzung informationstechnischer Steuerungsarchitekturen und baufachliche Kenntnisse über Arbeitsprozesse, Qualitätsziele und planerische Hintergründe voraus. Wie es aber zukünftig gelingen kann, kommende Generationen von Bauhandwerkern und -ingenieuren ohne analoge Erfahrungen entsprechend vorzubereiten, um einstürzende Neubauten in Analogie zur Boeing 737 Max zu verhindern, ist eine offene Frage der Kompetenz-, System- und Organisationsentwicklung. Bislang gelten der „augmented/upskilled worker“ und die „autonome/intelligente Maschine“ gleichermaßen als (überschätzte) Zukunftshoffnung, ohne angemessene Berücksichtigung ihrer organisatorischen Verflechtung.

Demgegenüber stellen Studien zum Einsatz cyber-physischer Systeme regelmäßig die Bedeutung von organisatorischen, kognitiven und kooperativen Problemlösungskompetenzen heraus, damit automatisierte Systeme erfolgreich in Arbeitsprozesse integriert werden können (Hirsch-Kreinsen, Karacic 2019; Pfeiffer 2017; Spöttl, Windelband 2019). Erfahrungswissen, Berufsethik und auch das Selbstverständnis der Menschen spielen in hybriden Netzwerken eine große Rolle, verändern sich allerdings unter Bedingungen zunehmend parzellierter und digitalisierter Tätigkeiten. In Interviews wird von einem trickreichen, alltäglichen muddling-through der Über- und Unterwachung in der Arbeit mit kooperativen und kollaborativen Robotern und AR-Systemen berichtet, mithilfe dessen fehlende Schnittstellen, Inkompatibilitäten, Systemfehler sowie Informationslücken und Bedienungsfehler überwunden werden. Derlei Tricks tragen dazu bei, Aufgaben und Verantwortung zwischen Menschen und Maschine bestmöglich umzuverteilen, um die Folgen menschlicher, technischer und interaktiver Fehler abzufedern. Zugleich lässt sich eine technikgetriebene Anpassung von Menschen an die Bedarfe cyber-physischer Systeme beobachten, sodass bspw. Assistenzsysteme Verhalten normieren.

Die Handlungsgewichte verschieben sich im Kollaborationsszenario unsichtbar und weniger greifbar: Einerseits erscheinen diese soziodigitalen Arrangements den Nutzern oftmals als „magisch“ und „integriert“, andererseits offenbaren sich im Falle ihres Ausfalls oder ihrer Manipulation die problematischen Interdependenzen besonders brüsk. Cyber-physische Systeme werden dann zum Fluch, wenn Menschen dem fehlerhaften Funktionieren ohne Eingriffsmöglichkeit ausgeliefert sind oder wenn die datenbasierte Selbststeuerung Nebenwirkungen und Fehlfunktionen verursacht, die von den Softwareentwicklern nicht mitbedacht oder von Hackern mit krimineller Absicht eingefädelt wurden. Neben dem Ausfall einzelner Sensorfunktionen gehören die fehlerhafte Erkennung von schwarzer Hautfarbe, das Auslesen von Daten zum Zweck der Betriebsspionage oder die fehlende Berücksichtigung von Nachhaltigkeits- und Sicherheitsaspekten zu den verbreiteten Beispielen. Sie erinnern daran, dass in diesen Systemen menschliche Handlungsfähigkeit an „zwei Enden“ eine Rolle spielt: auf der programmierenden Seite mit all ihren implizit hinterlegten Interessen und Vorannahmen und auf der kollaborativen Seite mit all ihren Tricks der nutzerzentrierten Anwendung und Umkodierung (Oudshoorn, Pinch 2005).

Für die Resilienz und Robustheit der Mensch-Maschinen-Partnerschaft in intelligenten Systemen wird daher die beidseitige Nachvollziehbarkeit und Erklärbarkeit zu einem wichtigen Prinzip sowie ihre grundsätzlich auf menschliche Autonomie und an menschlichen Zielen als Gemeinwohl orientierte Entwicklung (High-Level Expert Group On Artificial Intelligence 2019). Unumgänglich kommt es in hybriden Netzwerken aber zu Situationen ungeklärt verteilter Kontrolle, in denen weder der Mensch noch die Technologie volle Kontrolle über den Handlungsablauf hat, weil im Kollaborationsszenario Maschinen nicht mehr gänzlich blind nach festgelegten Programmen und Menschen nicht mehr gänzlich souverän nach eigenem Gutdünken operieren (Rammert 2016: 127). Vielmehr handelt es sich um ein dynamisches Zusammenspiel von Menschen und Maschinen – einen „Tanz“, in dem sich die „Objekt-Subjekt-Rollen“ stetig neu verteilen, aber nicht unbedingt symmetrisch (Lange et al. 2019: 600). So können intelligente Systeme dieser Konfiguration partiell oder temporär auch stärker die Merkmale der beiden anderen tragen – wie es im Eingangsbeispiel passiert ist, weil den Piloten die notwendigen Informationen und den Technologien die notwendige Redundanz fehlten. Unter Bedingungen eng gekoppelter, komplexer Interaktionen ohne Redundanz werden aber nicht nur „Katastrophen normal“ (Perrow 1987), sondern auch die Verantwortungsfrage (accountability) über Fehler und Folgefehler ist schwer zu klären. In der Folge ist die Koordination der selbstständiger werdenden, automatisierten Technologien in Interaktion mit orts- und firmenübergreifend vernetzten Menschen und Daten nicht mehr mit mechanischen Konfigurationen vergleichbar, sondern muss auf dem schmalen Grad zwischen „organisierter Unverantwortlichkeit“ (Beck 1988) und sozial robuster, vertrauenswürdiger Abstimmung durch Angleichung (Akkomodation) gelingen.

Die folgende Tabelle (Tab. 1) stellt die zentralen Merkmale der drei Konfigurationen für die abschließende Diskussion zusammen.

Tab. 1. Konfigurationsmerkmale von Mensch-Maschine-Konfigurationen in intelligenten Systemen

4 Ansatzpunkte der verantwortlichen Gestaltung von intelligenten Systemen

Die Sichtung der drei idealtypisch gedachten Mensch-Maschine-Konfigurationen verdeutlicht, dass Handlungs- und Kontrollfähigkeiten in intelligenten Systemen zunehmend relational und dynamisch zwischen Menschen und Maschinen verteilt sind. Anstelle der Rede von „shared control“ ist es daher zutreffender, von „interdependent control“ zu sprechen. Die Verteiltheit der Kontrollfähigkeit darf aber nicht für die Verantwortung („accountability“) gelten. Verantwortung für (teil-)automatisierte Prozesse können nur Individuen und Organisationen übernehmen, weil sich ‚intelligente‘ Maschinen nicht an Werten wie Solidarität, Nachhaltigkeit, Sicherheit oder Gemeinwohl orientieren, sondern ausschließlich an programmierten Wenn-Dann-Relationen und statistischen Zusammenhängen. Ihre organisatorische Einbindung ist nur dann als verantwortlich und zukunftsfähig zu beschreiben, wenn eine realistische Einschätzung der mit diesen Systemen verbundenen Risiken und deren vertrauenswürdige Minimierung handlungsleitend sind. Für die Verringerung der Risiken – vom einmaligen Unfall bis zum langfristigen Verlust von Souveränität an die durch digitale Technologien geschaffenen Verhältnisse –, müssen entsprechende Handlungskompetenzen und Kontrollfähigkeiten bei Entwicklern und Nutzern und eine dazu passende Kontrollierbarkeit der Technik organisatorisch geschaffen werden.

Das betrifft neben soziotechnischen Gestaltungszielen, so wurde deutlich, vor allem die Konzeption und Organisation notwendiger und möglicher Lernprozesse (vgl. dazu Hartmann 2015: 17) ebenso wie die Vermittlung relevanter Informationen. Auch im Baubereich ist, wie im Eingangsbeispiel, mit den Erwartungen an automatisierte Systeme allzu leicht der Glaube verbunden, Menschen ohne fachspezifische Fähigkeiten, spezielle Trainings und Kompetenzen könnten dank intuitiver Schnittstellen Tätigkeiten ausführen, die sie nicht durchschauen können. Nicht erst seit der Forschung zu „human factors“ wird demgegenüber betont, dass eindimensionale Kompetenzverständnisse die interdependente Bedeutung von Motivation, System- und Anwendungswissen, Problemlösungskompetenz und sozio-technischer Arbeitsorganisation für den Umgang mit Unsicherheit unterschätzen, aber die Robustheit technischer Informationsvernetzung und automatisierbarer Routinen überschätzen (Leonardi, Barley 2010; Grote 2015). Technologien entwickeln sich zudem als ein Ausdruck von Handlungs- und Kontrollmacht. Sie weisen verschiedenen Nutzern nicht zufällig unterschiedliche Rollen und Interaktionsmöglichkeiten zu und legen bestimmte organisatorische Muster ihrer Einbettung eher nahe als andere. Es muss unser Anliegen sein, dafür auf das Prinzip einer sozial robusten und verantwortlichen Technologieentwicklung zu bestehen, um Katastrophen zu vermeiden und auch in Zukunft eine intelligente Anpassung an gesellschaftliche Ziele (bspw. Nachhaltigkeit, Sicherheit, Beschäftigung) mit unter Umständen neu zu definierenden Rollen und Interaktionsbeziehungen zu ermöglichen.

Die Diskussion der fluiden Mensch-Maschine-Beziehungen stellt dafür drei Ansatzpunkte einer verantwortlichen Gestaltung heraus: die Aufbereitung von Informationen, die Integration fragmentierter Systemkomponenten und den Erhalt von Lern-, Anpassungs- und Innovationsmöglichkeiten als Entwicklungsoption. Damit sind drei Herausforderungen benannt, zu denen bereits viel geforscht wurde, ohne dass die Probleme gelöst wären. Im Einzelnen prozessieren vernetzte digitale Technologien unendlich viele Informationen und potenzieren auf diese Weise das Problem ihrer nutzergerechten Auswahl und Aufbereitung, also ihrer adaptiven Strukturierung. Für den verantwortlichen Umgang mit intelligenten Systemen benötigen Nutzer aber dennoch passende „situationsbezogene Filterungsmechanismen, um am richtigen Ort zur richtigen Zeit exakt die Informationen […] zu erhalten, die zur Bearbeitung“ der jeweiligen Aufgabe erforderlich sind (Windelband, Dworschak 2018: 70). Das ist allerdings leichter formuliert, als programmiert, zumal Auswahl und Strukturierung immer wieder an veränderliche Rahmenbedingungen angepasst werden müssen (Leonardi, Barley 2010: 26 ff.). Wenn aber intelligente Systeme an dieser Voraussetzung intelligenter Mensch-Maschine-Kooperation scheitern, dann ist zu fragen, ob sie „vertrauenswürdig genug“ sind, um in sicherheitsrelevanten Bereichen eingesetzt zu werden. Unseres Erachtens ist bislang der Beitrag der Nutzer zur Konstruktion von Erwartungssicherheiten zu wenig für die Suche nach Lösungsansätzen einbezogen worden. Eine andere Herangehensweise wird derzeit im Exzellenzcluster „Integratives computerbasiertes Entwerfen und Bauen für die Architektur“ (IntCDC) begleitend zur Entwicklung cyber-physischer Bausysteme entwickelt. Hier soll ein „ganzheitliches Qualitätsmodell“ („Holistic Quality Model“) technische, ökologische und soziale Qualitätsziele integriert beurteilbar machen und Kontrollpunkte benennen, an denen Optionen aufgezeigt und ein Nachsteuern ermöglicht wird (Zhang et al. 2021). Eine Institutionenbildung in diesem Sinne wäre als lernende Entwicklung im Umgang mit den Herausforderungen durch cyber-physische Systeme zu begrüßen. Sie müsste als eine Art cyber-physischer Überwachungsverein dafür sorgen, dass alle implementierten Systeme Kontrollpunkte enthalten, die helfen, die Risiken zu minimieren und Optionen zu erhalten.

Was die Integration fragmentierter Systeme angeht, liegt ein ähnliches Paradox vor: So wie intelligente Systeme mehr Informationen prozessieren als erfassbar sind, vernetzen sie unweigerlich Organisationen, Prozesse und Handlungsrationalitäten, die sich an unterschiedlichen und nur teilweise abgestimmten Prioritäten und Handlungszielen orientieren. Die Hoffnung, diese Systeme erhöhten von sich aus Transparenz und Nachvollziehbarkeit ist nicht begründet. Zwar werden verschiedene Strukturierungsprinzipien algorithmisch auf einen gemeinsamen Nenner gebracht, aber dabei werden wesentliche Unterschiede auf Kosten des sozialen Sinns als digitale Zeichen nivelliert. Über die operable Durchgängigkeit hinaus wäre es für das Management relevanter Unsicherheiten wichtig, eine Durchschaubarkeit der Verknüpfungen und ihrer möglichen Fehlleistungen und Störungen zu garantieren. In Fallstudien zeigt sich immer wieder, dass Maschinenführer oftmals gar nicht wissen, ob bestimmte Einflussgrößen im konkreten Fall berücksichtigt wurden oder nicht. Wo aber Unklarheiten über die hinterlegten Prozessabläufe bestehen, kann keine Verantwortung übernommen werden.

Geht es schließlich um die Gewährleistung zukünftiger Entwicklungsoptionen durch Lern-, Anpassungs- und Innovationsmöglichkeiten, sind neuartige sozio-digitale Formen und Methoden der Kompetenzentwicklung vor und im Arbeitsprozess notwendig. Weil intelligente Systeme nicht wie intelligente Menschen handeln, muss dabei Sorge getragen werden, dass sich am Ende nicht Menschen wie intelligente Maschinen verhalten. Erfahrungswissen, Improvisationsgeschick und die Bereitschaft zur umfassenden Verantwortungsübernahme – all das muss in der Maschinenpartnerschaft gezielt gefördert und gepflegt werden, um den Risiken der Über- und Unterschätzung intelligenter Systeme mit sozio-technischer Intelligenz zu begegnen. Die Undurchschaubarkeit der Abläufe erschweren strategisches Handeln sowohl bei der gezielten und begründeten Optionenauswahl als auch beim notwendigen Umgang mit Problemen und Störungen. Da kein System perfekt ist, müssen technische Möglichkeiten und menschliche Fähigkeiten der Intervention und Krisenbewältigung gezielt integriert und gesellschaftlich gefordert werden. Nur so kann es gelingen, dass die Nutzer intelligenter Maschinen gleichzeitig die Arbeitsprozesse und ihre Steuerung, Ausführung und Kontrolle durch selbststtätige Systeme überwachen, obwohl sie ironischerweise mit dem Ziel der Überwindung menschlicher Intelligenz eingeführt werden.