1 Einleitung

Die technologischen Möglichkeiten in der Mensch-Technik Interaktion haben sich mit dem Fortschritt der Computertechnik in den letzten Jahrzehnten enorm vergrößert: Dies zeigt sich nicht nur in der Geschwindigkeit, mit der Daten übertragen werden können, und der Datenmenge, die gespeichert werden kann, sondern auch in neuartiger und kostengünstiger Sensorik und in neuen Funktionalitäten, die technische Systeme zur Verfügung stellen können (vgl. Pan 2016; Yurish 2010). So erfassten technische Systeme in den 1950er Jahren hauptsächlich spezielle Eingabedaten, stellten diese dar und setzten sie in mechanische Aktionen um (Parasuraman und Wickens 2008). In den 1970er Jahren wurden zunehmend Funktionen der Informationsverarbeitung implementiert (vgl. Wiener und Curry 1980). Besonders deutlich zeigte sich diese Funktionsentwicklung in der Luftfahrt (vgl. Manningham 1997): Ursprünglich steuerten Piloten die Lage des Flugzeugs im Raum. Es gab also eine direkte Interaktion zwischen Pilot und Flugzeug, die mit der Einführung des Autopiloten unterbrochen wurde. Die Piloten bedienten nun den Autopiloten, der die Lage des Flugzeugs im Raum steuerte. Heutzutage programmieren Piloten das sogenannte Flight Management System, welches wiederum den Autopiloten steuert. Mit der Einführung des Autopiloten und des Flight Management Systems verlor also der Mensch die direkte Nutzerkontrolle. Stattdessen stieg die Systemkomplexität an und die Teilaufgaben, die durch Maschinen erledigt werden können, werden immer zahlreicher. Entsprechende moderne Mensch-Maschine Schnittstellen nutzen daher auch mehr und multiple Modalitäten (Turk 2014). So können nun etwa Fingergesten, Körperbewegungen, Gesichtsausdrücke, Sprache u. v. m. technisch erkannt und mit anspruchsvollen intelligenten Algorithmen verarbeitet werden. Im vorliegenden Buchkapitel liegt der Fokus auf der Analyse und der kritischen Reflexion genau dieser Interaktion zwischen menschlicher und künstlicher Intelligenz. Es reflektiert die Rollenverteilungen zwischen menschlicher und künstlicher Intelligenz und die Wirkungen auf den jeweils anderen Interaktionspartner und zeigt auf, welche neuen Forschungsfragen in diesem Kontext diskutiert und beantwortet werden müssen, um ein sich erweiterndes Zusammenwirken zwischen Mensch und Technik positiv zu gestalten.

2 Künstliche Intelligenz: Assistenz, Automation und Autonomie

Intelligenz gilt seit vielen Jahrzehnten als die Fähigkeit des Menschen, komplexe Denkleistungen zu vollbringen und entsprechende Probleme zu lösen (Binet und Simon 1905; Deary et al. 2010; Guthke 1996). Wird der Mensch als Maschine interpretiert (vgl. Dörner 2004), lässt sich das Konstrukt der Intelligenz auf technische Systeme übertragen. Es ist daher nicht überraschend, dass Turing (1950) Intelligenz als die Fähigkeit eines Systems definierte, auf ein gegebenes Problem zu reagieren bzw. mit einer komplexen Situation adäquat umzugehen. Ein technisches System gilt also als künstlich intelligent, wenn es Leistungen in Analogie zum menschlichen Denken realisieren kann (Nilsson 2009). Demnach müssen künstlich intelligente Systeme Symbole verarbeiten, interne Weltmodelle entwickeln, Handlungspläne mental simulieren und ggf. umsetzen, mit Unsicherheiten und bisher unbekannten Situationen umgehen sowie Entscheidungen mehr oder weniger autonom treffen können (vgl. Rasmussen et al. 1994).

Insbesondere der Begriff der Autonomie wird auf unterschiedliche Art und Weise verwendet (s. auch Feil 1987). So definierte zum Beispiel Kant (1785) Autonomie als Selbstbestimmung im Rahmen einer übergeordneten Moral. Ein autonomes System bestimmt demnach unabhängig und selbst, was zu tun ist, und nutzt für seine Entscheidung moralische Grundsätze. Von moralischen Maschinen ist der Stand der Technik jedoch weit entfernt, und so ist autonom technisch meist eher im Sinne einer automatisierten, d. h. ohne menschlichen Eingriff durchgeführten Erledigung von Teilaufgaben definiert. Ein automatisiert fahrendes Fahrzeug führt zum Beispiel die Fahraufgabe in bestimmten Situationen selbstständig durch und fährt ohne menschliches Eingreifen (SAE 2018). Eine Motivation, die der Entwicklung solcher Systeme zugrunde liegt, ist die Erhöhung der Verkehrssicherheit bzw. im Allgemeinen die Minimierung des Einflusses der Variabilität menschlicher Leistung auf die Erfüllung der Aufgabe (Bainbridge 1983; Maurer 2015; Sarter et al. 1997). Da der Mensch allerdings nicht immer aus der Regelschleife entfernt werden konnte und somit vollständig automatische Systeme für komplexe Aufgaben in einer offenen Welt nicht implementiert werden konnten, fokussierten sich Forscher auf die Entwicklung von hochautomatisierten Systemen (s. Bainbridge 1983; Sarter et al. 1997).

Ein Automationssystem nutzt die immer umfassender vorhandene künstliche Sensorik, um Daten aus der Umgebung zu erfassen, es verarbeitet die Daten, trifft Entscheidungen und greift auf Aktoren zurück, um mechanische Handlungen umzusetzen. Es kommuniziert außerdem mit Menschen (Moray et al. 2000). Je selbstständiger das System eine Aufgabe erledigt, also mit weniger Eingriffen des Menschen, desto höher ist der Grad der Automation des technischen Systems (vgl. Parasuraman et al. 2000). Auch hier galt lange die Maxime, Systeme mit einem möglichst hohen Automationsgrad zu entwickeln (Bainbridge 1983; Sarter et al. 1997). Der Mensch sollte die Systeme idealerweise nur überwachen und rechtzeitig und korrekt eingreifen, wenn das System mit einer Aufgabe konfrontiert wurde, für die dieses nicht programmiert wurde oder wenn es in einen Fehlerzustand geriet (Bainbridge 1983). Auch hiermit sollte der Einfluss der Variabilität menschlicher Leistung reduziert werden. Es wurde also vom Mensch, der als nicht leistungsstark genug eingeschätzt wurde, erwartet, die Situation zu lösen, wenn das technische System nicht mehr in der Lage war, dies selbst zu tun. Dieses Paradoxon fasste Bainbridge (1983) unter dem Begriff der Ironie der Automation zusammen.

Die praktische Erfahrung mit hoch automatisierten Systemen zeigte, dass der Mensch die passive Rolle nicht ausfüllen konnte (Jipp 2016b; Sarter et al. 1997): Die menschliche Leistungsfähigkeit brach innerhalb der ersten 5–15 min ein, wenn – wie bei Überwachungsaufgaben der Fall – Daueraufmerksamkeit gefordert wurde (vgl. Helton et al. 2007). Zu Beginn der Aufgabe stieg die Beanspruchung an (vgl. Warm et al. 2015), dann verlor der Mensch sein Task Engagement und schließlich brach dessen Leistung ein (Szalma et al. 2004; Warm et al. 2008). Langfristig degradierten manuelle Fertigkeiten sowie die mentalen Modelle des Menschen über die Aufgabe und die Funktionsfähigkeit der technischen Systeme (vgl. Kessel und Wickens 1982; Norman et al. 1988). Ein hoher Erfüllungsgrad der Aufgabe konnte daher mit hoch automatisierten Systemen, die Mensch-Maschine Interaktionen bzw. einen menschlichen Eingriff weitgehend zu vermeiden versuchen, nicht erreicht werden.

Vor diesem Hintergrund bildeten sich komplexere Sichtweisen im Sinne eines soziotechnischen Systemansatzes, die technische Systeme so zu entwickeln versuchten, dass diese optimal mit Menschen interagieren (Billings 1997; Trist und Bamforth 1951). Die Aufgabe, die Mensch und Technik erledigen sollten, wurde dafür in generische Funktionen untergliedert (vgl. Endsley und Kaber 1999; Kantowitz und Sorkin 1987; Parasuraman und Riley 1997; Parasuraman et al. 2000), sodass eine feinkörnigere Analyse und Gestaltung von Mensch-Maschine Interaktionen möglich wurde. Von einem stark vereinfachten Modell der menschlichen Kognition ausgehend, unterschieden zum Beispiel Parasuraman et al. (2000) die Funktionen

  • Informationsaufnahme,

  • Informationsverarbeitung,

  • Entscheidungsfindung und

  • Umsetzung in der Handlung.

Dabei konnte jede dieser Funktionen zu einem unterschiedlichen Grad automatisiert werden. Je größer die Rolle des Menschen war, desto geringer war der Grad der Automation dieser Funktion. Jipp und Ackerman (2016) stellten daran anschließend den Grad der Automation als Quadrupel dar, in dem die Einträge den jeweiligen Grad der vier genannten Funktionen angeben. So zeichnet sich zum Beispiel ein technisches System mit dem Grad der Automation (niedrig, hoch, hoch, niedrig) dadurch aus, dass der Mensch die Informationsaufnahme und die Umsetzung in eine Handlung übernimmt. Das technische System verarbeitet die Informationen und entscheidet über eine geeignete Handlung. Das System gilt dann als Assistenzsystem, solange es einen niedrigen Grad der Handlungsautomation nutzt. In der Praxis begegnen uns insbesondere Informationsassistenzsysteme überall; sie sind jedoch in sehr unterschiedlichem Maße interaktiv und lernfähig (Steil und Wrede 2019). Durch die unterschiedlichen Grade der Funktionsautomation und insbesondere durch die wechselseitige Anpassung von Menschen und adaptiven, lernfähigen technischen Systemen entstehen dann hybride Systeme, in denen menschliche und künstliche Intelligenz zusammenwirken, um auf Anforderungen ihrer Umwelt angemessen und flexibel zu reagieren. Solche Systeme stehen heute im Fokus großer Forschungsprogramme (BMBF, Mensch-Technik Interaktion) und sind mitentscheidend für die Akzeptanz neuer Technologien für die Anwender.

3 Zur Interaktion von menschlicher und künstlicher Intelligenz

Eine naive Betrachtung des Zusammenwirkens von menschlicher und künstlicher Intelligenz könnte davon ausgehen, dass mehr oder höhere Automation zu besserer Interaktion und Aufgabenerfüllung führt. In zahlreichen Evaluationsstudien wurde daher untersucht, inwieweit menschliche und künstliche Intelligenz gemeinsam in der Lage sind, adäquat auf eine Frage zu reagieren (vgl. Brandenburger et al. 2019; Calhoun et al. 2009; Endsley und Kiris 1995; Kaber et al. 2000; Manzey et al. 2011; Manzey et al. 2012; Moray et al. 2000). Die Ergebnisse variieren und widersprechen sich zum Teil deutlich: So berichteten zum Beispiel Manzey et al. (2011), dass sich die Leistung von Studierenden in einer medizinischen Aufgabe verschlechterte, wenn der Automationsgrad nach der Taxonomie von Jipp und Ackermann (2016) von mittel, mittel, mittel, mittel auf mittel, mittel, niedrig, niedrig sank. Umgekehrt berichteten Calhoun et al. (2009), dass Piloten ihre Aufgabe besser erledigten, wenn der Automationsgrad von hoch, hoch, mittel, niedrig auf hoch, hoch, niedrig, niedrig sank. Die Inkonsistenz der Effekte wurde im Rahmen von Meta-Analysen über verschiedene Aufgaben hinweg bestätigt (Onnasch et al. 2014; Wickens et al. 2010).

Unterschiede in menschlicher, kognitiver Leistungsfähigkeit können diese inkonsistenten Ergebnisse erklären (Jipp 2016a; Jipp und Ackerman 2016): Im Vergleich der Studien von Manzey et al. (2011) und Calhoun et al. (2009) ist nämlich auch zu beachten, dass nicht nur die Automationsgrade und Aufgaben variierten, sondern auch die Teilnehmergruppen, denn Studierende und Piloten unterscheiden sich sicherlich auch in ihrem kognitiven Fähigkeitsprofil voneinander. Solche Differenzen können Effekte von Automationssystemen auf Leistungsmaße moderieren. Dies ist der Fall, da die Komplexität der menschlichen Aufgabe steigen kann, wenn der Grad der Informationsverarbeitungs- und der Entscheidungsfindungsautomation steigt: Der Mensch muss dann nämlich nicht nur ein mentales Modell über die eigene Aufgabe, sondern auch ein Modell des technischen Systems und dessen Aufgabe im Arbeitsgedächtnis aktiv halten (Jipp und Ackerman 2016). Dieses Modell wird komplexer, wenn kognitive Funktionen wie Informationsverarbeitung und Entscheidungsfindung automatisiert werden (für Details: Jipp und Ackerman 2016; Kaber et al. 2005). Das Arbeitsgedächtnis und die menschliche Informationsverarbeitungskapazität – gemäß des Berliner Intelligenzstrukturmodells ein Faktor der menschlichen Intelligenz (Jäger 1984) – können also stärker belastet werden.

Den potenziellen Effekt der stärkeren Belastung der Arbeitsgedächtniskapazität und der menschlichen Informationsverarbeitungskapazität kann das Elaboration Likelihood Modell von Petty und Cacioppo (1986) erklären:

  • Menschen, die eine geringere Arbeitsgedächtniskapazität sowie eine niedrigere Informationsverarbeitungskapazität haben, vermeiden kognitive Anstrengung, bauen das mentale Modell mit einer geringeren Wahrscheinlichkeit auf und wenden einfache Heuristiken zur Erledigung ihrer Aufgabe an (vgl. Atwood und Polson 1976).

  • Menschen, die eine höhere Arbeitsgedächtniskapazität sowie eine höhere Informationsverarbeitungskapazität haben, verarbeiten die zusätzlichen Informationen, entwickeln das mentale Modell und erreichen mit einer höheren Wahrscheinlichkeit eine geringere Fehlerwahrscheinlichkeit.

In Folge dieser theoretischen Überlegungen untersuchten also Jipp (2016a) und Jipp und Ackerman (2016) die Hypothesen,

  • dass Personen mit höheren kognitiven Fähigkeiten eine bessere Leistung liefern, wenn sie eine Aufgabe mit einem technischen System erledigten, welches einen höheren Grad an Informationsverarbeitungs- und Entscheidungsfindungsautomation besitzt.

  • dass Personen mit niedrigeren kognitiven Fähigkeiten eine bessere Leistung liefern, wenn sie die Aufgabe mit einem technischen System erledigten, welches einen niedrigeren Grad an Informationsverarbeitungs- und Entscheidungsfindungs-automation besitzt.

Erfasst wurden die individuellen Unterschiede mit standardisierten Testverfahren (vgl. Jäger et al. 1997). Die Autoren konnten die Hypothesen in zwei unabhängigen Studien in einer Fluglotsensimulationsaufgabe empirisch bestätigen. Zusammenfassend bedeutet dies also, dass menschliche und künstliche Intelligenz zwar gemeinsam eine Aufgabe erledigen können, das Zusammenwirken aber essenziell davon abhängt, inwieweit die menschliche und künstliche Intelligenz aufeinander und auf die zu erledigenden Aufgaben abgestimmt sind.

4 Menschliche und künstliche Intelligenz im Gleichgewicht: Eine Funktion kognitiver Empathie?

Eine adäquate Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz lässt sich auf verschiedene Arten und Weisen erreichen: Einerseits kann die menschliche Intelligenz an die künstliche Intelligenz „angepasst“ werden. Methoden dafür können Personalauswahl und Training sein. Im beruflichen Kontext könnte mithilfe von Personalauswahl dafür gesorgt werden, dass nur Personen mit einem bestimmten Fähigkeitsprofil für die Ausübung eines Berufs mit einem technischen System mit einem bestimmten künstlichen Intelligenzlevel zugelassen werden (vgl. Krause 2017). Weiter könnte adäquates Training im Umgang mit künstlich intelligenten Systemen zu einem Gleichgewicht zwischen menschlicher und künstlicher Intelligenz führen (vgl. Robst 2007). Die Notwendigkeit einer solchen Auswahl oder eines solchen Trainings ist jedoch in gewissem Sinne paradox, ist doch eines der großen Versprechen technischer Assistenz, dass mehr Menschen mit weniger Kenntnissen mehr Aufgaben erfüllen können.

Andererseits könnten künstlich intelligente Systeme über einen variablen Automationsgrad verfügen und sich somit an die kognitive Leistungsfähigkeit des Menschen anpassen (vgl. Hancock et al. 1985). Zur Realisierung dieser Anpassung sind verschiedene Strategien möglich:

  • Adaptierbare Systeme nutzen speziell entwickelte Interfaces und überlassen dem Menschen die Einstellung des adäquaten Automationsgrads (vgl. Miller und Parasuraman 2007; Parasuraman et al. 2005).

  • Adaptive Systeme nutzen Algorithmen, die die Leistungsfähigkeit des Menschen messen oder vorhersagen und darauf aufbauend den Automationsgrad ableiten, mit dem die bestmögliche Leistung erreicht wird (vgl. Hancock und Chignell 1988; Parasuraman et al. 1990; Scerbo 1996, 2001).

  • Eine Realisierung adaptiver Systeme sind lernende Systeme. Sie variieren und personalisieren die Arbeitsteilung je nach der spezifischen Interaktionshistorie des Systems mit den Nutzern und bilden ein Modell der Nutzer, aufgrund dessen Vorhersagen über das zukünftige Verhalten möglich sind. Dies ist ein weiteres der vielen großen Versprechen der Verbindung von künstlicher Intelligenz mit technischen Assistenzsystemen (Steil 2019).

Prinzel et al. (2000) demonstrierten beispielsweise den Wert eines adaptiven Systems. Deren technisches System erfasste Signale eines Elektroenzephalogramms (EEG), um das aktuelle Beanspruchungsniveau der Bediener zu diagnostizieren. Je nach aktuellem Beanspruchungsniveau wurde dann der Automationsgrad gesenkt oder erhöht, um ein optimales Beanspruchungsniveau beim Menschen zu erreichen. Damit balancierte das System das menschliche Beanspruchungsniveau und sollte somit langfristig eine hohe Leistungsfähigkeit des Menschen erreichen. Trotz der positiven Evaluationsergebnisse kann der Ansatz der adaptiven Systeme kritisiert werden:

  • Erstens determiniert nicht nur die unmittelbare Beanspruchung die zukünftige, menschliche Leistung. Weitere affektive, kognitive und behaviorale Zustände, die ebenfalls prädiktiv für die zukünftige Leistung sein können, werden bei adaptiven Systemen kaum berücksichtigt (vgl. Jeon 2015).

  • Zweitens lässt sich ein technisches System nicht nur durch dessen Grad der Automation charakterisieren. Je nach Anwendungskontext kann es durchaus Sinn ergeben, andere Charakteristika – wie zum Beispiel die Art und Weise der Kommunikation mit Menschen – anzupassen (vgl. Hayes und Miller 2010).

Es ist daher nicht überraschend, dass das Konzept der adaptiven Systeme generalisiert und das psychologische Konzept der Empathie auf technische Systeme übertragen wurde (vgl. Ihme et al. 2018b; Tews et al. 2011).

Empathie beschreibt die (menschliche) Fähigkeit, Gedanken, Emotionen, Einstellungen anderer Personen zu erkennen und zu verstehen (Hall und Bernieri 2001). Emotionale Empathie ist dabei die Fähigkeit zu fühlen, was Andere fühlen (Ekman 2007). Kognitive Empathie hingegen beschreibt die Fähigkeit, die Emotionen, Gedanken und Absichten anderer Menschen zu erkennen (Hall und Bernieri 2001). Insbesondere höhere Maße an kognitiver Empathie führten zu besseren Ergebnissen in diversen sozialen Interaktionssettings (z. B. in der medizinischen Versorgung bei Fields et al. 2011 und Kaplan et al. 2012). Die Hoffnung ist, dass diese positiven Effekte auch von technischen Systemen erreicht werden, wenn diese kognitiv empathisch agieren können (Ihme et al. 2018b; Tews et al. 2011).

Die kognitive Empathiefähigkeit von technischen Systemen beinhaltet das Erkennen und Identifizieren von emotionalen Artikulationen von Menschen sowie die Berücksichtigung dieser Reaktionen in den eigenen Entscheidungsmechanismen über mögliche Handlungen (z. B. Ihme et al. 2018b; Manzeschke und Assadi 2019). Die Schwierigkeiten in der Realisierung dieser Empathiefähigkeit sind aber nicht zu unterschätzen: Die Systeme müssen zunächst die Artikulationen identifizieren und interpretieren können. Sie müssen aber auch mögliche Ursachen für die Artikulationen identifizieren können, um erstens beurteilen zu können, ob der aktuelle Zustand der Nutzer und Bediener relevant für die Interaktion mit den Systemen ist und um zweitens mögliche Handlungen ableiten zu können. Basierend auf diesen Informationen müssen sie dann das eigene Verhalten adäquat anpassen können (s. Ihme et al. 2018b). Die Entwicklung solch kognitiv empathischer Systeme steht sicherlich noch am Anfang und ist vielleicht auch insgesamt unrealistisch.

Was jedoch zunehmend zur Verfügung steht, sind Algorithmen, die bestimmte emotionale Zustände von Nutzern durch die Interpretation von Sensordaten erkennen können, beispielsweise durch Analyse der Sprache und Sprachsignale oder durch Kameradaten in Fahrzeugen. Letztere werden beispielsweise verwendet, um Veränderungen in der Gesichtsmuskelaktivierung zu erkennen und darauf aufbauend das aktuelle Frustrationsniveau von Fahrern zu diagnostizieren (vgl. Ihme et al. 2018a, b). Dies bedeutet, dass ein Fahrzeug zwar erkennen kann, ob der Fahrer frustriert ist oder nicht. Solange dem System aber keinerlei Wissen darüber zur Verfügung steht, ob diese Frustration für die aktuelle Aufgabe des Fahrers relevant ist oder in Zukunft relevant sein wird, und wie eine potenziell negative Auswirkung verhindert werden kann, ist das Wissen wenig relevant. Dies bedeutet, es müssten weitere Algorithmen zur Verfügung stehen,

  • die mindestens erkennen könnten, ob die Frustration aufgabenrelevant ist oder nicht,

  • die die Entwicklung des Frustrationsniveaus des Fahrers valide vorhersagen können,

  • die wissen, dass Frustration zu sicherheitskritischem Fahren führen kann und

  • die geeignete Handlungen auswählen könnten, um einer ansteigenden Frustration entgegen wirken zu können.

Wäre dies realisierbar, dann stünden technische Systeme zur Verfügung, die sich – auf eine kognitiv empathische Art und Weise – an Menschen anpassen können und damit eine hoffentlich bessere Teamleistung erreichen können.

Evidenzbasierte Studien zur Wirkung empathischer Systeme stehen jedoch auch noch aus. Es ist daher nicht sicher, ob technische Systeme mit der Komplexität des menschlichen (emotionalen) Verhaltens tatsächlich Schritt halten können. Falls ein technisches System valide erkennt, dass ein Mensch frustriert ist, bedeutet dies tatsächlich, dass eine Maschine empathisch agieren/reagieren kann? Wie valide muss die Erkennung funktionieren? Was passiert, wenn ein Algorithmus in ein Produkt integriert wird, der nicht Frustration, sondern zum Beispiel Ärger oder Beanspruchung misst? Ändert sich durch die Konfrontation der Gesellschaft mit diesen Produkten die Bedeutung der Begrifflichkeiten Ärger, Frustration, Beanspruchung? Die Entwicklung kognitiv empathischer Systeme steht zwar noch am Anfang, aber solche Fragen sollten bei der Entwicklung, Gestaltung und Evaluation von Mensch-Maschine Interaktionen von Anfang an immer mitgedacht werden.

5 Interaktionsdynamik und wechselseitige Anpassung

Schon die oben beschriebene Ironie der Automatisierung deutet darauf hin, dass die Entwicklung von Mensch-Maschine Interaktion und Assistenz mit angemessenen Automatisierungsgraden immer auch die Rückwirkung auf die Nutzer mitdenken muss: Der immerzu lernende Mensch passt sich an (vgl. Hoffman et al. 2014). Wenn sich dazu das technische System auf den Menschen adaptiert oder sogar vom und mit dem Menschen interaktiv lernt, dann entsteht Interaktionsdynamik. Neben den schon genannten langfristigen Lerneffekten oder dem Verlust von Fertigkeiten, gibt es neben der Verminderung von situationsbezogener Aufmerksamkeit (vgl. Gombolay et al. 2017; Kaber et al. 2000) auch weitere kurzfristigere Effekte, die für die Gestaltung von Interaktion wichtig sind. In physischer Mensch-Maschine Interaktion wurde gezeigt, dass Menschen sehr schnell und vollständig unbewusst ein Modell des Maschinenverhaltens durch haptische Identifikation lernen, ihr eigenes Verhalten anpassen und so gemeinsam ausgeführte Aufgaben besser erledigen (Li et al. 2017). Ähnliches geschieht auf kognitiver Ebene: Menschen, die beispielsweise einen Roboter belehren sollten, passten sich in ihrem Interaktionsverhalten auf die vermuteten Fähigkeiten des Roboters an (Vollmer et al. 2014). Wird also Interaktion auf eine emotionale oder kognitive Ebene gehoben, so wie in der sozialen Robotik üblich, dann entstehen typische Muster. Zunächst entsteht bei Nutzern eine starke Neugier, die dann schnell nachlässt, wenn die Funktionen des technischen Systems exploriert wurden (Kanada et al. 2004), was wir in dem Zusammenhang dieses Beitrags als fehlgeschlagene Interaktion interpretieren können. Von Sciutti et al. (2018) wurde dazu in Bezug auf Roboter – ähnlich wie bei Ihme et al. (2018b) für allgemeine Mensch-Maschine Interaktion – argumentiert, dass es für die Gestaltung der Interaktion weniger auf die Erscheinung der Technologie als auf eine umfassende Humanisierung der Interaktion ankommt, d. h. dass das technische System ein umfassendes Modell des menschlichen Nutzers braucht, um dessen Bedürfnisse, Intentionen und Limitationen zu verstehen. Das erscheint in diesem umfassenden Anspruch kaum realistisch und ist zurzeit eher ein Forschungsprogramm als Realität. Es bleibt daher die Frage, wie die Gestaltung von Interaktionsdynamik im Design von Mensch-Maschine-Interaktion konkret operationalisiert werden kann.

6 Kritische Bewertung: Chancen und Risiken des Zusammenwirkens menschlicher und künstlicher Intelligenz

Dank des technologischen Fortschritts entwickelt sich das Zusammenwirken von Mensch und Technik rasant weiter. Während technische Systeme in den 1950er Jahren hauptsächlich einfache Messdaten aus der Umgebung lieferten, Anweisungen aufnahmen und in mechanische Aktionen umsetzten, stehen inzwischen künstlich intelligente Systeme im Fokus der Forschung und Entwicklung, die nicht nur kognitiv komplexe Funktionen wie Informationsverarbeitung und Entscheidungsfindung automatisieren, sondern auch die Art und Weise revolutionieren können, mit der wir mit technischen Systemen interagieren. Sie können zum Beispiel mithilfe der Auswertung von Kameradaten Informationen über den aktuellen, emotionalen Zustand von Menschen liefern und ihre eigene Funktionalität an diese Zustände adaptieren.

Die Implementierung von höheren Automationsgraden in den Funktionen der Informationsverarbeitung und Entscheidungsfindung liefert sicherlich die Chance, dass eine bessere Leistung durch das Team Mensch-Technik erreicht wird. Es ist jedoch naiv zu glauben, dass diese quasi automatisch mit zunehmendem Automatisierungsgrad oder umfassenderer Funktionalität erreicht wird. Im Gegenteil birgt auch die Mensch-Maschine Interaktion das Risiko, dass die Aufgabe, die der Mensch zu realisieren hat, komplexer und kognitiv anspruchsvoller wird. Gerade im beruflichen Kontext wäre hier also zu diskutieren, wie auf diese veränderten Anforderungen eingegangen wird: Ist die Personalauswahl anzupassen, sodass nur noch Menschen mit höheren kognitiven Fähigkeiten Systeme mit hoher Informationsverarbeitungs- und Entscheidungsfindungsautomation bedienen dürfen? Ist dies eine Entwicklung, die für die Gesellschaft förderlich ist? Ändert sich die Einschätzung, wenn nicht die Personalauswahl, sondern ein künstlich intelligenter Algorithmus die Entscheidung trifft? Darf künstliche Intelligenz dafür genutzt werden, menschliche Intelligenz bzw. Leistungsfähigkeit zu diagnostizieren? Welche Menschenbilder und Intelligenzdefinitionen lägen dem zugrunde? Ist die Technik dann für die Leistung verantwortlich? Belohnen Maschinen dann nicht das Nichtstun des Menschen, indem sie Menschen essenzielle Aufgaben abnehmen?

Die Implementierung der Anpassungsfähigkeiten an Menschen, insbesondere durch lernende Systeme, basiert auf der Erfassung von Daten über Menschen und deren Auswertung. Auch hier entsteht die Chance, dass sich technische Systeme auf deren Nutzer einstellen und diesen somit eine Last nehmen. Gleichzeitig funktioniert dieser Mechanismus aber nur dann, wenn die technischen Systeme sehr viele Daten erfassen, die Rückschlüsse auf die Person zulassen. Abgesehen von der Sicherheit der Daten und den abgeleiteten Informationen stellt sich hier auch die Frage, ob Menschen dann im Laufe der Zeit nicht auf das Messbare reduziert werden.

Ein möglicher Fortschritt ist, technische Systeme zu kognitiver Empathie zu befähigen, d. h. insbesondere menschliche Emotionen zu erkennen und darauf zu reagieren. Kritisch zu hinterfragen ist dabei aber auch, welches Konzept von menschlichen Emotionen dem technischen System eingeschrieben wird (Manzeschke und Assadi 2019). Wird also der Mensch auf das reduziert, was von künstlich intelligenten Systemen erfasst werden kann? Ist Empathie nicht eine inhärent menschliche Eigenschaft, die verloren geht, wenn sie auf technische Systeme übertragen wird? Wie wird sich unser Verständnis von sozialen Interaktionen, Empathie, Emotion und Kooperation durch hybrides Zusammenwirken verändern? Es könnte auch, analog zur klassischen Ironie der Automation, zu einer Art höherstufiger Ironie der Automatisierung in Mensch-Maschine Interaktion kommen, in der Menschen durch die implizite Normierung in der technisch vermittelten Interaktion die Reichhaltigkeit ihrer emotionalen Verhaltensweisen verloren zu gehen droht.

Die aufgeworfenen Fragen sind sicherlich nicht leicht zu beantworten und können im Rahmen dieses Buchkapitels kaum beantwortet werden. Nichtsdestotrotz sollte darauf verwiesen werden, dass ähnliche Diskussionen im Kontext der Industrialisierung und des Taylorismus schon einmal geführt wurden (Ulrich 1994). Hier wurde das Kriterium der Persönlichkeitsförderlichkeit zur Bewertung menschlicher Tätigkeiten eingeführt (Hacker und Richter 1984). Tätigkeiten sollten also so gestaltet sein, dass diese die (Weiter-)Entwicklung kognitiver und sozialer Kompetenzen, das menschliche Selbstkonzept und die Leistungsmotivation des Menschen fördern. Dieses Kriterium sollte bei der Gestaltung von technischen Systemen berücksichtigt werden. Die Gefahr, dass wir uns zu Tode assistieren (Gransche 2017) und dabei wichtige, auch kognitive Fähigkeiten und Fertigkeiten verlieren, sollte aktiv betrachtet werden. In ihrer Betrachtung zur Rolle von Robotern und der Mensch-Roboter Interaktion in der digitalen Arbeitswelt kamen Steil und Maier (2018) daher auch zu der Einschätzung, dass es wesentlich auf die Arbeitsgestaltung ankommt, ob die neuen Spielräume durch Mensch-Maschine Interaktion in für Nutzer förderlichem Sinne genutzt werden. Ein kritisches Hinterfragen, ob die aktuellen technologischen Entwicklungen auch bei allgemeinerem Mensch-Maschine-Zusammenwirken solchen Kriterien genügen, wird sicherlich helfen, Antworten auf die aufgeworfenen Fragen zu finden.