Der Einsatz autonomer Waffensysteme aus psychologischer Perspektive

The Operation of Autonomous Weapon Systems From a Psychological Perspective

Zusammenfassung

Neue Einsatzbedingungen gekoppelt mit der Einführung neuer, smarter und autonomer Technologien bedürfen ein neues Denken für den Einsatz militärischen Personals und der Berücksichtigung der psychologischen Aspekte autonomer Führungs- und Wirksysteme. Die technologiedominierten Denkmuster der Einsatzplanung und -führung müssen durch einen Ansatz ersetzt werden, der den handelnden militärischen Führer als ein systemisches Element einer intelligenten und smarten Einsatzführung begreift.

Abstract

New operational conditions coupled with the introduction of new, smart and autonomous technologies require new thinking for the deployment of military personnel and the consideration of the psychological aspects of autonomous command and control systems. The technology-dominated thinking patterns of mission planning and command must be replaced by an approach that sees the acting military leader as a systemic element of intelligent and smart command and control.

Einleitung

Der Einsatz autonomer Waffensysteme kann aus sehr unterschiedlichen psychologischen Perspektiven beleuchtet werden. Insbesondere in Hinblick auf die verschiedenen Rollen, in denen Menschen einem autonomen System gegenüberstehen, ist der psychologische Einfluss sehr unterschiedlich. Der vorliegende Beitrag betrachtet vor allem Aspekte der mit autonomen Systemen interagierenden Operateur*innen und militärischen Führer*innen mit einer psychologischen Brille. Dabei geht es um Subjektivität, psychologische Befindlichkeiten, individuelle Wahrnehmungen und die Frage von Unbestimmtheit und Kontrolle in Bezug auf smarte (intelligente) und hochautomatisierte (autonome) Waffensysteme.

Die Frage der Kriterien, ob aktuelle und zukünftige Systeme tatsächlich autonom, im Sinne einer intentionalen Festlegung von Zielen sind, und tatsächlich intelligent, im Sinne einer Problemlösefähigkeit sind, soll hier nicht vertieft werden. Wahrscheinlich werden wir es über eine lange Zeit mit Systemen zu tun haben, die aus einer technisch-wissenschaftlichen Perspektive nur smart und hochautomatisiert sind.

Psychologisch ist der vermeintliche Grad an intelligentem und autonomem Verhalten jedoch oft bereits bei technisch sehr einfachen Systemen erreicht. Die Subjektivität der Attribution von nicht verstandenem oder nicht erwartetem Verhalten als intelligent beziehungsweise als autonom bei technischen Systemen findet sich allenthalben. Autos bekommen menschliche Namen, Maschinen bekommen menschliche Attribute (der ist immer etwas langsam) bis hin zu Bedürfnissen und Absichten (der Computer will mich heute ärgern).

Unbestimmtheit und Komplexität

Die Rahmenbedingungen, unter denen autonome Waffensysteme eingesetzt werden, sind oft durch einen hohen Grad von Unbestimmtheit und Komplexität gekennzeichnet. Die Unbestimmtheit besteht für das eingesetzte Personal zum Beispiel hinsichtlich missionsinterner Faktoren wie Fragen zum Ziel, zu möglichen Kollateralschäden oder auch bezüglich der taktischen und operativen Einbettung des Einsatzes autonomer Wirkmittel, aber auch angesichts missionsexterner Aspekte, wie Fragen der Begründung und der Verhältnismäßigkeit des Einsatzes sowie hinsichtlich ethischer und moralischer Fragen. Auch die Komplexität zeigt sich auf allen Ebenen militärischen und militärisch-politischen Handelns: von der Frage zur Funktionsweise der Technik über die Abstimmung mit den kooperierenden Einsatzkräften bis hin zur Frage der parlamentarischen Einbettung des Einsatzes. Mit zunehmender Anzahl, Dauer, Unterschiedlichkeit und Intensität der Einsätze steigt der Druck auf das eingesetzte Personal, autonome Waffensysteme als komplexe technische Systeme im Rahmen von organisatorischen und prozessualen Vorgaben effizient und effektiv einzusetzen.

Doch trotz der vermeintlichen Autonomie der Systeme entscheidet in vielen, meist kritischen Situationen der Mensch, nicht die Maschine – und das häufig unter Zeitdruck, Informationsdefiziten und hohem Risiko. Fehler, die durch das autonome System, durch die handelnden Personen oder aus der Zusammenarbeit von Mensch und Maschine entstehen, können insbesondere bei Waffensystemen dramatische Konsequenzen haben. Die Aufgabe und Rolle des Menschen ist bei autonomen Systemen in erster Linie in der Planung und Optimierung der Auftragsdurchführung sowie durch das Eingreifen bei Systemstörungen definiert.

Die Arbeiten der Psychologen Dietrich Dörner (1989), Gerd Gigerenzer et al. (1999) und James Reason (1991) haben gezeigt, dass Menschen mit Unbestimmtheit und Komplexität nicht gut zurechtkommen beziehungsweise durch Vereinfachungen, Abkürzungen und Verdrängung das Pippi-Langstrumpf-Prinzip anwenden: Ich mache mir die Welt, wie sie mir gefällt.

Die Bedeutung des Menschen (die sogenannten human factors) als militärischer Führer, als Problem, als Störfaktor, als Bedrohung, Risikofaktor oder als Problemlöser nimmt sowohl in der Welt der vernetzten, globalen Bedrohungen und Herausforderungen zu als auch im Rahmen zunehmend komplexerer Waffensysteme (Schaub 2013).

Asymmetrische Bedrohungen und veränderte Einsatzkonzepte durch autonome Waffensysteme stellen sowohl Waffensystembediener als auch die beteiligten Soldat*innen auf allen Hierarchieebenen vor ungewohnte, unbestimmte sowie unerwartet belastende und kritische Situationen, für die es keine Routineantworten gibt. Durch die hohe Automatisierung bis hin zur Autonomie der Systeme wachsen die Unbestimmtheit und Komplexität der Krisensituationen, in denen autonome Waffensysteme eingesetzt werden beziehungsweise eingesetzt werden könnten. Um die Kontrolle über die Situation (auf taktischer, aber auch strategischer Ebene) nicht zu verlieren, sieht sich der Soldat mit rapide anwachsenden Anforderungen an die Denk‑, Planungs‑, Entscheidungs‑, Führungs- und Handlungsfähigkeit konfrontiert.

Es entsteht die scheinbar paradoxe Situation, dass mit einer Zunahme der Automatisierung militärischer Systeme im Generellen und Waffensysteme im Speziellen, die human factors eine wachsend wichtigere Rolle spielen. Lisanne Bainbridge (1983) wies bereits in den 1980er Jahren darauf hin, dass diese Automatisierung von Überwachungs- und Steuerungsprozessen von einer Reihe von Paradoxien und Ironien begleitet wirdFootnote 1:

  • Menschen werden von Politiker*innen, Manager*innen, Entscheider*innen und Entwickler*innen als zu langsam und als Fehlerquelle betrachtet und deshalb durch automatisierte Waffensysteme ersetzt. Allerdings sind auch die Politiker*innen, Manager*innen, Entscheider*innen und Entwickler*innen Menschen und damit anfällig für Entscheidungs- und Entwicklungsfehler.

  • Aufgaben eines militärischen Führungs- und Wirksystems, die sich aktuell nicht automatisieren lassen, zum Beispiel, weil sie zu komplex sind oder sich nicht vollständig a priori spezifizieren lassen, werden auf den Soldaten, also auf das vermeintlich schwächste Glied in der Wirkkette übertragen.

  • Der Soldat wird durch ein automatisiertes System ersetzt, weil die Systeme die Aufgaben besser durchführen können. Der Mensch muss aber die Systeme überwachen und prüfen, ob diese korrekt funktionieren. Im Fehler- oder Störfall soll der Soldat eingreifen und manuell übernehmen.

  • Zuverlässigste hochautomatisierte Systeme erfordern den höchsten Trainingsaufwand, weil im Betrieb keine Möglichkeit der aktiven Kontrolle und Steuerung des Systems durch den Soldaten möglich ist. Unverlässliche Systeme dagegen bedürfen des regelmäßigen, aktiven Eingreifens durch den Soldaten und erhalten damit seine manuellen Kontroll- und Steuerungsfähigkeiten.

Im Rahmen des Einsatzes autonomer Systeme muss und wird es eine Veränderung der Führungsorganisation, der Führungsprozesse, der Führungsmittel sowie der Führungsunterstützung geben; das gilt nachträglich vor allem auch bei autonomen Wirkmitteln. Dies muss sich notwendigerweise auf die Bereiche der Personalauswahl, der Aus‑, Fort- und Weiterbildung, der Gestaltung der Arbeitssysteme oder Mensch-Maschine-Interaktion und der Organisationsentwicklung auswirken. Die Rolle des Menschen als Akteur in der Interaktion mit komplexen, autonomen militärischen Systemen bleibt dabei nicht nur auf Bediener- und Nutzerproblematik begrenzt, sondern autonome Systeme erweitern auch den Handlungsspielraum und damit die Komplexität der Interaktionsmöglichkeiten mit den Systemen und den daran teilhabenden oder davon betroffenen Personen.

Zunehmende Automatisierung und Autonomie

Die vorliegende Analyse unterscheidet vier Problemfelder der human factors in der Interaktion mit komplexen, autonomen Systemen:

  • Digitalisierung und vernetzte Informationen;

  • hybride militärische Einsätze autonomer Systeme (Waffensysteme, aber auch Cyberbots);

  • Transformation der Krisenszenarien hin zu stärker zivil-militärischen Szenarios und Szenarios mit starkem Einfluss durch Social Media;

  • smarte (intelligente), hochautomatisierte (autonome) Informations- und Wirksysteme.

Im Zeitalter von Digitalisierung und Künstlicher Intelligenz (KI) betreffen human factors vor allem den Einsatz und den Umgang mit komplexen Interaktions- und Kommunikationsmedien und -verfahren, deren Vernetzung und Digitalisierung sowie die Grenzen und Möglichkeiten eines umfassenden Informations- und Kommunikationstechnikverbundes. Dabei stehen insbesondere das Führen, Entscheiden und Handeln in hochkomplexen, risikoreichen und unbestimmten Situationen im Vordergrund. In diesem Rahmen spielen die Prozesse der Veränderung, Anpassung, aber auch Beharrungstendenzen von Menschen und Organisationsformen in einem System, das sich ständig an veränderte gesellschaftliche, sicherheits- und verteidigungspolitische sowie technische Rahmenbedingungen anpassen muss, eine wesentliche Rolle.

In den Human- und Sozialwissenschaften wurde als Grundlage der Mensch-System-Integration der Begriff des soziotechnischen Systems geprägt. Im Zentrum steht die zu bewältigende Arbeitsaufgabe: Mensch, Organisation und Technik sind dabei gleichwertige Ressourcen zur Erfüllung militärischer Aufgaben.

In der Diskussion, Entwicklung und Nutzung autonomer Waffensysteme beziehungsweise autonomer Systeme generell ist eine faktische und zeitliche Dominanz der Technik zu beobachten. Diese Dominanz ist ein generelles Problem, wie Pöppel (2008, S. 25, Hervorhebung im Original) konstatiert:

Manchmal hat man den Eindruck, als würden technologische Entwicklungen vor allem durch „junge männliche rechtshändige Ingenieure“ vorangetrieben, die mit Begeisterung das entwickeln, was sie können. Das ist gut. Aber viele fragen sich zu selten, was Menschen brauchen und wie sie es gebrauchen können.

Obschon auch im physiometrischen Bereich Fehler in der Konzeptions- und Projektierungsphase von Arbeitsplätzen (zum Beispiel für Drohnenoperateur*innen beziehungsweise Drohnenpilot*innen) gemacht werden, sind diese im Großen und Ganzen an die ergonomischen Möglichkeiten des (männlichen) Bedieners angepasst (zum Beispiel hinsichtlich Körpergröße). Für den Bereich der psychosozialen und kommunikativen Aspekte gilt dies nicht. Faktoren wie kognitive Verarbeitungsmechanismen, Denkfallen, Wahrnehmungstäuschungen, Erwartungsbrüche, Kommunikationsprobleme, emotionale und motivationale Prägungen, soziale Prozesse etc. werden in der Projektierungs-, aber vor allem auch Anwendungsphase von komplexen militärischen Systemen im Allgemeinen und von hochautomatisiertem oder gar autonomen Systemen im Speziellen entweder unzureichend oder (zumeist) gar nicht bedacht. Dies führt zu schwer oder fehlerträchtig bedienbaren Systemen mit hohen Reibungsverlusten sowie hohen Fehlerwahrscheinlichkeiten. Fatal wird dieser Umstand, wenn der Benutzer die technischen Systeme unter den Bedingungen von Stress, Bedrohung und Unbestimmtheit einsetzen muss. Notwendigerweise erschient der Soldat dann als Störung in einem System, welches seine Fähigkeiten und Grenzen nicht adäquat unterstützt. Die Konsequenz heißt dann: mehr Automatisierung, mehr Autonomie für das Waffensystem; der Mensch ist zu langsam, zu unzuverlässig und kognitiv nicht in der Lage, die jeweilige militärische Situation adäquat zu bewerten und entsprechend zu handeln.

Einerseits stellt militärisches, strategisches Denken seit jeher explizit den Menschen in den Mittelpunkt der Planung und Durchführung militärischer Aktionen und Einsätze. Anderseits wird immer wieder darauf hingewiesen, dass sich in der Transformation der Streitkräfte zu einer modernen, effizienten und effektiven Organisation alle Anstrengungen darauf konzentrieren sollten, einen qualitativen und signifikanten Sprung in den militärischen Fähigkeiten und damit in der Wirksamkeit der Streitkräfte zu erreichen. Das impliziert zwangsläufig die konsequente Nutzung des Fortschritts in der Entwicklung von Hardware sowie Software und deren Umsetzung, Integration und Einsatz im Handlungsfeld unter Nutzung von smarten (intelligenten) und hochautomatisierten (autonomen) Informations‑, Führungs- und Wirksystemen.

Der Mensch als zentrales Element der Aufgabenbewältigung

Für die Nutzung autonomer Systeme, insbesondere Waffensysteme, folgt aber auch, dass die Auswirkungen der Veränderungen von sicherheitspolitischen Aufgaben und die zur Lösung der Probleme bereitstehenden Techniken, Organisationsformen und Verfahren mit Blick auf den Menschen als zentrales Element der Aufgabenbewältigung zu analysieren, zu verstehen und zu optimieren sind. Vor diesem Hintergrund stellt sich zusätzlich die Aufgabe, das Personal zu motivieren, auszubilden, zu fördern und in letzter Konsequenz auch für die Tätigkeit auszuwählen.

Im Rahmen der Nutzung hochautomatisierter Systeme als ein Kernelement der Entwicklung der Streitkräfte besteht die Notwendigkeit, neben den technischen Bedarfsanalysen, intensiv über veränderte Führungsverfahren und Organisationsformen nachzudenken, die den Anforderungen durch neue Informations- und Kommunikationstechnologien im Sinne des Auftrages zielführend gerecht werden, und den beteiligten Führungskräften, Operateur*innen und generell den Soldat*innen ihren angemessenen Platz zu zuweisen.

Der Weg zur verstärkten Nutzung autonomer Systeme kann keine rein technologische Fragestellung sein. Parallel dazu darf der Soldat als human factor nicht als Störfaktor, sondern muss als das wesentliche Element von digitalisierten, KI-gestützten militärischen Fähigkeiten erkannt werden. Nur so kann verhindert werden, dass Schlussfolgerungen gezogen werden, die zwar aus technischer Sicht erfolgversprechend erscheinen, jedoch nicht im ganzheitlichen Interesse des Anpassungsprozesses der Streitkräfte wären. Denn es gilt die Köpfe der militärischen Führer*innen und Entscheider*innen mit hochautomatisierten Systemen zu unterstützen, nicht sie zu ersetzen.

In den letzten Jahrzehnten sind in den Human- und Sozialwissenschaften eine Reihe von Phänomenen beschrieben und sowohl Theorien als auch Methoden entwickelt worden, die eine hohe Relevanz hinsichtlich der Beschreibung, Analyse und Bewertung des Handelns und Führens von Soldat*innen in militärischen Situationen haben. Insbesondere spielen diese Ansätze eine Rolle, um die komplexen Prozesse zu verstehen, die im Umgang mit kompliziertem technischen Wehrmaterial, häufig in komplexen Organisationsformen, ablaufen. Dabei geht es darum, mögliche Fehlerquellen zu antizipieren, realisierbares Optimierungspotenzial zu nutzen und letztlich ein Gesamtsystem aus Mensch, Technik und Organisation zu schaffen. Mit den Theorien des komplexen Problemlösens konnte unter anderem gezeigt werden, dass bei anspruchsvollen Aufgaben nicht nur kognitive Prozesse (wie Wahrnehmen und Denken) beim Handelnden bedeutsam sind, sondern auch emotionale, motivationale und soziale Prozesse eine entscheidende Rolle bei der Aufgabendurchführung spielen. Die Forschungen zum natural decision making zeigen die praktischen und pragmatischen Handlungshilfen auf, die Menschen nutzen, um mit ihrer komplexen Arbeitsumwelt umzugehen. Die Forschungen zu shared mental models haben die Bedeutung gemeinsamer Zeichen‑, Sprach‑, Wissens- und Erwartungsräume von gemeinsam agierenden Teams nachgewiesen. Die Arbeiten zur situation awareness haben gezeigt, dass bei vielen menschlichen Tätigkeiten (zum Beispiel in der Prozess- und Fahrzeug- oder Flugzeugführung), ein ausreichendes Situationsbewusstsein erforderlich ist und menschliches Fehlverhalten häufig durch ein unzureichendes Situationsbewusstsein erklärt werden kann. Es ist sicherzustellen, dass militärische Forderungen, die aus operationell-technischen Fähigkeitslücken entstehen, auch die Eigenschaften von Einsatz- und Führungskräften berücksichtigen, damit personell erfüllbare technische Forderungen formuliert werden. Diese Erkenntnisse werden durch autonome Systeme nicht obsolet, sondern gewinnen im Gegenteil eine besondere Bedeutung.

Die Nutzung komplexer hochautomatisierter Systeme muss auf einem gemeinsamen Informationsraum aller Akteure (Personen, Institutionen, Organisationen und smarter Technologie) basieren. Die Teilnahme an diesem Informationsraum setzt die technische Vernetzung der einzelnen intelligenten Knoten (Mensch und/oder autonomes System) im Netzwerk voraus. Das bedeutet die Sicherstellung des gemeinsamen Datenraumes und somit die technische Verfügbarkeit von sinnvoll kombinierten Zeichen im Netzwerk. Der Datenraum bleibt an sich bedeutungs- und wirkungslos, wenn er nicht in einem zweiten Schritt in einen Informationsraum überführt wird. Der Informationsraum setzt die Daten in einen benutzerdefinierten Problemzusammenhang zur Aufgabenerfüllung, um in Bezug auf die Zielerreichung eine Wirkung zu erzielen. Die militärische Dominanz des Informationsraumes entsteht im dritten Schritt durch die Kombination der erreichbaren und verwerteten Informationen in Verbindung mit den persönlichen Erfahrungen, Motivationen und Problemlösungsprozessen der Entscheidungsträger*innen. Jedoch wird diese Dominanz nur dann erreicht, wenn die Informationen als Wissen in einem sinnstiftenden Zusammenhang zur Problembewältigung von autonomen Systemen unterstützt werden. Welche Informationen und welches Wissen genutzt werden kann, hängt letztlich von den kognitiven und soziokulturellen Eigenschaften, Strukturen und Prozessen der Akteure ab. Autonome Systeme müssen in diesem Kontext in der Lage sein, Informationen und Wissen mit den menschlichen Akteuren angemessen zu teilen. Das gemeinsame Lagebewusstsein im Sinne der shared mental models ist somit Teil des soziotechnischen Systems aus hochautomatisierten (Waffen‑)Systemen und menschlichen Entscheider*innen und Bediener*innen.

Die Entwicklung und Bereitstellung der Fähigkeit zur Nutzung hochautomatisierter, autonomer (Waffen‑)Systeme setzt auf der Seite der menschlichen Nutzer*innen bestimmte psychologische Befähigungen voraus, beziehungsweise müssen diese durch eine geeignete Personalauswahl und -entwicklung hergestellt werden. Dazu bedarf es von Seiten der Organisation, die autonome Systeme einsetzen will, die Bearbeitung einer Reihe von Aufgaben. Dazu gehören unter anderem:

  • die Analyse der jeweiligen Einsatzszenarien hinsichtlich ihrer psychosozialen Anforderungen,

  • die Identifizierung des jeweiligen Informationsaustausches der Entscheidungsträger*innen mit den autonomen Systemen und

  • die Beschreibung der Prozesse von Informationsauswertung und Entscheidungsfindung der entscheidungsbefugten Personen in der Kollaboration mit autonomen Systemen.

Ohne eine enge Verzahnung der technischen Entwicklungen mit Erkenntnissen aus der Forschung zu human factors besteht die Gefahr, dass die konzeptionelle Weiterentwicklung komplexer, hochautomatisierter Systeme, wie autonome Waffensysteme, scheitert.

Die Bedeutung der human factors

Menschliches Handeln ist zielgerichtet, vollzieht sich aber immer in einem spezifischen Kontext. Die Zielgerichtetheit des menschlichen Handelns bezieht sich auf die Erledigung von Absichten. Der Kontext des Handelns bestimmt die Rahmen- und Randbedingungen, innerhalb derer erfolgreiches Handeln möglich ist. Es lassen sich verschiedene Abstraktionsstufen menschlichen Handelns unterscheiden, die den Kontext bestimmen, innerhalb dessen dieses Handeln eingebettet ist, und damit den Möglichkeitsbereich erfolgreicher Missionen maßgeblich beeinflussen. Der Führungsprozess stellt einen folgerichtigen und wiederkehrenden Zyklus dar. Die Bearbeitung der einzelnen Teilschritte im Führungsprozess gehört zu den Grundwerkzeugen der militärischen Führungskultur der Bundeswehr.

Betrachtet man menschliches Verhalten, so ist eine methodisch saubere Unterteilung der einzelnen Schritte des menschlichen Handelns unabdingbar für ein vertieftes Verständnis. Unterschiedliche Methoden und Modelle werden von verschiedenen Disziplinen zur Erklärung und Beschreibung des menschlichen Denkens, Planens und Handelns verwendet. Sie unterscheiden sich zumeist im Grad der Vollständigkeit und in der Schwerpunktsetzung. Als zielführend zur Prognose, Erklärung und zum Training menschlichen Handelns im militärischen Kontext haben sich psychologische Modelle zur Handlungsorganisation erwiesen.

Die Interaktionen von militärischen Führer*innen und Operateur*innen mit hochautomatisierten Systemen in militärischen Krisensituationen lassen sich aus der Perspektive der human factors mit wenigen, handlungsrelevanten Kriterien beschreiben: Komplexität, Eigendynamik, Bedrohung, Zielpluralität, Unbestimmtheit, Irreversibilität und interkulturelles Umfeld. Sie finden sich wieder auf allen Komplexitätsebenen menschlichen Handelns: Individuum, Gruppe/Team, Organisation. Deshalb ist es im Rahmen der Entwicklung und Nutzung komplexer, autonomer und smarter militärischer Systeme nötig, ein umfassendes Begriffsverständnis von human factors zugrunde zu legen. Eine Eingrenzung auf zum Beispiel Gebiete wie Ergonomie greift zu kurz. Denn die human factors der Soldat*innen betreffen eine Vielzahl von Themenbereichen:

  • Belastung und Stress vor, während und nach dem Einsatz autonomer Waffensysteme;

  • Belastung und Beanspruchung durch die Ausrüstung und Ausstattung autonomer Waffensysteme;

  • Anforderungen an, Qualität des und Vertrauen in das Führungspersonal autonomer Waffensysteme;

  • kognitive Ergonomie der Nutzung und Bedienung autonomer Waffensysteme;

  • Interaktions- und Kommunikationsprozessanalysen in Führungseinrichtungen, vor allem bei der Kollaboration zwischen autonomen, smarten Systemen und dem beteiligten Personal;

  • Stimmigkeit von Führungsprozess, Führungsverfahren, Führungsorganisation, individueller Führungsleistung und Führungsunterstützung im Hinblick auf durch autonome, intelligente Systeme mitdefinierte Krisenszenarien;

  • Personalauswahl, -beurteilung und -entwicklung hinsichtlich neuer und veränderter Anforderungen beim Führen und Bedienen autonomer Systeme;

  • Organisationsentwicklung, Optimierung von Organisationsprozessen inklusive angemessener Veränderungsprozesse durch die notwendige Anpassung an das veränderte Umfeld (Autonomie, KI, Digitalisierung, Social Media, human domain);

  • psychologische Veränderungen und Wechselwirkungen der Elemente von DIME (diplomacy, information, military, economy) oder PMESII (policy, military, economy, social, infrastructure, information) durch den Einfluss neuer, nicht menschlicher Agenten mit der Fähigkeit zu Autonomie und (künstlicher) Intelligenz.

Ein neues Denken in der Sicherheits- und Verteidigungspolitik

Die vorliegende Analyse hat gezeigt, dass neue Einsatzbedingungen, gekoppelt mit der Einführung neuer Technologien, nicht nur ein neues Denken für den Einsatz militärischer Führer*innen und militärischen Personals, sondern auch die Berücksichtigung der psychologischen Aspekte autonomer Führungs- und Wirksysteme auf der militärisch-politischen Ebene bedürfen. Für das Militär ergibt sich daraus die Notwendigkeit, technologiedominierte Denkmuster und Einsatzführung zu überwinden und den handelnden militärischen Führer als ein systemisches Element einer integrierten Entwicklung zu einer intelligenten und smarten Einsatzführung zu begreifen.

Soldat*innen sind mehr als beliebige Systemkomponenten im militärischen Verbund mit intelligenten und autonomen Systemen. Die Streitkräfte sind auf allen Ebenen gefordert, die Komplexität sich wandelnder Bedrohungen und transformierender Einsatzformen zu bewältigen, und im Sinne der Aufgabe zu führen, zu entscheiden und zu handeln. Somit sind human factors keine Störfaktoren militärischer Operationen, die durch autonome Informations‑, Führungs- und Wirksysteme ersetzt werden können. Vielmehr sollten hochautomatisierte, autonome und intelligente Systeme zur Erhöhung der mission effectiveness auf die Optimierung der Mensch-System-Integration ausgerichtet werden.

Notes

  1. 1.

    Bainbridge wies dies 1983 für die Prozessindustrie nach.

Literatur

  1. Bainbridge, L. (1983). Ironies of automation. Automatica, 19(6), 775–779.

    Article  Google Scholar 

  2. Dörner, D. (1989). Die Logik des Misslingens: Strategisches Denken in komplexen Situationen. Hamburg: Rowohlt.

    Google Scholar 

  3. Gigerenzer, G., Todd, P. M., & ABC Research Group (1999). Simple heuristics that make us smart. New York: Oxford University Press.

    Google Scholar 

  4. Pöppel, E. (2008). Zum Entscheiden geboren. München: Hanser.

    Google Scholar 

  5. Reason, J. (1991). Human error. Cambridge: Cambridge University Press.

    Google Scholar 

  6. Schaub, H. (2013). Der Mensch als Problem und Problemlöser. Der Systemische Ansatz für Führung und Krisenmanagement. In C. Unger, T. Mitschke & D. Freudenberg (Hrsg.), Krisenmanagement – Notfallplanung – Bevölkerungsschutz (S. 193–210). Berlin: Duncker & Humblot.

    Google Scholar 

Download references

Funding

Open Access funding enabled and organized by Projekt DEAL.

Author information

Affiliations

Authors

Corresponding author

Correspondence to Prof. Dr. Harald Schaub.

Rights and permissions

Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.

Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.

Reprints and Permissions

About this article

Verify currency and authenticity via CrossMark

Cite this article

Schaub, H. Der Einsatz autonomer Waffensysteme aus psychologischer Perspektive. Z Außen Sicherheitspolit 13, 333–342 (2020). https://doi.org/10.1007/s12399-020-00828-3

Download citation

Schlüsselwörter

  • Autonome Waffensysteme
  • Unbestimmtheit
  • Komplexität
  • Soziotechnisches System

Keywords

  • Autonomous weapon systems
  • Indeterminacy
  • Complexity
  • Socio-technical system