Skip to main content

Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS)

  • Chapter
  • First Online:
Die Maschine: Freund oder Feind?

Zusammenfassung

In der Debatte um autonome Waffensysteme (AWS) spielt das Motiv der menschlichen Kontrolle über die Entscheidungsprozesse dieser Systeme eine zentrale Rolle. Der Text zeigt auf, welche möglichen Entwicklungshorizonte derzeitige Konzeptstudien des US-Militärs vorsehen und inwieweit diese Konzepte sich mit fiktionalen Narrativen aus dem Spielfilm kreuzen. Zunächst wird dazu die zeitgenössische Debatte um AWS charakterisiert. Im Anschluss wird dargelegt, inwieweit das Motiv der Kontrolle über Entscheidungsprozesse der Maschinen in ausgewählten Hollywood-Spielfilmen den 1980er- und frühen 1990er-Jahren vorgezeichnet ist. Ein Ausblick auf die Konsequenzen, welche die Entwicklung autonomer Waffensysteme hinsichtlich der Interfaces zwischen Mensch und Maschine mit sich bringen, rundet die Ausführungen ab.

Für wertvolle Hinweise und Kommentare sowie Hilfe bei der Korrektur des vorliegenden Textes danke ich Thomas Bächle und Jule Wegen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 34.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 44.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Seit 2013 wird die Frage der Regulierung von AWS im Rahmen der United Nations Convention on Certain Conventional Weapons (CCW) diskutiert.

  2. 2.

    Eine Definition des Interface-Begriffs findet sich bei Cramer und Fuller (2008). Das Feld der medienwissenschaftlichen Interface-Forschung kann hier nicht in Gänze abgesteckt werden. Siehe exemplarisch Distelmeyer (2017); Ernst und Schröter (2017); Hadler und Haupt (2016); Kaerlein (2015).

  3. 3.

    Der Begriff wird in Absch. 2.1 diskutiert. Eine Klassifikation von AWS findet sich bei Roff (2017).

  4. 4.

    Alle diese Eigenschaften finden sich in den verschiedenen Definitionen von Autonomie. Die Begriffe von Autonomie in den primären Konzeptstudien der Militärs (z. B. US Defense Science Board 2012) unterscheiden sich dabei teilweise von akademischen Debatten (z. B. Sartor und Omicini 2016, S. 39 f.). Die angeführten Merkmale können aber als gemeinsame Schnittmenge angesehen werden (siehe auch Roff 2017, S. 256).

  5. 5.

    Weiterführend auch Suchman 2017, S. 276, Anm. 8.

  6. 6.

    Anders formuliert es das US-Verteidigungsministerium in einem oft zitierten Passus aus Direktive 3000.09 Autonomy in Weapon Systems (US Department of Defense 2012, S. 2): „Autonomous and semi-autonomous weapons systems shall be designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force“ (siehe auch Sharkey 2016, S. 25)

  7. 7.

    Die medientheoretischen Argumente von Friedrich Kittler zum Verhältnis von Medien und Krieg sind zusammenfassend dargestellt in Winthrop-Young (2005), S. 115 ff.

  8. 8.

    Der Begriff findet sich in der Kriegssoziologie, hier zitiert nach Holzinger (2014), S. 461.

  9. 9.

    Das setzt einen konservativen Akteur-Begriff voraus. Geht es nach der Akteur-Netzwerk-Theorie, sind AWS – wie jede Technologie – längst soziale Akteure. Einen einführenden Überblick gibt Loon (2014).

  10. 10.

    Die derzeit vorherrschende Forschungsperspektive ist durch die STS geprägt (Lengersdorf und Wieser 2014). Siehe zu AWS insb. die Arbeiten von Jutta Weber und Lucy Suchman (Suchman und Weber 2016, Weber 2016).

  11. 11.

    Zur Konzeptionalisierung von Medienwissenschaft als einer Disziplin, die im Modus zweiter Ordnung operiert, siehe die Überlegungen bei Pias (2011). Theorien wie die STS (genau wie die Systemtheorie) sind nie als Medientheorie gedacht gewesen. Allerdings hat sich eine medientheoretische Lektüre ihrer Grundannahmen und Einsichten als sehr produktiv erwiesen, man denke nur an die Rezeption der Akteur-Netzwerk-Theorie im Rahmen einer „Akteur-Medien-Theorie“ (Thielmann und Schüttpelz 2013). Im vorliegenden Rahmen ist es nicht beabsichtigt, sich auf eine theoretische Vorgabe festzulegen oder die Vor- und Nachteile einer Theorie hervorzuheben. Auch die bisherige Beschäftigung der Medientheorie mit Krieg und Militärtechnologie kann hier nicht aufgearbeitet werden (zum Zusammenhang von Medien, Krieg und Raum zuletzt die Beiträge in Nowak 2017, insbesondere die Einleitung von Lars Nowak).

  12. 12.

    Im Fachjargon „Command, Control, Communication, and Computers“ (C4) genannt.

  13. 13.

    So können etwa Drohnen als ein Medium begriffen werden (Bender und Thielmann 2019, im Erscheinen)

  14. 14.

    Für die Hinweise zu dieser Literatur danke ich Jens Schröter.

  15. 15.

    Zugegebenermaßen ist die in der Forschung notorische Fixierung auf die USA eine dürftige Grundlage, betrachtet man den internationalen Kontext. China, Russland, Israel und Indien muss ebenfalls Beachtung geschenkt werden.

  16. 16.

    Der Beginn dieser Entwicklung dürfte ein selbstgesteuertes taktisches Verhalten des Systems sein, das vor dem Hintergrund übergreifender strategischer Vorgaben zu eigenen Bewertungen kommt. Als eine Weiterentwicklung von komplexen und bereits implementierten Überwachungstechnologien, etwa dem US-amerikanischen Gorgon Stare-Programm, ist das leicht denkbar.

  17. 17.

    Doppelte Kontingenz beschreibt seit Talcott Parsons „[...] die prinzipielle Unzugänglichkeit des jeweiligen Bewusstseins von Akteuren für sein Gegenüber und insofern die prinzipiell immer anders sein könnenden Erwartungen des einen Akteurs gegenüber den Erwartungen des anderen.“ (Calm 2008, S. 155).

  18. 18.

    Siehe hier im Kontext die Grundanlage der Systemtheorie bei Luhmann (1987).

  19. 19.

    Aufgerufen sind damit (unter anderem) alte Motive der philosophischen Anthropologie. Zu nennen ist insbesondere die Debatte um die Unzulänglichkeit des Menschen im Angesicht seiner technischen Artefakte, wie sie bei Günther Anders bereits in den 1950er-Jahren geführt wurde (Anders 1994). Heute wird die anthropologische Frage im AWS-Diskurs vorwiegend in kognitionswissenschaftlichen Begriffen verhandelt, sofern kognitive Vermögen des Menschen, etwa die perzeptive Fähigkeit, Muster zu erkennen, oder die Kompetenz, in unbekanntem Terrain Probleme zu lösen, in Maschinen integriert werden.

  20. 20.

    Einen Begriff von Autonomie wird man ohne die Berücksichtigung von Kognition nicht haben (Sartor und Omicini 2016). Auch in der Unmanned Systems Integrated Roadmap 2013–2038 ist die Definition von Autonomie explizit an Kognition gebunden (US Department of Defense 2013, S. 29, S. 66 ff.).

  21. 21.

    Sporadisch spricht man auch von „semi-autonomen Systemen“ (Sharkey 2016).

  22. 22.

    In Bhuta et al. (2016b) werden die unterschiedlichen Begriffe, so etwa in den Beitrag von Sharkey (2016), zusammengestellt und kritisch diskutiert.

  23. 23.

    Letztere dienen zur Verfolgung von Hitzesignaturen, um beispielsweise Stealth-Flugzeuge aufspüren zu können, also Flugzeuge, die von Radar nicht geortet werden können. Stealth wiederum ist eine Technologie, die bis Ende der 1980er-Jahre geheim war, in Gestalt der F-117 Nighthawk-Jagdbombers und des B-2 Spirit-Bombers aber technisch bereits umgesetzt worden ist.

  24. 24.

    Siehe zu „situational awareness“ im Kontext des Network-Centric Warfare (NCW) und autonomer Waffensysteme Ernst (2017); Suchman (2015, 2017).

  25. 25.

    Zu realen Szenarien mangelnder „situational awareness“ auf Seiten der menschlicher Controller im letzten Afghanistan-Krieg siehe Suchmann (2015). Auch in der fiktionalen Welt von Aliens wäre die Möglichkeit gegeben, dass das Waffensystem Unschuldige tötet. Da die zu Zwecken der Aufklärung herbei geeilten Marines ein kleines Mädchen bergen, das überlebt hat, ist nicht auszuschließen, dass weitere Überlende, die noch nicht entdeckt wurden, in den Sensorbereich des Systems laufen. Umso wichtiger ist die Frage, über welche Art von Freund/Feind-Erkennung das Remote Weapon Sentry System verfügt. Lucy Suchman (2015, 2017) verschränkt die Diskussion um „situational awareness“ daher mit der Frage, nach welchem „principle of distinction“ AWS funktionieren. Sind diese Systeme beispielsweise in der Lage, Zivilisten zu erkennen oder verwundete bzw. sich ergebende Akteure von kämpfenden Akteuren zu unterscheiden?

  26. 26.

    Ein Bild des Terminators ziert fast jeden Artikel, der in der Öffentlichkeit derzeit zu AWS im Umlauf ist. Die Filme sind ein beständiger Bezugspunkt der medien- und kulturwissenschaftlichen Auseinandersetzung mit AWS (siehe Marsiske 2012b sowie die vielen Bezugnahmen auf die Filme in Singer 2010, hier insb. S. 168 ff.).

  27. 27.

    Im dritten Teil der Terminator-Serie, Terminator 3 – Rise of the Machines, gibt es gegen Ende einen Moment der ethischen Reflexion des T-800 (Weber 2008, S. 43 f.).

  28. 28.

    Diese üblicherweise als „Mini-Gun“ bezeichnete Waffe arbeitet zwar „nur“ mit einem 7,62 mm Kaliber. Optisch weist aufgrund der gemeinsamen Gatling-Bauweise aber große Ähnlichkeiten zum Phalanx-System auf.

  29. 29.

    Aus dem Vergleich von Aliens und Terminator 2 könnte an dieser Stelle noch mehr abgeleitet werden. Zu diskutieren wäre beispielsweise der Umstand, dass im Terminator-Franchise die Menschen sich in Gestalt des T-800 erst einmal wieder so etwas wie Kontrolle über die inzwischen ihnen feindlich gegenüberstehenden AWS der KI Skynet zurückerobern müssen. Zudem werden die Akteure in Terminator 2 noch von einem – im Sinne des Modells von Gutmann, Rathgeber und Syed gesprochen – „bionomischen“ AWS gejagt, dem oft zitierten T-1000.

  30. 30.

    Um diesen Gegensatz geht es in der Fomulierung einer Autonomie auf Ebene der „mission execution“ und einer Autonomie auf Ebene der „mission performance“.

  31. 31.

    Das schließt nicht aus, dass AWS (oder jedes andere autonome System) nicht prinzipiell die Kapazitäten von Menschen überschreiten oder aber Menschen in solche Wechselwirkungen mit diesen Systemen eintreten können, in denen menschliche Intentionalität der agency des Systems untergeordnet ist. Es geht nur um die Markierung des Umstandes, dass die Abläufe des Systems noch menschliche Kapazitäten vorsehen.

  32. 32.

    Verwendung findet ein solcher Technikbegriff in vielen Ansätzen aus dem Bereich der Posthumanismus-Debatte (Herbrechter 2009) und den STS (Lengersdorf und Wieser 2014). Er liegt auch der medienwissenschaftlichen Kulturtechnikforschung zugrunde (Siegert 2011).

  33. 33.

    Die Metaphorik des Zusammenklammerns und die Bedingungen von „systemtic arrangements“ ließen sich im Kontext der STS mit Hilfe der Arbeiten von Andrew Pickering (1995) weiter ausarbeiten (einführend auch Schubert 2014).

  34. 34.

    In der Systemtheorie Luhmanns ist die „strukturelle Kopplung“ sowohl ein Begriff, der den des impliziten Wissens ersetzt, als auch ein Zustand, der durch Medien etabliert wird (siehe dazu Ernst 2013 sowie im weiteren Kontext auch die Beiträge in Ernst und Schröter 2017).

  35. 35.

    Man könnte das in Anlehnung an die bekannten philosophischen Diskussionen um den Freiheitsbegriff als „negative Autonomie“ bezeichnen, die von einer „positiven Autonomie“ abzugrenzen wäre (Khurana 2011).

  36. 36.

    Siehe aus interfacetheoretischer Sicht dazu auch Kaerlein (2015); Wirth (2016, 2017).

  37. 37.

    Siehe zur Theorie des Internets der Dinge auch die Beiträge in Sprenger und Engemann (2015).

  38. 38.

    Einen Eindruck der Diskussion zu Interfaces in Cockpits Ende der 1980er-/Anfang der 1990er-Jahre gibt AGARD 1992.

  39. 39.

    In Terminator 3 – Rise of the Machines erscheint Skynet als eine „Neural net-based artifical intelligence“, die, so die Fiktion im Jahr 2003, mit 60 Teraflops prozessiert. Zur Orientierung: Im November 2017 lag die reale Leistung des Sunway TaihuLight-Supercomputers im chinesischen Wuxi bei 93,014.6 Teraflops (nachzulesen auf https://www.top500.org, abgerufen am 28. April 2019). Zu nennen sind hier aber auch das WOPR-System („War Operation Plan Response“) aus dem Thriller WarGames (USA 1983). Als Produkt des Kalten Krieges ist der WOPR vorrangig mit den strategischen Spielen rund um die Konfrontation der Supermächte befasst. Ein Beispiel jüngeren Datums ist dagegen die KI „Autonomous Reconnaissance Intelligence Integration Analyst“ (ARIIA) aus dem Action-Film Eagle Eye (USA 2008). Dieses System ist über das Internet der Dinge verteilt und um die generelle Sicherheit der Vereinigten Staaten besorgt.

  40. 40.

    Zur Infrastrukturforschung in den STS siehe überblickend Niewöhner (2014).

  41. 41.

    Die Filmwissenschaft hat diese Unterscheidung in die Differenz zwischen „Körper-KI“ und „Hyper-KI“ umformuliert und unterschiedlichen Motiven zugeordnet: humanoide Körper-KI drängt zur „Menschwerdung“ während körperlose Hyper-KI „Kontrolle über Menschen“ anstrebt (Irsigler und Orth 2018, S. 39 ff).

  42. 42.

    Mutmaßlich eine Anspielung auf den Cyborg in RoboCop (USA, 1987).

  43. 43.

    Wie leicht auf Wikipedia nachzulesen, war die F-14 Tomcat, bekannt aus Top Gun (USA 1986), ein US-amerikanischer Luftüberlegenheitsjäger, den die US-Regierung an das iranische Schah-Regime geliefert hatte und das nach der Revolution der neuen Regierung in die Hände gefallen war. Allerdings verfügte die F-14A, die an den Iran geliefert wurde, über keine nennenswerte Luft-Boden-Fähigkeit (https://de.wikipedia.org/wiki/Grumman_F-14, abgerufen am 28. April 2019).

  44. 44.

    Hier ist zu erwähnen, dass sich die Vincennes zum Zeitpunkt des Abschusses in iranischen Hoheitsgewässern aufhielt und die Kampfhandlungen mit den iranischen Schnellbooten wohl auch von ihr initiiert worden waren (Evans 1993).

  45. 45.

    Sharkey rekurriert hier auf die Unterscheidung zwischen schnellem und langsamem Denken im Standardwerk von Kahneman 2013.

  46. 46.

    Siehe weiterführend die ausführliche Analyse des Zwischenfalls bei Dotterway (1992).

  47. 47.

    Zu ähnlichen Einschätzungen der Rolle schlechten Interface-Designs kommt auch Dotterway (1992), S. 148 ff.

  48. 48.

    Luhmann (1998, S. 117 f.) sieht den Computer als ein Medium an, das in der Lage ist, nicht nur strukturelle Kopplungen zu realisieren, sondern auch die für Sozialität Bedeutung der strukturellen Kopplung zwischen menschlichem Bewusstsein und Kommunikation grundlegend zu verändern (Ernst 2008, S. 180 ff.).

Literatur

  • AGARD (Advisory Group for Aerospace Research and Development). (1992). Advanced aircraft interfaces. The machine side of the man-machine interface. Papers presented at the Avionics Panel Symposium held in Madrid, Spain, 18th–22nd May 1992, NATO, Neuilly sur Seine. http://www.dtic.mil/dtic/tr/fulltext/u2/a258048.pdf. Zugegriffen: 28. Apr. 2019.

  • Altmann, J., & Sauer, F. (2017). Autonomous weapon systems and strategic stability. Survival, 59(5), 117–142.

    Article  Google Scholar 

  • Anders, G. (1994). Die Antiquiertheit des Menschen: Bd. 1. Über die Seele im Zeitalter der zweiten industriellen Revolution. München: Beck.

    Google Scholar 

  • Andersen, R., & Mirrlees, T. (2014). Media, technology, and the culture of militarism: Watching, playing and resisting the war society. Introduction. Democratic Communiqué, 26(2), 1–21.

    Google Scholar 

  • Bender, H., & Thielmann, T. (Hrsg.). (2019). Medium Drohne: Die Praxistheorie fliegender Kameras. Bielefeld: transcript (im Erscheinen).

    Google Scholar 

  • Bhuta, B., Beck, S., & Geiß, R. (2016a). Present futures: Concluding reflections and open questions on autonomous weapons systems. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 347–374). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Bhuta, N., Beck, S., Geiß, R., Liu, H.-Y., & Kreß, C. (Hrsg.). (2016b). Autonomous weapons systems. Law, ethics, policy. Cambridge: Cambridge University Press.

    Google Scholar 

  • Bostrom, N. (2014). Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Buchta, W. (2016). Die Strenggläubigen. Fundamentalismus und die Zukunft der islamischen Welt. Berlin: Hanser.

    Book  Google Scholar 

  • Bundeszentrale für politische Bildung (bpb) (Hrsg.). (2014). Waffen und Rüstung. Politik und Zeitgeschichte, 64(35–37).

    Google Scholar 

  • Calm, J. (2008). Kontingenz. In S. Farzin & S. Jordan (Hrsg.), Lexikion Soziologie und Sozialtheorie. Hundert Grundbegriffe (S. 154–156). Stuttgart: Reclam.

    Google Scholar 

  • Clark, A. (2003). Natural-born cyborgs. Minds, technologies, and the future of human intelligence. Oxford: Oxford University Press.

    Google Scholar 

  • Corn, G. S. (2016). Autonomous weapons systems: Managing the inevitability of ‚taking the man out of the loop‘. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 209–242). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Corn, J. J. (Hrsg.). (1986). Imagining tomorrow. History, technology, and the American future. Cambridge: MIT Press.

    Google Scholar 

  • Corn, J. J., & Horrigan, B. (1996). Yesterday’s tomorrows. Past visions of the American future. Baltimore: Johns Hopkins University Press.

    Google Scholar 

  • Cramer, F., & Fuller, M. (2008). Interface. In M. Fuller (Hrsg.), Software studies. A lexicon (S. 149–152). Cambridge: MIT Press.

    Google Scholar 

  • Cummings, M. K. (2006). Automation and accountability in decision support system interface design. Journal of Technology Studies, 32(1), 23–31.

    Article  Google Scholar 

  • Distelmeyer, J. (2017). Machtzeichen. Anordnungen des Computers. Berlin: Bertz & Fischer.

    Google Scholar 

  • Dotterway, K. A. (1992). Systematic analysis of complex dynamic systems: The case of the USS Vincennes. Monterey: Naval Postgraduate School.

    Google Scholar 

  • Ernst, C. (2008). Revolutionssemantik und die Theorie der Medien. Zur rhetorischen Figuration der ‚digitalen Revolution‘ bei Niklas Luhmann und Vilém Flusser. In S. Grampp, K. Kirchmann, M. Sandl, R. Schlögel, & E. Wiebel (Hrsg.), Revolutionsmedien – Medienrevolutionen. Medien der Revolution 2 (S. 171–203). Konstanz: UVK.

    Google Scholar 

  • Ernst, C. (2013). Präsenz als Form einer Differenz – Medientheoretische Aspekte des Zusammenspiels von Präsenz und implizitem Wissen. In H. Paul & C. Ernst (Hrsg.), Präsenz und implizites Wissen. Zur Interdependenz zweier Schlüsselbegriffe in den Kultur- und Sozialwissenschaften (S. 49–76). Bielefeld: transcript.

    Google Scholar 

  • Ernst, C. (2017). Vernetzte Lagebilder und geteiltes Situationsbewusstsein – Medialität, Kooperation und Raumkonstruktion im Paradigma des Network-Centric Warfare. In L. Nowak (Hrsg.), Medien, Krieg, Raum (S. 417–449). Paderborn: Fink.

    Google Scholar 

  • Ernst, C., & Schröter, J. (Hrsg.). (2017). Medien, Interfaces und implizites Wissen. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, 17(2).

    Google Scholar 

  • Evans, D. (1993). Vincennes: A case study. U.S. Naval Institute Proceedings, 119(8), 49–56. https://web.archive.org/web/20060527221409/http://dolphin.upenn.edu/~nrotc/ns302/20note.html. Zugegriffen: 28. Apr. 2019.

  • Franklin, H. B. (2008). War Stars. The superweapon and the American imagination. Amherst: University of Massachusetts Press.

    Google Scholar 

  • Gannon, C. E. (2003). Rumors of war and infernal machines technomilitary agenda-setting in American and British speculative fiction. Liverpool: Liverpool University Press.

    Google Scholar 

  • Geiß, R. (Hrsg.). (2017). Lethal autonomous weapons systems: Technology, definition, ethics, law & security. https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 29. Apr. 2019.

  • Gutmann, M., Rathgeber, B., & Syed, T. (2013). Autonomie. In A. Stephan & S. Walter (Hrsg.), Handbuch Kognitionswissenschaft (S. 230–239). Stuttgart: Metzler.

    Google Scholar 

  • Hadler, F., & Haupt, J. (Hrsg.). (2016). Interface Critique. Berlin: Kadmos.

    Google Scholar 

  • Hansel, M. (2011). Eine Revolution in Military Affairs? – Visionäre und Skeptiker. In T. Jäger & R. Beckmann (Hrsg.), Handbuch Kriegstheorien (S. 298–309). Wiesbaden: VS Verlag.

    Chapter  Google Scholar 

  • Haraway, D. (1995). Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften. In D. Haraway (Hrsg.), Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen (S. 33–72). Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Herbrechter, S. (2009). Posthumanismus. Eine kritische Einführung. Darmstadt: Wissenschaftliche Buchgesellschaft.

    Google Scholar 

  • Holzinger, M. (2014). Niklas Luhmanns Systemtheorie und Kriege. Zeitschrift für Soziologie, 43(6), 458–475.

    Article  Google Scholar 

  • Irsigler, I., & Orth, D. (2018). Zwischen Menschwerdung und Weltherrschaft. Künstliche Intelligenz im Film. In Bundeszentrale für politische Bildung (bpb) (Hrsg.), Künstliche Intelligenz. Aus Politik und Zeitgeschichte, 68(6–8), 39–45.

    Google Scholar 

  • Iser, W. (1991). Das Fiktive und das Imaginäre. Perspektiven literarischer Anthropologie. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Jäger, T., & Beckmann, R. (Hrsg.). (2011). Handbuch Kriegstheorien. Wiesbaden: VS Verlag.

    Google Scholar 

  • Jasanoff, S. (2015). Future imperfect. Science, technology, and the imaginations of moderinty. In S. Jasanoff & S. H. Kim (Hrsg.), Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power (S. 1–33). Chicago: Chicago University Press.

    Chapter  Google Scholar 

  • Jasanoff, S., & Kim, S.-H. (Hrsg.). (2015). Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power. Chicago: Chicago University Press.

    Google Scholar 

  • Kaerlein, T. (2015). Die Welt als Interface. Über gestenbasierte Interaktionen mit vernetzten Objekten. In F. Sprenger & C. Engemann (Hrsg.), Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt (S. 137–159). Bielefeld: transcript.

    Google Scholar 

  • Kahneman, D. (2013). Thinking, fast and slow. New York: Farrar, Straus & Giroux.

    Google Scholar 

  • Kalmanovitz, P. (2016). Judgement, lialbility and the risks of riskless warfare. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 145–163). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Khurana, T. (2011). Paradoxien der Autonomie. Zur Einleitung. In T. Khurana (Hrsg.), Paradoxien der Autonomie (S. 7–23). Berlin: August.

    Google Scholar 

  • Kirchmann, K. (1999). Die Rückkehr des Vaters. Psychomotorik und phantasmatische Strukturlogik des zeitgenössischen amerikanischen Action-Films. In F. Amann, J. Keiper, & S. Kaltenecker (Hrsg.), Film und Kritik 4: Action, Action… (S. 45–60). München: Text & Kritik.

    Google Scholar 

  • Korf, B. (2011). Klimakriege. Zur politischen Ökologie der „Kriege der Zukunft“. In T. Jäger & R. Beckmann (Hrsg.), Handbuch Kriegstheorien (S. 577–585). Wiesbaden: VS Verlag.

    Chapter  Google Scholar 

  • Lengersdorf, D., & Wieser, M. (2014). Schlüsselwerke der Science & Technology-Studies. Wiesbaden: Springer VS.

    Book  Google Scholar 

  • Lenoir, T., & Caldwell, L. (2017). The military-entertainment complex. Cambridge: Harvard University Press.

    Google Scholar 

  • Loon, Jv. (2014). Michel Callon und Bruno Latour: Vom naturwissenschaftlichen Wissen zur wissenschaftlichen Praxis. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 99–110). Wiesbaden: Springer VS.

    Google Scholar 

  • Luhmann, N. (1987). Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Luhmann, N. (1998). Die Gesellschaft der Gesellschaft (Bd. 2). Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Marsiske, H.-A. (Hrsg.). (2012a). Kriegsmaschinen. Roboter im Militäreinsatz. Hannover: Heise.

    Google Scholar 

  • Marsiske, H.-A. (2012b). Fluchtpunkt Autonomie – Die Gretchenfrage der Robotik. In H.-A. Marsiske (Hrsg.), Kriegsmaschinen. Roboter im Militäreinsatz (S. 1–6). Hannover: Heise.

    Google Scholar 

  • Moyes, R. (2017). Meaningful human control. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 239–249). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.

  • Nietzsche, F. (1999). Ueber Wahrheit und Lüge im aussermoralischen Sinne. In F. Nietzsche, v G Colli, & M. Montinari (Hrsg.), Kritische Studienausgabe: Bd. 1. Die Geburt der Tragödie; Unzeitgemäße Betrachtungen I–IV; Nachgelassene Schriften 1870–1873 (S. 873–890). München: dtv.

    Google Scholar 

  • Niewöhner, J. (2014). Perspektiven der Infrastrukturforschung: Care-full, relational, kollaborativ. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 341–352). Wiesbaden: Springer VS.

    Google Scholar 

  • Nowak, L. (Hrsg.). (2017). Medien, Krieg, Raum. Paderborn: Fink.

    Google Scholar 

  • Open Letter. (2015). Autonomous weapons. An open letter from AI & robotics researchers. https://futureoflife.org/open-letter-autonomous-weapons. Zugegriffen: 28. Apr. 2019.

  • Pias, C. (2011). Was waren Medien-Wissenschaften? Stichworte zu einer Standortbestimmung. In C. Pias (Hrsg.), Was waren Medien? (S. 7–30). Zürich: diaphanes.

    Google Scholar 

  • Pickering, A. (1995). The mangle of practice. Time, agency, and science. Chicago: University of Chicago Press.

    Book  Google Scholar 

  • Rachman, G. (2017). Easternisation: War and peace in the Asian century. London: Vintage.

    Google Scholar 

  • Roff, H. (2017). Autonomy in weapons systems: Past, present, and future. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 255–260). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.

  • Rogers, Y., Sharp, H., & Preece, J. (2015). Interaction design. Beyond human-computer interaction. Chichester: Wiley.

    Google Scholar 

  • Sartor, G., & Omicini, A. (2016). The autonomy of technological systems and responsibilities for their use. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 39–74). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Saxon, D. (2016). A human touch: Autonomous weapons, DoD Directive 3000.09 and the interpretation of ‚appropriate levels of human judgement over the use of force‘. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 185–208). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Schörnig, N. (2014). Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen? In Bundeszentrale für politische Bildung (bpb) (Hrsg.), Waffen und Rüstung. Aus Politik und Zeitgeschichte, 64(35–37), 27–34.

    Google Scholar 

  • Schubert, C. (2014). Andrew Pickering: Wissenschaft als Werden – Die Prozessperspektive der Mangle of Practice. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 191–203). Wiesbaden: Springer VS.

    Google Scholar 

  • Sharkey, N. (2016). Staying in the loop: Human supervisory control of weapons. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 23–38). Cambridge: Cambridge University Press.

    Chapter  Google Scholar 

  • Siegert, B. (2011). Kulturtechnik. In H. Maye & L. Scholz (Hrsg.), Einführung in die Kulturwissenschaft (S. 95–118). München: Fink.

    Google Scholar 

  • Singer, P. W. (2010). Wired for war. The robotics revolution and conflict in the twenty-first century. New York: Penguin.

    Google Scholar 

  • Sprenger, F., & Engemann, C. (Hrsg.). (2015). Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript.

    Google Scholar 

  • Stoner, R. H. (2009). R2D2 with attitude: The story of the Phalanx close-in weapons. http://www.navweaps.com/index_tech/tech-103.php. Zugegriffen: 28. Apr. 2019.

  • Suchman, L. (2015). Situational awareness: Deadly bioconvergence at the boundaries of bodies and machines. Media Tropes eJournal, 5(1), 1–24. http://www.mediatropes.com/index.php/Mediatropes/article/view/22126. Zugegriffen: 28. Apr. 2019.

  • Suchman, L. (2017). Situational awareness and adherence to the principle of distinction as a necessary condition for lawful autonomy. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 273–283). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.

  • Suchman, L., & Weber, J. (2016). Human-machine-autonomies. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 75–102). Cambridge: Cambridge University Press.

    Google Scholar 

  • Thielmann, T., & Schüttpelz, E. (Hrsg.). (2013). Akteur-Medien-Theorie. Bielefeld: transcript.

    Google Scholar 

  • US Defense Science Board (US Department of Defense). (2012). The role of autonomy in DoD systems. http://fas.org/irp/agency/dod/dsb/autonomy.pdf. Zugegriffen: 28. Apr. 2019.

  • US Department of Defense. (2012). Directive autonomy in weapon systems, Number 3000.09, November 21, 2012. https://cryptome.org/dodi/dodd-3000-09.pdf. Zugegriffen: 28. Apr. 2019.

  • US Department of Defense. (2013). Unmanned systems roadmap 2013–2038. https://stacks.stanford.edu/file/druid:hx930gx9585/DOD-USRM-2013.pdf. Zugegriffen: 28. Apr. 2019.

  • Vermaas, P. E., Kroes, P., van de Poel, I., Franssen, M., & Houkes, W. (2011). A philosophy of technology. From technical artifacts to sociotechnical systems. San Rafael: Morgen & Claypool.

    Google Scholar 

  • Weber, J. (2016). Keep adding. On kill lists, drone warfare and the politics of databases. Environment and Planning D: Society and Space, 34(1), 107–125.

    Article  Google Scholar 

  • Weber, K. (2008). Roboter und Künstliche Intelligenz in Science-Fiction-Filmen: Vom Werkzeug zum Akteur. In J. Fuhse (Hrsg.), Technik und Gesellschaft in der Science-Fiction (S. 34–54). Berlin: LIT.

    Google Scholar 

  • Winthrop-Young, G. (2005). Friedrich Kittler zur Einführung. Hamburg: Junius.

    Google Scholar 

  • Wirth, S. (2016). Between interacitivity, control, and ‚everydayness‘ – Towards a theory of user interfaces. In F. Hadler & J. Haupt (Hrsg.), Interface critique (S. 17–38). Berlin: Kadmos.

    Google Scholar 

  • Wirth, S. (2017). „The ‚unnatural‘ scrolling setting“. Don Ihdes Konzept der embodiment relations diskutiert am Beispiel einer ubiquitären Touchpad-Geste. In C. Ernst & J. Schröter (Hrsg.), Medien, Interfaces und implizites Wissen. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, 17(2), 117–130.

    Google Scholar 

  • Wirth, U. (Hrsg.). (2002). Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

Filme

  • 2001 – Odyssey im Weltraum, DVD, Warner Home Video (GBR/USA, 1968, Stanley Kubrick).

    Google Scholar 

  • Aliens – Die Rückkehr [Directors Cut], DVD, Twentieth Century Fox (USA, 1986, James Cameron).

    Google Scholar 

  • Dark Star, DVD, Power Station (USA, 1974, John Carpenter).

    Google Scholar 

  • Eagle Eye, DVD, K/O Paper Products (USA, 2008, Daniel John Caruso)

    Google Scholar 

  • Terminator 2 – Tag der Abrechnung, DVD, STUDIOCANAL (USA, 1991, James Cameron).

    Google Scholar 

  • Terminator 3 – Rebellion der Maschinen, DVD, Columbia Tristar Home Video (USA, 2003, Jonathan Mostrow).

    Google Scholar 

  • WarGames – Kriegsspiele, DVD, Twentieth Century Fox (USA, 1983, John Badham).

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Christoph Ernst .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Ernst, C. (2019). Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS). In: Thimm, C., Bächle, T. (eds) Die Maschine: Freund oder Feind?. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-22954-2_12

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-22954-2_12

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-22953-5

  • Online ISBN: 978-3-658-22954-2

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics