Zusammenfassung
In der Debatte um autonome Waffensysteme (AWS) spielt das Motiv der menschlichen Kontrolle über die Entscheidungsprozesse dieser Systeme eine zentrale Rolle. Der Text zeigt auf, welche möglichen Entwicklungshorizonte derzeitige Konzeptstudien des US-Militärs vorsehen und inwieweit diese Konzepte sich mit fiktionalen Narrativen aus dem Spielfilm kreuzen. Zunächst wird dazu die zeitgenössische Debatte um AWS charakterisiert. Im Anschluss wird dargelegt, inwieweit das Motiv der Kontrolle über Entscheidungsprozesse der Maschinen in ausgewählten Hollywood-Spielfilmen den 1980er- und frühen 1990er-Jahren vorgezeichnet ist. Ein Ausblick auf die Konsequenzen, welche die Entwicklung autonomer Waffensysteme hinsichtlich der Interfaces zwischen Mensch und Maschine mit sich bringen, rundet die Ausführungen ab.
Für wertvolle Hinweise und Kommentare sowie Hilfe bei der Korrektur des vorliegenden Textes danke ich Thomas Bächle und Jule Wegen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Seit 2013 wird die Frage der Regulierung von AWS im Rahmen der United Nations Convention on Certain Conventional Weapons (CCW) diskutiert.
- 2.
- 3.
- 4.
Alle diese Eigenschaften finden sich in den verschiedenen Definitionen von Autonomie. Die Begriffe von Autonomie in den primären Konzeptstudien der Militärs (z. B. US Defense Science Board 2012) unterscheiden sich dabei teilweise von akademischen Debatten (z. B. Sartor und Omicini 2016, S. 39 f.). Die angeführten Merkmale können aber als gemeinsame Schnittmenge angesehen werden (siehe auch Roff 2017, S. 256).
- 5.
Weiterführend auch Suchman 2017, S. 276, Anm. 8.
- 6.
Anders formuliert es das US-Verteidigungsministerium in einem oft zitierten Passus aus Direktive 3000.09 Autonomy in Weapon Systems (US Department of Defense 2012, S. 2): „Autonomous and semi-autonomous weapons systems shall be designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force“ (siehe auch Sharkey 2016, S. 25)
- 7.
Die medientheoretischen Argumente von Friedrich Kittler zum Verhältnis von Medien und Krieg sind zusammenfassend dargestellt in Winthrop-Young (2005), S. 115 ff.
- 8.
Der Begriff findet sich in der Kriegssoziologie, hier zitiert nach Holzinger (2014), S. 461.
- 9.
Das setzt einen konservativen Akteur-Begriff voraus. Geht es nach der Akteur-Netzwerk-Theorie, sind AWS – wie jede Technologie – längst soziale Akteure. Einen einführenden Überblick gibt Loon (2014).
- 10.
- 11.
Zur Konzeptionalisierung von Medienwissenschaft als einer Disziplin, die im Modus zweiter Ordnung operiert, siehe die Überlegungen bei Pias (2011). Theorien wie die STS (genau wie die Systemtheorie) sind nie als Medientheorie gedacht gewesen. Allerdings hat sich eine medientheoretische Lektüre ihrer Grundannahmen und Einsichten als sehr produktiv erwiesen, man denke nur an die Rezeption der Akteur-Netzwerk-Theorie im Rahmen einer „Akteur-Medien-Theorie“ (Thielmann und Schüttpelz 2013). Im vorliegenden Rahmen ist es nicht beabsichtigt, sich auf eine theoretische Vorgabe festzulegen oder die Vor- und Nachteile einer Theorie hervorzuheben. Auch die bisherige Beschäftigung der Medientheorie mit Krieg und Militärtechnologie kann hier nicht aufgearbeitet werden (zum Zusammenhang von Medien, Krieg und Raum zuletzt die Beiträge in Nowak 2017, insbesondere die Einleitung von Lars Nowak).
- 12.
Im Fachjargon „Command, Control, Communication, and Computers“ (C4) genannt.
- 13.
So können etwa Drohnen als ein Medium begriffen werden (Bender und Thielmann 2019, im Erscheinen)
- 14.
Für die Hinweise zu dieser Literatur danke ich Jens Schröter.
- 15.
Zugegebenermaßen ist die in der Forschung notorische Fixierung auf die USA eine dürftige Grundlage, betrachtet man den internationalen Kontext. China, Russland, Israel und Indien muss ebenfalls Beachtung geschenkt werden.
- 16.
Der Beginn dieser Entwicklung dürfte ein selbstgesteuertes taktisches Verhalten des Systems sein, das vor dem Hintergrund übergreifender strategischer Vorgaben zu eigenen Bewertungen kommt. Als eine Weiterentwicklung von komplexen und bereits implementierten Überwachungstechnologien, etwa dem US-amerikanischen Gorgon Stare-Programm, ist das leicht denkbar.
- 17.
Doppelte Kontingenz beschreibt seit Talcott Parsons „[...] die prinzipielle Unzugänglichkeit des jeweiligen Bewusstseins von Akteuren für sein Gegenüber und insofern die prinzipiell immer anders sein könnenden Erwartungen des einen Akteurs gegenüber den Erwartungen des anderen.“ (Calm 2008, S. 155).
- 18.
Siehe hier im Kontext die Grundanlage der Systemtheorie bei Luhmann (1987).
- 19.
Aufgerufen sind damit (unter anderem) alte Motive der philosophischen Anthropologie. Zu nennen ist insbesondere die Debatte um die Unzulänglichkeit des Menschen im Angesicht seiner technischen Artefakte, wie sie bei Günther Anders bereits in den 1950er-Jahren geführt wurde (Anders 1994). Heute wird die anthropologische Frage im AWS-Diskurs vorwiegend in kognitionswissenschaftlichen Begriffen verhandelt, sofern kognitive Vermögen des Menschen, etwa die perzeptive Fähigkeit, Muster zu erkennen, oder die Kompetenz, in unbekanntem Terrain Probleme zu lösen, in Maschinen integriert werden.
- 20.
- 21.
Sporadisch spricht man auch von „semi-autonomen Systemen“ (Sharkey 2016).
- 22.
- 23.
Letztere dienen zur Verfolgung von Hitzesignaturen, um beispielsweise Stealth-Flugzeuge aufspüren zu können, also Flugzeuge, die von Radar nicht geortet werden können. Stealth wiederum ist eine Technologie, die bis Ende der 1980er-Jahre geheim war, in Gestalt der F-117 Nighthawk-Jagdbombers und des B-2 Spirit-Bombers aber technisch bereits umgesetzt worden ist.
- 24.
- 25.
Zu realen Szenarien mangelnder „situational awareness“ auf Seiten der menschlicher Controller im letzten Afghanistan-Krieg siehe Suchmann (2015). Auch in der fiktionalen Welt von Aliens wäre die Möglichkeit gegeben, dass das Waffensystem Unschuldige tötet. Da die zu Zwecken der Aufklärung herbei geeilten Marines ein kleines Mädchen bergen, das überlebt hat, ist nicht auszuschließen, dass weitere Überlende, die noch nicht entdeckt wurden, in den Sensorbereich des Systems laufen. Umso wichtiger ist die Frage, über welche Art von Freund/Feind-Erkennung das Remote Weapon Sentry System verfügt. Lucy Suchman (2015, 2017) verschränkt die Diskussion um „situational awareness“ daher mit der Frage, nach welchem „principle of distinction“ AWS funktionieren. Sind diese Systeme beispielsweise in der Lage, Zivilisten zu erkennen oder verwundete bzw. sich ergebende Akteure von kämpfenden Akteuren zu unterscheiden?
- 26.
Ein Bild des Terminators ziert fast jeden Artikel, der in der Öffentlichkeit derzeit zu AWS im Umlauf ist. Die Filme sind ein beständiger Bezugspunkt der medien- und kulturwissenschaftlichen Auseinandersetzung mit AWS (siehe Marsiske 2012b sowie die vielen Bezugnahmen auf die Filme in Singer 2010, hier insb. S. 168 ff.).
- 27.
Im dritten Teil der Terminator-Serie, Terminator 3 – Rise of the Machines, gibt es gegen Ende einen Moment der ethischen Reflexion des T-800 (Weber 2008, S. 43 f.).
- 28.
Diese üblicherweise als „Mini-Gun“ bezeichnete Waffe arbeitet zwar „nur“ mit einem 7,62 mm Kaliber. Optisch weist aufgrund der gemeinsamen Gatling-Bauweise aber große Ähnlichkeiten zum Phalanx-System auf.
- 29.
Aus dem Vergleich von Aliens und Terminator 2 könnte an dieser Stelle noch mehr abgeleitet werden. Zu diskutieren wäre beispielsweise der Umstand, dass im Terminator-Franchise die Menschen sich in Gestalt des T-800 erst einmal wieder so etwas wie Kontrolle über die inzwischen ihnen feindlich gegenüberstehenden AWS der KI Skynet zurückerobern müssen. Zudem werden die Akteure in Terminator 2 noch von einem – im Sinne des Modells von Gutmann, Rathgeber und Syed gesprochen – „bionomischen“ AWS gejagt, dem oft zitierten T-1000.
- 30.
Um diesen Gegensatz geht es in der Fomulierung einer Autonomie auf Ebene der „mission execution“ und einer Autonomie auf Ebene der „mission performance“.
- 31.
Das schließt nicht aus, dass AWS (oder jedes andere autonome System) nicht prinzipiell die Kapazitäten von Menschen überschreiten oder aber Menschen in solche Wechselwirkungen mit diesen Systemen eintreten können, in denen menschliche Intentionalität der agency des Systems untergeordnet ist. Es geht nur um die Markierung des Umstandes, dass die Abläufe des Systems noch menschliche Kapazitäten vorsehen.
- 32.
- 33.
- 34.
- 35.
Man könnte das in Anlehnung an die bekannten philosophischen Diskussionen um den Freiheitsbegriff als „negative Autonomie“ bezeichnen, die von einer „positiven Autonomie“ abzugrenzen wäre (Khurana 2011).
- 36.
- 37.
Siehe zur Theorie des Internets der Dinge auch die Beiträge in Sprenger und Engemann (2015).
- 38.
Einen Eindruck der Diskussion zu Interfaces in Cockpits Ende der 1980er-/Anfang der 1990er-Jahre gibt AGARD 1992.
- 39.
In Terminator 3 – Rise of the Machines erscheint Skynet als eine „Neural net-based artifical intelligence“, die, so die Fiktion im Jahr 2003, mit 60 Teraflops prozessiert. Zur Orientierung: Im November 2017 lag die reale Leistung des Sunway TaihuLight-Supercomputers im chinesischen Wuxi bei 93,014.6 Teraflops (nachzulesen auf https://www.top500.org, abgerufen am 28. April 2019). Zu nennen sind hier aber auch das WOPR-System („War Operation Plan Response“) aus dem Thriller WarGames (USA 1983). Als Produkt des Kalten Krieges ist der WOPR vorrangig mit den strategischen Spielen rund um die Konfrontation der Supermächte befasst. Ein Beispiel jüngeren Datums ist dagegen die KI „Autonomous Reconnaissance Intelligence Integration Analyst“ (ARIIA) aus dem Action-Film Eagle Eye (USA 2008). Dieses System ist über das Internet der Dinge verteilt und um die generelle Sicherheit der Vereinigten Staaten besorgt.
- 40.
Zur Infrastrukturforschung in den STS siehe überblickend Niewöhner (2014).
- 41.
Die Filmwissenschaft hat diese Unterscheidung in die Differenz zwischen „Körper-KI“ und „Hyper-KI“ umformuliert und unterschiedlichen Motiven zugeordnet: humanoide Körper-KI drängt zur „Menschwerdung“ während körperlose Hyper-KI „Kontrolle über Menschen“ anstrebt (Irsigler und Orth 2018, S. 39 ff).
- 42.
Mutmaßlich eine Anspielung auf den Cyborg in RoboCop (USA, 1987).
- 43.
Wie leicht auf Wikipedia nachzulesen, war die F-14 Tomcat, bekannt aus Top Gun (USA 1986), ein US-amerikanischer Luftüberlegenheitsjäger, den die US-Regierung an das iranische Schah-Regime geliefert hatte und das nach der Revolution der neuen Regierung in die Hände gefallen war. Allerdings verfügte die F-14A, die an den Iran geliefert wurde, über keine nennenswerte Luft-Boden-Fähigkeit (https://de.wikipedia.org/wiki/Grumman_F-14, abgerufen am 28. April 2019).
- 44.
Hier ist zu erwähnen, dass sich die Vincennes zum Zeitpunkt des Abschusses in iranischen Hoheitsgewässern aufhielt und die Kampfhandlungen mit den iranischen Schnellbooten wohl auch von ihr initiiert worden waren (Evans 1993).
- 45.
Sharkey rekurriert hier auf die Unterscheidung zwischen schnellem und langsamem Denken im Standardwerk von Kahneman 2013.
- 46.
Siehe weiterführend die ausführliche Analyse des Zwischenfalls bei Dotterway (1992).
- 47.
Zu ähnlichen Einschätzungen der Rolle schlechten Interface-Designs kommt auch Dotterway (1992), S. 148 ff.
- 48.
Luhmann (1998, S. 117 f.) sieht den Computer als ein Medium an, das in der Lage ist, nicht nur strukturelle Kopplungen zu realisieren, sondern auch die für Sozialität Bedeutung der strukturellen Kopplung zwischen menschlichem Bewusstsein und Kommunikation grundlegend zu verändern (Ernst 2008, S. 180 ff.).
Literatur
AGARD (Advisory Group for Aerospace Research and Development). (1992). Advanced aircraft interfaces. The machine side of the man-machine interface. Papers presented at the Avionics Panel Symposium held in Madrid, Spain, 18th–22nd May 1992, NATO, Neuilly sur Seine. http://www.dtic.mil/dtic/tr/fulltext/u2/a258048.pdf. Zugegriffen: 28. Apr. 2019.
Altmann, J., & Sauer, F. (2017). Autonomous weapon systems and strategic stability. Survival, 59(5), 117–142.
Anders, G. (1994). Die Antiquiertheit des Menschen: Bd. 1. Über die Seele im Zeitalter der zweiten industriellen Revolution. München: Beck.
Andersen, R., & Mirrlees, T. (2014). Media, technology, and the culture of militarism: Watching, playing and resisting the war society. Introduction. Democratic Communiqué, 26(2), 1–21.
Bender, H., & Thielmann, T. (Hrsg.). (2019). Medium Drohne: Die Praxistheorie fliegender Kameras. Bielefeld: transcript (im Erscheinen).
Bhuta, B., Beck, S., & Geiß, R. (2016a). Present futures: Concluding reflections and open questions on autonomous weapons systems. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 347–374). Cambridge: Cambridge University Press.
Bhuta, N., Beck, S., Geiß, R., Liu, H.-Y., & Kreß, C. (Hrsg.). (2016b). Autonomous weapons systems. Law, ethics, policy. Cambridge: Cambridge University Press.
Bostrom, N. (2014). Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt a. M.: Suhrkamp.
Buchta, W. (2016). Die Strenggläubigen. Fundamentalismus und die Zukunft der islamischen Welt. Berlin: Hanser.
Bundeszentrale für politische Bildung (bpb) (Hrsg.). (2014). Waffen und Rüstung. Politik und Zeitgeschichte, 64(35–37).
Calm, J. (2008). Kontingenz. In S. Farzin & S. Jordan (Hrsg.), Lexikion Soziologie und Sozialtheorie. Hundert Grundbegriffe (S. 154–156). Stuttgart: Reclam.
Clark, A. (2003). Natural-born cyborgs. Minds, technologies, and the future of human intelligence. Oxford: Oxford University Press.
Corn, G. S. (2016). Autonomous weapons systems: Managing the inevitability of ‚taking the man out of the loop‘. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 209–242). Cambridge: Cambridge University Press.
Corn, J. J. (Hrsg.). (1986). Imagining tomorrow. History, technology, and the American future. Cambridge: MIT Press.
Corn, J. J., & Horrigan, B. (1996). Yesterday’s tomorrows. Past visions of the American future. Baltimore: Johns Hopkins University Press.
Cramer, F., & Fuller, M. (2008). Interface. In M. Fuller (Hrsg.), Software studies. A lexicon (S. 149–152). Cambridge: MIT Press.
Cummings, M. K. (2006). Automation and accountability in decision support system interface design. Journal of Technology Studies, 32(1), 23–31.
Distelmeyer, J. (2017). Machtzeichen. Anordnungen des Computers. Berlin: Bertz & Fischer.
Dotterway, K. A. (1992). Systematic analysis of complex dynamic systems: The case of the USS Vincennes. Monterey: Naval Postgraduate School.
Ernst, C. (2008). Revolutionssemantik und die Theorie der Medien. Zur rhetorischen Figuration der ‚digitalen Revolution‘ bei Niklas Luhmann und Vilém Flusser. In S. Grampp, K. Kirchmann, M. Sandl, R. Schlögel, & E. Wiebel (Hrsg.), Revolutionsmedien – Medienrevolutionen. Medien der Revolution 2 (S. 171–203). Konstanz: UVK.
Ernst, C. (2013). Präsenz als Form einer Differenz – Medientheoretische Aspekte des Zusammenspiels von Präsenz und implizitem Wissen. In H. Paul & C. Ernst (Hrsg.), Präsenz und implizites Wissen. Zur Interdependenz zweier Schlüsselbegriffe in den Kultur- und Sozialwissenschaften (S. 49–76). Bielefeld: transcript.
Ernst, C. (2017). Vernetzte Lagebilder und geteiltes Situationsbewusstsein – Medialität, Kooperation und Raumkonstruktion im Paradigma des Network-Centric Warfare. In L. Nowak (Hrsg.), Medien, Krieg, Raum (S. 417–449). Paderborn: Fink.
Ernst, C., & Schröter, J. (Hrsg.). (2017). Medien, Interfaces und implizites Wissen. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, 17(2).
Evans, D. (1993). Vincennes: A case study. U.S. Naval Institute Proceedings, 119(8), 49–56. https://web.archive.org/web/20060527221409/http://dolphin.upenn.edu/~nrotc/ns302/20note.html. Zugegriffen: 28. Apr. 2019.
Franklin, H. B. (2008). War Stars. The superweapon and the American imagination. Amherst: University of Massachusetts Press.
Gannon, C. E. (2003). Rumors of war and infernal machines technomilitary agenda-setting in American and British speculative fiction. Liverpool: Liverpool University Press.
Geiß, R. (Hrsg.). (2017). Lethal autonomous weapons systems: Technology, definition, ethics, law & security. https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 29. Apr. 2019.
Gutmann, M., Rathgeber, B., & Syed, T. (2013). Autonomie. In A. Stephan & S. Walter (Hrsg.), Handbuch Kognitionswissenschaft (S. 230–239). Stuttgart: Metzler.
Hadler, F., & Haupt, J. (Hrsg.). (2016). Interface Critique. Berlin: Kadmos.
Hansel, M. (2011). Eine Revolution in Military Affairs? – Visionäre und Skeptiker. In T. Jäger & R. Beckmann (Hrsg.), Handbuch Kriegstheorien (S. 298–309). Wiesbaden: VS Verlag.
Haraway, D. (1995). Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften. In D. Haraway (Hrsg.), Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen (S. 33–72). Frankfurt a. M.: Suhrkamp.
Herbrechter, S. (2009). Posthumanismus. Eine kritische Einführung. Darmstadt: Wissenschaftliche Buchgesellschaft.
Holzinger, M. (2014). Niklas Luhmanns Systemtheorie und Kriege. Zeitschrift für Soziologie, 43(6), 458–475.
Irsigler, I., & Orth, D. (2018). Zwischen Menschwerdung und Weltherrschaft. Künstliche Intelligenz im Film. In Bundeszentrale für politische Bildung (bpb) (Hrsg.), Künstliche Intelligenz. Aus Politik und Zeitgeschichte, 68(6–8), 39–45.
Iser, W. (1991). Das Fiktive und das Imaginäre. Perspektiven literarischer Anthropologie. Frankfurt a. M.: Suhrkamp.
Jäger, T., & Beckmann, R. (Hrsg.). (2011). Handbuch Kriegstheorien. Wiesbaden: VS Verlag.
Jasanoff, S. (2015). Future imperfect. Science, technology, and the imaginations of moderinty. In S. Jasanoff & S. H. Kim (Hrsg.), Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power (S. 1–33). Chicago: Chicago University Press.
Jasanoff, S., & Kim, S.-H. (Hrsg.). (2015). Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power. Chicago: Chicago University Press.
Kaerlein, T. (2015). Die Welt als Interface. Über gestenbasierte Interaktionen mit vernetzten Objekten. In F. Sprenger & C. Engemann (Hrsg.), Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt (S. 137–159). Bielefeld: transcript.
Kahneman, D. (2013). Thinking, fast and slow. New York: Farrar, Straus & Giroux.
Kalmanovitz, P. (2016). Judgement, lialbility and the risks of riskless warfare. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 145–163). Cambridge: Cambridge University Press.
Khurana, T. (2011). Paradoxien der Autonomie. Zur Einleitung. In T. Khurana (Hrsg.), Paradoxien der Autonomie (S. 7–23). Berlin: August.
Kirchmann, K. (1999). Die Rückkehr des Vaters. Psychomotorik und phantasmatische Strukturlogik des zeitgenössischen amerikanischen Action-Films. In F. Amann, J. Keiper, & S. Kaltenecker (Hrsg.), Film und Kritik 4: Action, Action… (S. 45–60). München: Text & Kritik.
Korf, B. (2011). Klimakriege. Zur politischen Ökologie der „Kriege der Zukunft“. In T. Jäger & R. Beckmann (Hrsg.), Handbuch Kriegstheorien (S. 577–585). Wiesbaden: VS Verlag.
Lengersdorf, D., & Wieser, M. (2014). Schlüsselwerke der Science & Technology-Studies. Wiesbaden: Springer VS.
Lenoir, T., & Caldwell, L. (2017). The military-entertainment complex. Cambridge: Harvard University Press.
Loon, Jv. (2014). Michel Callon und Bruno Latour: Vom naturwissenschaftlichen Wissen zur wissenschaftlichen Praxis. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 99–110). Wiesbaden: Springer VS.
Luhmann, N. (1987). Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M.: Suhrkamp.
Luhmann, N. (1998). Die Gesellschaft der Gesellschaft (Bd. 2). Frankfurt a. M.: Suhrkamp.
Marsiske, H.-A. (Hrsg.). (2012a). Kriegsmaschinen. Roboter im Militäreinsatz. Hannover: Heise.
Marsiske, H.-A. (2012b). Fluchtpunkt Autonomie – Die Gretchenfrage der Robotik. In H.-A. Marsiske (Hrsg.), Kriegsmaschinen. Roboter im Militäreinsatz (S. 1–6). Hannover: Heise.
Moyes, R. (2017). Meaningful human control. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 239–249). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.
Nietzsche, F. (1999). Ueber Wahrheit und Lüge im aussermoralischen Sinne. In F. Nietzsche, v G Colli, & M. Montinari (Hrsg.), Kritische Studienausgabe: Bd. 1. Die Geburt der Tragödie; Unzeitgemäße Betrachtungen I–IV; Nachgelassene Schriften 1870–1873 (S. 873–890). München: dtv.
Niewöhner, J. (2014). Perspektiven der Infrastrukturforschung: Care-full, relational, kollaborativ. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 341–352). Wiesbaden: Springer VS.
Nowak, L. (Hrsg.). (2017). Medien, Krieg, Raum. Paderborn: Fink.
Open Letter. (2015). Autonomous weapons. An open letter from AI & robotics researchers. https://futureoflife.org/open-letter-autonomous-weapons. Zugegriffen: 28. Apr. 2019.
Pias, C. (2011). Was waren Medien-Wissenschaften? Stichworte zu einer Standortbestimmung. In C. Pias (Hrsg.), Was waren Medien? (S. 7–30). Zürich: diaphanes.
Pickering, A. (1995). The mangle of practice. Time, agency, and science. Chicago: University of Chicago Press.
Rachman, G. (2017). Easternisation: War and peace in the Asian century. London: Vintage.
Roff, H. (2017). Autonomy in weapons systems: Past, present, and future. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 255–260). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.
Rogers, Y., Sharp, H., & Preece, J. (2015). Interaction design. Beyond human-computer interaction. Chichester: Wiley.
Sartor, G., & Omicini, A. (2016). The autonomy of technological systems and responsibilities for their use. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 39–74). Cambridge: Cambridge University Press.
Saxon, D. (2016). A human touch: Autonomous weapons, DoD Directive 3000.09 and the interpretation of ‚appropriate levels of human judgement over the use of force‘. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 185–208). Cambridge: Cambridge University Press.
Schörnig, N. (2014). Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen? In Bundeszentrale für politische Bildung (bpb) (Hrsg.), Waffen und Rüstung. Aus Politik und Zeitgeschichte, 64(35–37), 27–34.
Schubert, C. (2014). Andrew Pickering: Wissenschaft als Werden – Die Prozessperspektive der Mangle of Practice. In D. Lengersdorf & M. Wieser (Hrsg.), Schlüsselwerke der Science & Technology-Studies (S. 191–203). Wiesbaden: Springer VS.
Sharkey, N. (2016). Staying in the loop: Human supervisory control of weapons. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 23–38). Cambridge: Cambridge University Press.
Siegert, B. (2011). Kulturtechnik. In H. Maye & L. Scholz (Hrsg.), Einführung in die Kulturwissenschaft (S. 95–118). München: Fink.
Singer, P. W. (2010). Wired for war. The robotics revolution and conflict in the twenty-first century. New York: Penguin.
Sprenger, F., & Engemann, C. (Hrsg.). (2015). Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript.
Stoner, R. H. (2009). R2D2 with attitude: The story of the Phalanx close-in weapons. http://www.navweaps.com/index_tech/tech-103.php. Zugegriffen: 28. Apr. 2019.
Suchman, L. (2015). Situational awareness: Deadly bioconvergence at the boundaries of bodies and machines. Media Tropes eJournal, 5(1), 1–24. http://www.mediatropes.com/index.php/Mediatropes/article/view/22126. Zugegriffen: 28. Apr. 2019.
Suchman, L. (2017). Situational awareness and adherence to the principle of distinction as a necessary condition for lawful autonomy. In R. Geiß (Hrsg.), Lethal autonomous weapons systems: Technology, definition, ethics, law & security (S. 273–283). https://www.bundesregierung.de/breg-de/service/publikationen/lethal-autonomous-weapons-systems-technology-definition-ethics-law-security-1529490. Zugegriffen: 28. Apr. 2019.
Suchman, L., & Weber, J. (2016). Human-machine-autonomies. In N. Bhuta, S. Beck, R. Geiß, H.-Y. Liu, & C. Kreß (Hrsg.), Autonomous weapons systems. Law, ethics, policy (S. 75–102). Cambridge: Cambridge University Press.
Thielmann, T., & Schüttpelz, E. (Hrsg.). (2013). Akteur-Medien-Theorie. Bielefeld: transcript.
US Defense Science Board (US Department of Defense). (2012). The role of autonomy in DoD systems. http://fas.org/irp/agency/dod/dsb/autonomy.pdf. Zugegriffen: 28. Apr. 2019.
US Department of Defense. (2012). Directive autonomy in weapon systems, Number 3000.09, November 21, 2012. https://cryptome.org/dodi/dodd-3000-09.pdf. Zugegriffen: 28. Apr. 2019.
US Department of Defense. (2013). Unmanned systems roadmap 2013–2038. https://stacks.stanford.edu/file/druid:hx930gx9585/DOD-USRM-2013.pdf. Zugegriffen: 28. Apr. 2019.
Vermaas, P. E., Kroes, P., van de Poel, I., Franssen, M., & Houkes, W. (2011). A philosophy of technology. From technical artifacts to sociotechnical systems. San Rafael: Morgen & Claypool.
Weber, J. (2016). Keep adding. On kill lists, drone warfare and the politics of databases. Environment and Planning D: Society and Space, 34(1), 107–125.
Weber, K. (2008). Roboter und Künstliche Intelligenz in Science-Fiction-Filmen: Vom Werkzeug zum Akteur. In J. Fuhse (Hrsg.), Technik und Gesellschaft in der Science-Fiction (S. 34–54). Berlin: LIT.
Winthrop-Young, G. (2005). Friedrich Kittler zur Einführung. Hamburg: Junius.
Wirth, S. (2016). Between interacitivity, control, and ‚everydayness‘ – Towards a theory of user interfaces. In F. Hadler & J. Haupt (Hrsg.), Interface critique (S. 17–38). Berlin: Kadmos.
Wirth, S. (2017). „The ‚unnatural‘ scrolling setting“. Don Ihdes Konzept der embodiment relations diskutiert am Beispiel einer ubiquitären Touchpad-Geste. In C. Ernst & J. Schröter (Hrsg.), Medien, Interfaces und implizites Wissen. Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, 17(2), 117–130.
Wirth, U. (Hrsg.). (2002). Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften. Frankfurt a. M.: Suhrkamp.
Filme
2001 – Odyssey im Weltraum, DVD, Warner Home Video (GBR/USA, 1968, Stanley Kubrick).
Aliens – Die Rückkehr [Directors Cut], DVD, Twentieth Century Fox (USA, 1986, James Cameron).
Dark Star, DVD, Power Station (USA, 1974, John Carpenter).
Eagle Eye, DVD, K/O Paper Products (USA, 2008, Daniel John Caruso)
Terminator 2 – Tag der Abrechnung, DVD, STUDIOCANAL (USA, 1991, James Cameron).
Terminator 3 – Rebellion der Maschinen, DVD, Columbia Tristar Home Video (USA, 2003, Jonathan Mostrow).
WarGames – Kriegsspiele, DVD, Twentieth Century Fox (USA, 1983, John Badham).
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Ernst, C. (2019). Beyond Meaningful Human Control? – Interfaces und die Imagination menschlicher Kontrolle in der zeitgenössischen Diskussion um autonome Waffensysteme (AWS). In: Thimm, C., Bächle, T. (eds) Die Maschine: Freund oder Feind?. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-22954-2_12
Download citation
DOI: https://doi.org/10.1007/978-3-658-22954-2_12
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-22953-5
Online ISBN: 978-3-658-22954-2
eBook Packages: Social Science and Law (German Language)