Zusammenfassung
In diesem Aufsatz wird untersucht, wie sinnvoll und berechtigt die Rede von neuen Formen der Menschenwürdeverletzung durch die Nutzung von KI-Systemen ist. Nach der Skizze eines Kernverständnisses von Menschenwürdeverletzung werden vier Anwendungsgebiete von KI-Systemen exemplarisch erörtert. Es wird dafür argumentiert, dass Menschenwürdeverletzungen zwar weder mit extensiver Werbung und Überredungsstrategien noch mit der Nutzung von Daten über Menschen an sich verbunden sind, dass sie aber tatsächlich da drohen, wo Menschen nicht selbst darüber entscheiden können, welche ihrer Daten wofür verwendet werden und wo ein KI-System selbstständig, ohne weiteres Zutun eines Menschen, über wichtige Belange von Menschen wie Leben und Tod entscheidet.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Ich nenne exemplarisch nur drei. Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen: Unsere gemeinsame Digitale Zukunft, (2019); High Level Expert Group, von der EU-Kommission beauftragt: Ethics Guidelines for a Trustworthy AI, (2019); OECD: Recommendation of the Council of AI, (2019).
- 2.
Damit folge ich einer Idee, die Ralf Stoecker in der Menschenwürdedebatte grundsätzlich stark gemacht hat: „negativ“ heranzugehen, das heißt, davon, was eine Menschenwürdeverletzung ist, nicht davon, was Menschenwürde positiv ausmacht. Allerdings tue ich das nicht, wie Stoecker, in Kombination mit dem, was er eine „induktive“ Herangehensweise nennt, nämlich allein von den Phänomenen her festlegen, was eine Würdeverletzung ist. Stattdessen wähle ich hier einen begrifflich-deduktiven Weg, wie gleich deutlich wird.
- 3.
An der Debatte dazu habe ich mich verschiedentlich beteiligt. Meine eigene Position findet sich am ausführlichsten dargestellt in Weber-Guskar (2016).
- 4.
Z. B. Ethics Guidelines for a Trustworthy AI. (2019, S. 10).
- 5.
Für einen differenzierten Überblick über die verschiedenen Ansätze zum Verständnis der komplizierten und variantenreichen Handlungen von Manipulation siehe Noggle (2020).
- 6.
Diesen Punkt heben insbesondere Baumann und Schaber (2017) hervor.
- 7.
Das ist eine sehr grobe und dennoch keineswegs allgemein geteilte Definition. Für einen Überblick zu Definitionen von Künstlicher Intelligenz siehe Russell und Norvig (2016, S. 1–5).
- 8.
Zu den letzten beiden Sätzen: Fry (2019, S. 20–22).
- 9.
Einzelheiten finden sich im Rundfunkstaatsvertrag: www.die-medienanstalten.de/fileadmin/user_upload/Rechtsgrundlagen/Gesetze_Staatsvertraege/Rundfunkstaatsvertrag_RStV.pdf.
- 10.
So ersetzt der Vorschlag der von der Europäischen Kommission beauftragen High Level Expert Group eines der vier aus der Medizinethik bekannten Prinzipien mittlerer Reichweite neu mit „Transparenz“. Aufgegeben wurde stattdessen „Wohltun“, variiert wurde „Gerechtigkeit“ mit „Fairness“, gleich geblieben sind „Nicht-Schaden“ und „Autonomie“. Ethics Guidelines for Trustworthy AI (2019, S. 12).
- 11.
Der Gesetzestext findet sich auf https://dsgvo-gesetz.de.
- 12.
Siehe zur juristischen Diskussion z. B. Früh (2019).
- 13.
- 14.
Das müsste zumindest der Zusammenhang sein, da man Menschenwürde, wenn man sie überhaupt für ein wichtiges Gut hält, für ein so wichtiges hält, dass sie in einem gerechten, das heißt moralisch vertretbaren Krieg, nicht verletzt werden dürfte.
- 15.
Diese Bestimmung ist eine verkürzte Form von derjenigen, die sich findet in Leveringhaus (2018, S. 344).
- 16.
Neben solchen, manchmal „inhärent“ genannten Argumenten, gibt es auch kontingente, die abhängig sind von der technischen Entwicklungsstufe oder möglichen Folgen des Einsatzes dieser speziellen Waffen: i) Ob sie den Vorgaben des Humanitären Völkerrechts nachkommen können, indem sie sicher zwischen Soldaten und Zivilisten unterscheiden können, Verhältnismäßigkeit und militärische Notwendigkeit einschätzen können; ii) ob mit ihnen mehr Kriege geführt würden als ohne sie. Vgl. Sharkey (2019, S. 78).
- 17.
Eine Zusammenfassung einiger Positionen findet sich in Loh (2019).
- 18.
Eine weitere Diskussion dreht sich darum, ob man KI-Systeme als moralische Objekte, das heißt als „moral patients“ im Unterschied zu „moral agents“ verstehen sollte. Darauf gehe ich hier nicht ein und deshalb auch nicht auf die Frage, ob KI-Systeme selbst eine Würde haben, in der sie verletzt werden können. Würdeverletzung setzt den Besitz und das Verständnis eigener Rechte voraus (zumindest prima facie).
- 19.
Im Sinne dieses Absatzes kann man Bemerkungen in vornehmlich eher juristischen Texten verstehen, die gegen den Einsatz von AWS mit der Idee von Menschenwürde argumentieren (ohne jedoch eine ausgearbeitete Theorie von Menschenwürde im Hintergrund zu haben), z. B. Docherty (2014, S. 23); Heyns (2017).
- 20.
Womöglich ist der Fall aber auch gar nicht grundlegend neu, weil man den Einsatz von Tieren zum Töten ähnlich beschreiben könnte. Darüber wäre nachzudenken. Dabei bleiben aber mindestens drei wichtige Unterschiede zu bedenken: Erstens ist das Abrichten von Tieren in der Ergebnissicherung nicht so verlässlich und vor allem nicht so präzise wie das Programmieren von KI-Systemen; zweitens sind abrichtbare Tiere selbst verletzlich; drittens kann mit Maschinen eine ungleich umfassendere Wirkungskraft erreicht werden als mit abrichtbaren Tieren.
Literatur
Anderson, M., und S.L. Anderson. 2011. Machine ethics. Cambridge: Cambridge University Press.
Arkin, R.C. 2008. Governing lethal behavior: Embedding ethics in a hybrid deliberative/reactive robot architecture. In Proceedings of the 3rd ACM/IEEE international conference on Human robot interaction, 121–128.
Baumann, H., und P. Schaber. 2017. Human dignity and the right to assisted suicide. In Human dignity and assisted suicide, Hrsg. S. Muders, 218–229. Oxford: Oxford University Press.
Bayertz, K., und B. Beck. 2016. Der Begriff der Verantwortung in der Moderne: 19.–20. Jahrhundert. In Handbuch Verantwortung, Hrsg. L. Heidbrink, C. Langbehn, und J. Sombetzki, 1–15. Wiesbaden: Springer VS.
Birnbacher, D. 2016. Are autonomous weapon systems a threat to human dignity? In Autonomous weapon systems: Law, ethics, policy, Hrsg. N. Butha, S. Beck, R. Geiß, H. Liu, und C. Kreß, 105–121. Cambridge: Cambridge University Press.
Christl, W. und S. Spiekermann. 2016. Networks of Control. A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy. Wien: Facultas.
Docherty, B.L. 2014. Shaking the foundations: The human rights implication for killer robots. Hrsg. von Human Rights Watch. https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots. Zugegriffen: 26. September 2020.
Dumortier, F. 2009. Facebook and Risks of De-Contextualisation of Information. Revista de Internet, Derecho y Política 9: 1–16.
Filipović, A. 2015. Die Datafizierung der Welt. Eine ethische Vermessung des digitalen Wandels. Communicatio Socialis 48: 6–15.
Früh, A. 2019. Datenzuordnung und Datenzugang. Eine Übersicht über Stand und Entwicklungspotenziale zweier komplementärer Aspekte der Datenpolitik. digma 4: 172–177.
Fry, H. 2019. Hello World. Was Algorithmen können und wie sie unser Leben verändern. München: Beck.
Heyns, C. 2017. Autonomous weapons in armed conflict and the right to a dignified life: An African perspective. South African Journal on Human Rights 33: 46–71.
Hoerster, N. 2002. Ethik des Embryonenschutzes. Ein rechtsphilosophischer Essay. Stuttgart: Reclam.
Leveringhaus, A. 2018. What’s so bad about killer robots? Journal of Applied Philosophy 35: 341–358.
Loh, J. 2019. Roboterethik. Berlin: Suhrkamp.
Lotter, M.-S. 2016. Verantwortung und Schuld. In Handbuch Verantwortung, Hrsg. L. Heidbrink, C. Langbehn, und J. Sombetzki, 1–14. Wiesbaden: Springer VS.
Misselhorn, C. 2018. Grundfragen der Maschinenethik. Stuttgart: Reclam.
Muders, S. 2017/2018. Two kinds of dignity. In Yearbook of the Irish philosophical society, Special Issue on Humans and Other Animals: 248–276. http://www.fletcherism.co.uk/IPS/wp-content/uploads/2020/03/Yearbbok-full-issue-corrected-03-2020.pdf. Zugegriffen: 26. September 2020.
Müller, A., und P. Schaber, Hrsg. 2018. The Routledge handbook of the ethics of consent. New York: Routledge.
Nissenbaum, H. 2004. Privacy as contextual integrity. Washington Law Review 79: 1.
Noggle, R. 2020. The ethics of manipulation. In The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Hrsg. E.N. Zalta. https://plato.stanford.edu/archives/sum2020/entries/ethics-manipulation/. Zugegriffen: 26. September 2020.
Russell, S., und P. Norvig. 2016. Artificial intelligence: A modern approach. Harlow: Pearson. (Erstveröffentlichung 1995).
Sharkey, A. 2019. Autonomous weapons systems, killer robots and human dignity. Ethics and Information Technology 21: 75–87.
Sparrow, R. 2007. Killer Robots. Journal of Applied Philosophy 24 (1): 62–77.
Stoecker, R. 2003. Menschenwürde und das Paradox der Entwürdigung. In Menschenwürde: Annäherung an einen Begriff, Hrsg. R. Stoecker, 133–151. Wien: öbv&hpt.
Stoecker, R. 2019. Theorie und Praxis der Menschenwürde. Paderborn: mentis.
Stoecker, R., und C. Neuhäuser. 2014. Human dignity as universal nobility. In The Cambridge handbook of human dignity, Hrsg. M. Düwell, J. Braarvig, R. Brownsword, und D. Mieth, 298–309. Cambridge: Cambridge University Press.
Weber-Guskar, E. 2016. Würde als Haltung. Eine philosophische Untersuchung zum Begriff der Menschenwürde. Münster: mentis.
Zuboff, S. 2019. The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York: Public Affairs.
Ethik-Leitlinien
Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen: Unsere gemeinsame Digitale Zukunft. 2019. www.wbgu.de/de/publikationen/publikation/unsere-gemeinsame-digitale-zukunft. Zugegriffen: 26. September 2020.
High Level Expert Group, von der EU-Kommission beauftragt: Ethics Guidelines for a Trustworthy AI. 2019. https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence. Zugegriffen: 26. September 2020.
OECD: Recommendation of the Council of AI. 2019. www.oecd.org/going-digital/ai/principles/. Zugegriffen: 26. September 2020.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2021 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Weber-Guskar, E. (2021). Drohen mit dem Einsatz von Künstlicher Intelligenz neue Menschenwürdeverletzungen?. In: Kipke, R., Röttger, N., Wagner, J., v. Wedelstaedt, A.K. (eds) ZusammenDenken. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-33464-2_12
Download citation
DOI: https://doi.org/10.1007/978-3-658-33464-2_12
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-33463-5
Online ISBN: 978-3-658-33464-2
eBook Packages: Social Science and Law (German Language)