Skip to main content

Drohen mit dem Einsatz von Künstlicher Intelligenz neue Menschenwürdeverletzungen?

  • Chapter
  • First Online:
ZusammenDenken
  • 2179 Accesses

Zusammenfassung

In diesem Aufsatz wird untersucht, wie sinnvoll und berechtigt die Rede von neuen Formen der Menschenwürdeverletzung durch die Nutzung von KI-Systemen ist. Nach der Skizze eines Kernverständnisses von Menschenwürdeverletzung werden vier Anwendungsgebiete von KI-Systemen exemplarisch erörtert. Es wird dafür argumentiert, dass Menschenwürdeverletzungen zwar weder mit extensiver Werbung und Überredungsstrategien noch mit der Nutzung von Daten über Menschen an sich verbunden sind, dass sie aber tatsächlich da drohen, wo Menschen nicht selbst darüber entscheiden können, welche ihrer Daten wofür verwendet werden und wo ein KI-System selbstständig, ohne weiteres Zutun eines Menschen, über wichtige Belange von Menschen wie Leben und Tod entscheidet.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 64.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Ich nenne exemplarisch nur drei. Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen: Unsere gemeinsame Digitale Zukunft, (2019); High Level Expert Group, von der EU-Kommission beauftragt: Ethics Guidelines for a Trustworthy AI, (2019); OECD: Recommendation of the Council of AI, (2019).

  2. 2.

    Damit folge ich einer Idee, die Ralf Stoecker in der Menschenwürdedebatte grundsätzlich stark gemacht hat: „negativ“ heranzugehen, das heißt, davon, was eine Menschenwürdeverletzung ist, nicht davon, was Menschenwürde positiv ausmacht. Allerdings tue ich das nicht, wie Stoecker, in Kombination mit dem, was er eine „induktive“ Herangehensweise nennt, nämlich allein von den Phänomenen her festlegen, was eine Würdeverletzung ist. Stattdessen wähle ich hier einen begrifflich-deduktiven Weg, wie gleich deutlich wird.

  3. 3.

    An der Debatte dazu habe ich mich verschiedentlich beteiligt. Meine eigene Position findet sich am ausführlichsten dargestellt in Weber-Guskar (2016).

  4. 4.

    Z. B. Ethics Guidelines for a Trustworthy AI. (2019, S. 10).

  5. 5.

    Für einen differenzierten Überblick über die verschiedenen Ansätze zum Verständnis der komplizierten und variantenreichen Handlungen von Manipulation siehe Noggle (2020).

  6. 6.

    Diesen Punkt heben insbesondere Baumann und Schaber (2017) hervor.

  7. 7.

    Das ist eine sehr grobe und dennoch keineswegs allgemein geteilte Definition. Für einen Überblick zu Definitionen von Künstlicher Intelligenz siehe Russell und Norvig (2016, S. 1–5).

  8. 8.

    Zu den letzten beiden Sätzen: Fry (2019, S. 20–22).

  9. 9.

    Einzelheiten finden sich im Rundfunkstaatsvertrag: www.die-medienanstalten.de/fileadmin/user_upload/Rechtsgrundlagen/Gesetze_Staatsvertraege/Rundfunkstaatsvertrag_RStV.pdf.

  10. 10.

    So ersetzt der Vorschlag der von der Europäischen Kommission beauftragen High Level Expert Group eines der vier aus der Medizinethik bekannten Prinzipien mittlerer Reichweite neu mit „Transparenz“. Aufgegeben wurde stattdessen „Wohltun“, variiert wurde „Gerechtigkeit“ mit „Fairness“, gleich geblieben sind „Nicht-Schaden“ und „Autonomie“. Ethics Guidelines for Trustworthy AI (2019, S. 12).

  11. 11.

    Der Gesetzestext findet sich auf https://dsgvo-gesetz.de.

  12. 12.

    Siehe zur juristischen Diskussion z. B. Früh (2019).

  13. 13.

    Über diese wird schon lange und in Hinblick auf unterschiedliche moralische Kategorien diskutiert. Für den Zusammenhang mit Menschenwürde siehe insbesondere Sharkey (2019), Birnbacher (2016), Heyns (2017).

  14. 14.

    Das müsste zumindest der Zusammenhang sein, da man Menschenwürde, wenn man sie überhaupt für ein wichtiges Gut hält, für ein so wichtiges hält, dass sie in einem gerechten, das heißt moralisch vertretbaren Krieg, nicht verletzt werden dürfte.

  15. 15.

    Diese Bestimmung ist eine verkürzte Form von derjenigen, die sich findet in Leveringhaus (2018, S. 344).

  16. 16.

    Neben solchen, manchmal „inhärent“ genannten Argumenten, gibt es auch kontingente, die abhängig sind von der technischen Entwicklungsstufe oder möglichen Folgen des Einsatzes dieser speziellen Waffen: i) Ob sie den Vorgaben des Humanitären Völkerrechts nachkommen können, indem sie sicher zwischen Soldaten und Zivilisten unterscheiden können, Verhältnismäßigkeit und militärische Notwendigkeit einschätzen können; ii) ob mit ihnen mehr Kriege geführt würden als ohne sie. Vgl. Sharkey (2019, S. 78).

  17. 17.

    Eine Zusammenfassung einiger Positionen findet sich in Loh (2019).

  18. 18.

    Eine weitere Diskussion dreht sich darum, ob man KI-Systeme als moralische Objekte, das heißt als „moral patients“ im Unterschied zu „moral agents“ verstehen sollte. Darauf gehe ich hier nicht ein und deshalb auch nicht auf die Frage, ob KI-Systeme selbst eine Würde haben, in der sie verletzt werden können. Würdeverletzung setzt den Besitz und das Verständnis eigener Rechte voraus (zumindest prima facie).

  19. 19.

    Im Sinne dieses Absatzes kann man Bemerkungen in vornehmlich eher juristischen Texten verstehen, die gegen den Einsatz von AWS mit der Idee von Menschenwürde argumentieren (ohne jedoch eine ausgearbeitete Theorie von Menschenwürde im Hintergrund zu haben), z. B. Docherty (2014, S. 23); Heyns (2017).

  20. 20.

    Womöglich ist der Fall aber auch gar nicht grundlegend neu, weil man den Einsatz von Tieren zum Töten ähnlich beschreiben könnte. Darüber wäre nachzudenken. Dabei bleiben aber mindestens drei wichtige Unterschiede zu bedenken: Erstens ist das Abrichten von Tieren in der Ergebnissicherung nicht so verlässlich und vor allem nicht so präzise wie das Programmieren von KI-Systemen; zweitens sind abrichtbare Tiere selbst verletzlich; drittens kann mit Maschinen eine ungleich umfassendere Wirkungskraft erreicht werden als mit abrichtbaren Tieren.

Literatur

  • Anderson, M., und S.L. Anderson. 2011. Machine ethics. Cambridge: Cambridge University Press.

    Book  Google Scholar 

  • Arkin, R.C. 2008. Governing lethal behavior: Embedding ethics in a hybrid deliberative/reactive robot architecture. In Proceedings of the 3rd ACM/IEEE international conference on Human robot interaction, 121–128.

    Google Scholar 

  • Baumann, H., und P. Schaber. 2017. Human dignity and the right to assisted suicide. In Human dignity and assisted suicide, Hrsg. S. Muders, 218–229. Oxford: Oxford University Press.

    Chapter  Google Scholar 

  • Bayertz, K., und B. Beck. 2016. Der Begriff der Verantwortung in der Moderne: 19.–20. Jahrhundert. In Handbuch Verantwortung, Hrsg. L. Heidbrink, C. Langbehn, und J. Sombetzki, 1–15. Wiesbaden: Springer VS.

    Google Scholar 

  • Birnbacher, D. 2016. Are autonomous weapon systems a threat to human dignity? In Autonomous weapon systems: Law, ethics, policy, Hrsg. N. Butha, S. Beck, R. Geiß, H. Liu, und C. Kreß, 105–121. Cambridge: Cambridge University Press.

    Google Scholar 

  • Christl, W. und S. Spiekermann. 2016. Networks of Control. A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy. Wien: Facultas.

    Google Scholar 

  • Docherty, B.L. 2014. Shaking the foundations: The human rights implication for killer robots. Hrsg. von Human Rights Watch. https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots. Zugegriffen: 26. September 2020.

  • Dumortier, F. 2009. Facebook and Risks of De-Contextualisation of Information. Revista de Internet, Derecho y Política 9: 1–16.

    Google Scholar 

  • Filipović, A. 2015. Die Datafizierung der Welt. Eine ethische Vermessung des digitalen Wandels. Communicatio Socialis 48: 6–15.

    Article  Google Scholar 

  • Früh, A. 2019. Datenzuordnung und Datenzugang. Eine Übersicht über Stand und Entwicklungspotenziale zweier komplementärer Aspekte der Datenpolitik. digma 4: 172–177.

    Google Scholar 

  • Fry, H. 2019. Hello World. Was Algorithmen können und wie sie unser Leben verändern. München: Beck.

    Book  Google Scholar 

  • Heyns, C. 2017. Autonomous weapons in armed conflict and the right to a dignified life: An African perspective. South African Journal on Human Rights 33: 46–71.

    Article  Google Scholar 

  • Hoerster, N. 2002. Ethik des Embryonenschutzes. Ein rechtsphilosophischer Essay. Stuttgart: Reclam.

    Google Scholar 

  • Leveringhaus, A. 2018. What’s so bad about killer robots? Journal of Applied Philosophy 35: 341–358.

    Article  Google Scholar 

  • Loh, J. 2019. Roboterethik. Berlin: Suhrkamp.

    Google Scholar 

  • Lotter, M.-S. 2016. Verantwortung und Schuld. In Handbuch Verantwortung, Hrsg. L. Heidbrink, C. Langbehn, und J. Sombetzki, 1–14. Wiesbaden: Springer VS.

    Google Scholar 

  • Misselhorn, C. 2018. Grundfragen der Maschinenethik. Stuttgart: Reclam.

    Google Scholar 

  • Muders, S. 2017/2018. Two kinds of dignity. In Yearbook of the Irish philosophical society, Special Issue on Humans and Other Animals: 248–276. http://www.fletcherism.co.uk/IPS/wp-content/uploads/2020/03/Yearbbok-full-issue-corrected-03-2020.pdf. Zugegriffen: 26. September 2020.

  • Müller, A., und P. Schaber, Hrsg. 2018. The Routledge handbook of the ethics of consent. New York: Routledge.

    Google Scholar 

  • Nissenbaum, H. 2004. Privacy as contextual integrity. Washington Law Review 79: 1.

    Google Scholar 

  • Noggle, R. 2020. The ethics of manipulation. In The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Hrsg. E.N. Zalta. https://plato.stanford.edu/archives/sum2020/entries/ethics-manipulation/. Zugegriffen: 26. September 2020.

  • Russell, S., und P. Norvig. 2016. Artificial intelligence: A modern approach. Harlow: Pearson. (Erstveröffentlichung 1995).

    Google Scholar 

  • Sharkey, A. 2019. Autonomous weapons systems, killer robots and human dignity. Ethics and Information Technology 21: 75–87.

    Article  Google Scholar 

  • Sparrow, R. 2007. Killer Robots. Journal of Applied Philosophy 24 (1): 62–77.

    Google Scholar 

  • Stoecker, R. 2003. Menschenwürde und das Paradox der Entwürdigung. In Menschenwürde: Annäherung an einen Begriff, Hrsg. R. Stoecker, 133–151. Wien: öbv&hpt.

    Google Scholar 

  • Stoecker, R. 2019. Theorie und Praxis der Menschenwürde. Paderborn: mentis.

    Google Scholar 

  • Stoecker, R., und C. Neuhäuser. 2014. Human dignity as universal nobility. In The Cambridge handbook of human dignity, Hrsg. M. Düwell, J. Braarvig, R. Brownsword, und D. Mieth, 298–309. Cambridge: Cambridge University Press.

    Google Scholar 

  • Weber-Guskar, E. 2016. Würde als Haltung. Eine philosophische Untersuchung zum Begriff der Menschenwürde. Münster: mentis.

    Google Scholar 

  • Zuboff, S. 2019. The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York: Public Affairs.

    Google Scholar 

Ethik-Leitlinien

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Eva Weber-Guskar .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2021 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Weber-Guskar, E. (2021). Drohen mit dem Einsatz von Künstlicher Intelligenz neue Menschenwürdeverletzungen?. In: Kipke, R., Röttger, N., Wagner, J., v. Wedelstaedt, A.K. (eds) ZusammenDenken. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-33464-2_12

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-33464-2_12

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-33463-5

  • Online ISBN: 978-3-658-33464-2

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics