Advertisement

Maschinenethik pp 193-208 | Cite as

Autonomie und Moralität als Zuschreibung

Über die begriffliche und inhaltliche Sinnlosigkeit einer Maschinenethik
  • Karsten WeberEmail author
Chapter
Part of the Ethik in mediatisierten Welten book series (EMW)

Zusammenfassung

Der Beitrag widerspricht der These, es gäbe (bald) autonome Maschinen, so dass es einer Ethik für Maschinen bedürfe, denen diese Maschinen unterworfen sein müssten. Eine Ethik für autonome Maschinen wäre nur denkbar, wenn sich diese Maschinen jene Ethik selbst geben würden und dieser freiwillig folgten – genau dies bedeutet Autonomie. Jedes Regelwerk, das den Maschinen einprogrammiert oder anderweitig bindend aufgegeben werden würde, kann nicht als Maschinenethik verstanden werden. Das Hauptargument des Beitrags wird jedoch sein, dass Menschen den vermeintlich autonomen Maschinen diese Eigenschaft zuzuschreiben bereit sind, den Unterschied zwischen Menschen und Maschinen im Handeln verwischen und so erst die Rede von einer Maschinenethik provozieren. Abschließend wird eine moralische Norm formuliert, die jedoch keinerlei Maschinenethik impliziert, sondern eine moralische Norm für Menschen darstellt. Damit würde der Vermenschlichung von Maschinen entgegengewirkt und sicher gestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann.

Schlagwörter

Autonomie Verantwortung Maschinenethik Gestaltungsnorm 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Allen, C., Smit I. and Wallach W. (2005). Artificial Morality: Top-Down, Bottom-Up, and Hybrid Approaches. Ethics and Information Technology, 7, S. 149–155.Google Scholar
  2. Allen, C., Smit I. and Wallach W. (2006): Why Machine Ethics? Intelligent Systems, 21, S. 12–17.Google Scholar
  3. Allen, C., Varner, G. and Zinser, J. (2000): Prolegomena to any future artificial moral agent. Journal of Experimental and Theoretical Artificial Intelligence, 12, S. 251–261.Google Scholar
  4. Carruthers, P. and Smith, P. K. (Eds.) (1996): Theories of theories of mind. Cambridge, New York.Google Scholar
  5. Castellano, G. and Peters, C. (2010). Socially perceptive robots: Challenges and concerns. Interaction Studies, 11, S. 201–207.Google Scholar
  6. Coeckelbergh, M. (2009). Virtual Moral Agency, Virtual Moral Responsibility. On the Moral Significance of the Appearance, Perception, and Performance of Artificial Agents. AI and Society, 24, S. 181–189.Google Scholar
  7. Coeckelbergh, M. (2011). Humans, Animals, and Robots: A Phenomenological Approach to Human-Robot Relations. International Journal of Social Robotics 3, S. 197–204.Google Scholar
  8. Davies, M. and Stone, T. (Hrsg.) (1995a): Folk psychology. Oxford, CambridgeGoogle Scholar
  9. Davies, M. and Stone, T. (Hrsg.) (1995b): Mental simulation. Oxford, CambridgeGoogle Scholar
  10. Dennett, D. C. (1994). Philosophie des menschlichen Bewußtseins. Hamburg: Hoffmann and Campe.Google Scholar
  11. Draude, C. (2011). Intermediaries: reflections on virtual humans, gender, and the Uncanny Valley. AI and Society, 26, S. 319–327.Google Scholar
  12. Floridi, L. (2008). The method of levels of abstraction. Minds and Machines, 18, S. 303–329.Google Scholar
  13. Floridi, L. and Sanders, J. W. (2001). Artificial evil and the foundation of computer ethics. Ethics and Information Technology, 3, S. 55–66.Google Scholar
  14. Floridi, L. and Sanders, J. W. (2004). On the Morality of Artificial Agents. Minds and Machines, 14, 2004, S. 349–379.Google Scholar
  15. Friedman, B. and Kahn, P. H. Jr. (1992). Human agency and responsible computing: Implications for Computer System Design. Journal of Systems Software, 17, S. 7–14.Google Scholar
  16. Gransche, B., Shala, E., Hubig, C., Alpsancar, S. and Harrach, S. (2014). Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Stuttgart: Kohlhammer.Google Scholar
  17. IJsselsteijn, W. A., Kort, Y. A. W., Midden, C., Eggen, B. and Hoven, E. (2006). Persuasive technology for human well-being: Setting the scene. In IJsselsteijn, W. A., Y. A. W. Kort, C. Midden, B. Eggen and E. Hoven (Eds.): Persuasive technology (Lecture Notes in Computer Science, No. 3962) (S. 1–5), Berlin, Heidelberg: Springer.Google Scholar
  18. Isbister, K. and Doyle, P. (2005). The blind men and the elephant revisited. In Ruttkay, Z. and C. Pelachaud (Eds.): From brows to trust: Evaluating embodied conversational agents. Dordrecht: Springer, S. 3–26.Google Scholar
  19. Jackson, Fr., Pargetter, R. and Prior E. W. (1982). Functionalism and type-type identity theories. Philosophical Studies, 42(2), S. 209–225.Google Scholar
  20. Johnson, D. G. and Miller, K. W. (2008). Un-Making Artificial Moral Agents. Ethics and Information Technology, 10, S. 123–133.Google Scholar
  21. Kidd, C. D., Taggart, W. and Turkle, S. (2006). A sociable robot to encourage social interaction among the elderly. Proceedings of the 2006 IEEE International Conference on Robotics and Automation, S. 3972–3976.Google Scholar
  22. McCarthy, J. (1979). Ascribing mental qualities to machines. In Ringle, M. (Ed.), Philosophical perspectives in artificial Intelligence. Brighton.Google Scholar
  23. Misselhorn, C. (1979). Empathy with inanimate objects and the Uncanny Valley. Minds and Machines, 19, 2009, S. 345–359.Google Scholar
  24. Nagel, Th. (1974). What is it like to be a bat? The Philosophical Review, 83, S. 435–450.Google Scholar
  25. Sharkey, N. and Sharkey, A. (2010). The crying shame of robot nannies: An ethical appraisal. Interaction Studies, 11, S. 161–190.Google Scholar
  26. Slater, M., Antley, A., Davison, A., Swapp, D., Guger, C., Barker, C., Pistrang, N. and Sanchez- Vives, M. V. (2006). A virtual reprise of the Stanley Milgram obedience experiments. PLoS ONE 1, S. 39.Google Scholar
  27. Turing, A. M. (1950). Computing machinery and intelligence. Mind, 54, S. 433–457.Google Scholar
  28. Weizenbaum, Josef (1966). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9, S. 36–45.Google Scholar
  29. Wikipedia (2017): Machine ethics. https://en.wikipedia.org/wiki/Machine_ethics (Zugriff 30.05.2017).

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Ostbayerische Technische Hochschule Regensburg Institut für Sozialforschung und TechnikfolgenabschätzungRegensburgDeutschland

Personalised recommendations