Zusammenfassung
Der Beitrag widerspricht der These, es gäbe (bald) autonome Maschinen, so dass es einer Ethik für Maschinen bedürfe, denen diese Maschinen unterworfen sein müssten. Eine Ethik für autonome Maschinen wäre nur denkbar, wenn sich diese Maschinen jene Ethik selbst geben würden und dieser freiwillig folgten – genau dies bedeutet Autonomie. Jedes Regelwerk, das den Maschinen einprogrammiert oder anderweitig bindend aufgegeben werden würde, kann nicht als Maschinenethik verstanden werden. Das Hauptargument des Beitrags wird jedoch sein, dass Menschen den vermeintlich autonomen Maschinen diese Eigenschaft zuzuschreiben bereit sind, den Unterschied zwischen Menschen und Maschinen im Handeln verwischen und so erst die Rede von einer Maschinenethik provozieren. Abschließend wird eine moralische Norm formuliert, die jedoch keinerlei Maschinenethik impliziert, sondern eine moralische Norm für Menschen darstellt. Damit würde der Vermenschlichung von Maschinen entgegengewirkt und sicher gestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Allen, C., Smit I. and Wallach W. (2005). Artificial Morality: Top-Down, Bottom-Up, and Hybrid Approaches. Ethics and Information Technology, 7, S. 149–155.
Allen, C., Smit I. and Wallach W. (2006): Why Machine Ethics? Intelligent Systems, 21, S. 12–17.
Allen, C., Varner, G. and Zinser, J. (2000): Prolegomena to any future artificial moral agent. Journal of Experimental and Theoretical Artificial Intelligence, 12, S. 251–261.
Carruthers, P. and Smith, P. K. (Eds.) (1996): Theories of theories of mind. Cambridge, New York.
Castellano, G. and Peters, C. (2010). Socially perceptive robots: Challenges and concerns. Interaction Studies, 11, S. 201–207.
Coeckelbergh, M. (2009). Virtual Moral Agency, Virtual Moral Responsibility. On the Moral Significance of the Appearance, Perception, and Performance of Artificial Agents. AI and Society, 24, S. 181–189.
Coeckelbergh, M. (2011). Humans, Animals, and Robots: A Phenomenological Approach to Human-Robot Relations. International Journal of Social Robotics 3, S. 197–204.
Davies, M. and Stone, T. (Hrsg.) (1995a): Folk psychology. Oxford, Cambridge
Davies, M. and Stone, T. (Hrsg.) (1995b): Mental simulation. Oxford, Cambridge
Dennett, D. C. (1994). Philosophie des menschlichen Bewußtseins. Hamburg: Hoffmann and Campe.
Draude, C. (2011). Intermediaries: reflections on virtual humans, gender, and the Uncanny Valley. AI and Society, 26, S. 319–327.
Floridi, L. (2008). The method of levels of abstraction. Minds and Machines, 18, S. 303–329.
Floridi, L. and Sanders, J. W. (2001). Artificial evil and the foundation of computer ethics. Ethics and Information Technology, 3, S. 55–66.
Floridi, L. and Sanders, J. W. (2004). On the Morality of Artificial Agents. Minds and Machines, 14, 2004, S. 349–379.
Friedman, B. and Kahn, P. H. Jr. (1992). Human agency and responsible computing: Implications for Computer System Design. Journal of Systems Software, 17, S. 7–14.
Gransche, B., Shala, E., Hubig, C., Alpsancar, S. and Harrach, S. (2014). Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Stuttgart: Kohlhammer.
IJsselsteijn, W. A., Kort, Y. A. W., Midden, C., Eggen, B. and Hoven, E. (2006). Persuasive technology for human well-being: Setting the scene. In IJsselsteijn, W. A., Y. A. W. Kort, C. Midden, B. Eggen and E. Hoven (Eds.): Persuasive technology (Lecture Notes in Computer Science, No. 3962) (S. 1–5), Berlin, Heidelberg: Springer.
Isbister, K. and Doyle, P. (2005). The blind men and the elephant revisited. In Ruttkay, Z. and C. Pelachaud (Eds.): From brows to trust: Evaluating embodied conversational agents. Dordrecht: Springer, S. 3–26.
Jackson, Fr., Pargetter, R. and Prior E. W. (1982). Functionalism and type-type identity theories. Philosophical Studies, 42(2), S. 209–225.
Johnson, D. G. and Miller, K. W. (2008). Un-Making Artificial Moral Agents. Ethics and Information Technology, 10, S. 123–133.
Kidd, C. D., Taggart, W. and Turkle, S. (2006). A sociable robot to encourage social interaction among the elderly. Proceedings of the 2006 IEEE International Conference on Robotics and Automation, S. 3972–3976.
McCarthy, J. (1979). Ascribing mental qualities to machines. In Ringle, M. (Ed.), Philosophical perspectives in artificial Intelligence. Brighton.
Misselhorn, C. (1979). Empathy with inanimate objects and the Uncanny Valley. Minds and Machines, 19, 2009, S. 345–359.
Nagel, Th. (1974). What is it like to be a bat? The Philosophical Review, 83, S. 435–450.
Sharkey, N. and Sharkey, A. (2010). The crying shame of robot nannies: An ethical appraisal. Interaction Studies, 11, S. 161–190.
Slater, M., Antley, A., Davison, A., Swapp, D., Guger, C., Barker, C., Pistrang, N. and Sanchez- Vives, M. V. (2006). A virtual reprise of the Stanley Milgram obedience experiments. PLoS ONE 1, S. 39.
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 54, S. 433–457.
Weizenbaum, Josef (1966). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9, S. 36–45.
Wikipedia (2017): Machine ethics. https://en.wikipedia.org/wiki/Machine_ethics (Zugriff 30.05.2017).
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Weber, K. (2019). Autonomie und Moralität als Zuschreibung. In: Rath, M., Krotz, F., Karmasin, M. (eds) Maschinenethik. Ethik in mediatisierten Welten. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-21083-0_12
Download citation
DOI: https://doi.org/10.1007/978-3-658-21083-0_12
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-21082-3
Online ISBN: 978-3-658-21083-0
eBook Packages: Social Science and Law (German Language)