Skip to main content

Autonomie und Moralität als Zuschreibung

Über die begriffliche und inhaltliche Sinnlosigkeit einer Maschinenethik

  • Chapter
  • First Online:
Maschinenethik

Part of the book series: Ethik in mediatisierten Welten ((EMW))

Zusammenfassung

Der Beitrag widerspricht der These, es gäbe (bald) autonome Maschinen, so dass es einer Ethik für Maschinen bedürfe, denen diese Maschinen unterworfen sein müssten. Eine Ethik für autonome Maschinen wäre nur denkbar, wenn sich diese Maschinen jene Ethik selbst geben würden und dieser freiwillig folgten – genau dies bedeutet Autonomie. Jedes Regelwerk, das den Maschinen einprogrammiert oder anderweitig bindend aufgegeben werden würde, kann nicht als Maschinenethik verstanden werden. Das Hauptargument des Beitrags wird jedoch sein, dass Menschen den vermeintlich autonomen Maschinen diese Eigenschaft zuzuschreiben bereit sind, den Unterschied zwischen Menschen und Maschinen im Handeln verwischen und so erst die Rede von einer Maschinenethik provozieren. Abschließend wird eine moralische Norm formuliert, die jedoch keinerlei Maschinenethik impliziert, sondern eine moralische Norm für Menschen darstellt. Damit würde der Vermenschlichung von Maschinen entgegengewirkt und sicher gestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  • Allen, C., Smit I. and Wallach W. (2005). Artificial Morality: Top-Down, Bottom-Up, and Hybrid Approaches. Ethics and Information Technology, 7, S. 149–155.

    Google Scholar 

  • Allen, C., Smit I. and Wallach W. (2006): Why Machine Ethics? Intelligent Systems, 21, S. 12–17.

    Google Scholar 

  • Allen, C., Varner, G. and Zinser, J. (2000): Prolegomena to any future artificial moral agent. Journal of Experimental and Theoretical Artificial Intelligence, 12, S. 251–261.

    Google Scholar 

  • Carruthers, P. and Smith, P. K. (Eds.) (1996): Theories of theories of mind. Cambridge, New York.

    Google Scholar 

  • Castellano, G. and Peters, C. (2010). Socially perceptive robots: Challenges and concerns. Interaction Studies, 11, S. 201–207.

    Google Scholar 

  • Coeckelbergh, M. (2009). Virtual Moral Agency, Virtual Moral Responsibility. On the Moral Significance of the Appearance, Perception, and Performance of Artificial Agents. AI and Society, 24, S. 181–189.

    Google Scholar 

  • Coeckelbergh, M. (2011). Humans, Animals, and Robots: A Phenomenological Approach to Human-Robot Relations. International Journal of Social Robotics 3, S. 197–204.

    Google Scholar 

  • Davies, M. and Stone, T. (Hrsg.) (1995a): Folk psychology. Oxford, Cambridge

    Google Scholar 

  • Davies, M. and Stone, T. (Hrsg.) (1995b): Mental simulation. Oxford, Cambridge

    Google Scholar 

  • Dennett, D. C. (1994). Philosophie des menschlichen Bewußtseins. Hamburg: Hoffmann and Campe.

    Google Scholar 

  • Draude, C. (2011). Intermediaries: reflections on virtual humans, gender, and the Uncanny Valley. AI and Society, 26, S. 319–327.

    Google Scholar 

  • Floridi, L. (2008). The method of levels of abstraction. Minds and Machines, 18, S. 303–329.

    Google Scholar 

  • Floridi, L. and Sanders, J. W. (2001). Artificial evil and the foundation of computer ethics. Ethics and Information Technology, 3, S. 55–66.

    Google Scholar 

  • Floridi, L. and Sanders, J. W. (2004). On the Morality of Artificial Agents. Minds and Machines, 14, 2004, S. 349–379.

    Google Scholar 

  • Friedman, B. and Kahn, P. H. Jr. (1992). Human agency and responsible computing: Implications for Computer System Design. Journal of Systems Software, 17, S. 7–14.

    Google Scholar 

  • Gransche, B., Shala, E., Hubig, C., Alpsancar, S. and Harrach, S. (2014). Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Stuttgart: Kohlhammer.

    Google Scholar 

  • IJsselsteijn, W. A., Kort, Y. A. W., Midden, C., Eggen, B. and Hoven, E. (2006). Persuasive technology for human well-being: Setting the scene. In IJsselsteijn, W. A., Y. A. W. Kort, C. Midden, B. Eggen and E. Hoven (Eds.): Persuasive technology (Lecture Notes in Computer Science, No. 3962) (S. 1–5), Berlin, Heidelberg: Springer.

    Google Scholar 

  • Isbister, K. and Doyle, P. (2005). The blind men and the elephant revisited. In Ruttkay, Z. and C. Pelachaud (Eds.): From brows to trust: Evaluating embodied conversational agents. Dordrecht: Springer, S. 3–26.

    Google Scholar 

  • Jackson, Fr., Pargetter, R. and Prior E. W. (1982). Functionalism and type-type identity theories. Philosophical Studies, 42(2), S. 209–225.

    Google Scholar 

  • Johnson, D. G. and Miller, K. W. (2008). Un-Making Artificial Moral Agents. Ethics and Information Technology, 10, S. 123–133.

    Google Scholar 

  • Kidd, C. D., Taggart, W. and Turkle, S. (2006). A sociable robot to encourage social interaction among the elderly. Proceedings of the 2006 IEEE International Conference on Robotics and Automation, S. 3972–3976.

    Google Scholar 

  • McCarthy, J. (1979). Ascribing mental qualities to machines. In Ringle, M. (Ed.), Philosophical perspectives in artificial Intelligence. Brighton.

    Google Scholar 

  • Misselhorn, C. (1979). Empathy with inanimate objects and the Uncanny Valley. Minds and Machines, 19, 2009, S. 345–359.

    Google Scholar 

  • Nagel, Th. (1974). What is it like to be a bat? The Philosophical Review, 83, S. 435–450.

    Google Scholar 

  • Sharkey, N. and Sharkey, A. (2010). The crying shame of robot nannies: An ethical appraisal. Interaction Studies, 11, S. 161–190.

    Google Scholar 

  • Slater, M., Antley, A., Davison, A., Swapp, D., Guger, C., Barker, C., Pistrang, N. and Sanchez- Vives, M. V. (2006). A virtual reprise of the Stanley Milgram obedience experiments. PLoS ONE 1, S. 39.

    Google Scholar 

  • Turing, A. M. (1950). Computing machinery and intelligence. Mind, 54, S. 433–457.

    Google Scholar 

  • Weizenbaum, Josef (1966). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9, S. 36–45.

    Google Scholar 

  • Wikipedia (2017): Machine ethics. https://en.wikipedia.org/wiki/Machine_ethics (Zugriff 30.05.2017).

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Karsten Weber .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Weber, K. (2019). Autonomie und Moralität als Zuschreibung. In: Rath, M., Krotz, F., Karmasin, M. (eds) Maschinenethik. Ethik in mediatisierten Welten. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-21083-0_12

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-21083-0_12

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-21082-3

  • Online ISBN: 978-3-658-21083-0

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics