Skip to main content

Zum Unterschied zwischen künstlicher und menschlicher Intelligenz und den ethischen Implikationen der Verwechselung

  • Living reference work entry
  • First Online:
Philosophisches Handbuch Künstliche Intelligenz

Part of the book series: Springer Reference Geisteswissenschaften ((SPREFGEIST))

  • 873 Accesses

Zusammenfassung

Dieser Beitrag beschäftigt sich mit der Frage, worin sich die menschliche Intelligenz von der künstlichen Intelligenz unterscheidet und ob es zulässig sein sollte, die KI als „menschenähnlich“ zu bezeichnen. Anhand von fünf Thesen wird gezeigt, dass ein in der Sprache weit verbreiteter Vergleich von menschlicher und künstlicher Intelligenz problematisch ist. KI-Systeme verfügen nämlich über wenig menschenähnliche Informationen; dafür aber über maschinenspezifische Information, die wir Menschen nicht haben. KI-Systeme können nicht menschenähnlich denken, da sie keinen Zugang zu Noemata haben. KI-Systeme können keine menschenähnlichen Motivationsstrukturen aufbauen, da sie nicht wahrnehmen können, was von Wert ist. Und schließlich wird ihre Autonomie nie sozial eingebettet sein, was diese fundamental von der menschlichen Autonomie und deren natürlichen Grenzen unterscheidet. Das Fazit dieses Artikels ist, dass KI-Systeme zwar vernünftig sein können, aber nicht intelligent. Und der Grund dafür ist letztlich, dass sie nicht die Fähigkeit haben, sich mit der Welt auf intelligente Weise im menschlichen Sinne zu verbinden; sie können mit der Welt „nichts anfangen“.

*Notiz: Dieser Artikel ist ein vom ECOWIN Verlag autorisierter Reprint des Beitrags:

Spiekermann, S. „Zum Unterschied zwischen künstlicher und menschlicher Intelligenz und den ethischen Implikationen der Verwechselung“, in: Ethische Herausforderungen im Zeitalter des Digitalen Wandels, Hrsg.: Österreichischer Rat für Forschung & Technologieentwicklung, ECOWIN, Wien, 2020*

Der Originalbeitrag wurde in einigen Passagen angepasst für das Handbuch, um Abstract und Keywords ergänzt.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Institutional subscriptions

Similar content being viewed by others

Notes

  1. 1.

    Mir ist bewusst, dass diese Annahme von derzeitigen Experimenten untergraben wird, die Software auf organischen Materialien zu implementieren (siehe z. B.: https://www.pnas.org/content/117/4/1853 oder https://royalsocietypublishing.org/doi/full/10.1098/rsif.2017.0937). Solche Experimente sind allerdings so sehr in den Kinderschuhen, dass sie im Jahr 2020 wissenschaftlich kaum ernst zu nehmen sind; insbesondere, da die Kontrollierbarkeit der Reaktionen von organischen Materialen sich gar nicht mit den derzeitigen Paradigmen unserer Computermechanik und Statistik vereinbaren lässt: etwa der Berechenbarkeit, Nachvollziehbarkeit oder Wiederholbarkeit von Operationen.

  2. 2.

    Vgl.: „If, in philosophy, there is a „before and after Immanuel Kant“ (1724–1804), this is because he has inverted the meaning of intelligence (Verstand) and reason (Vernunft) as understood by all preceding philosophers: from Plato, Aristotle, Plotinus and St. Augustine to St. Thomas Aquinas, Dante, Leibniz, Malebranche, and beyond, all said to labor under an illusion which he alone was able to recognize and dispel! Indeed, in keeping with his conviction that intuition can only be sensible or empirical, he elevated reason to the highest rank among cognitive faculties, capable supposedly of rendering synthetic, systematic, universal and unified intelligibility. Hence intelligence or intellect came to be seen as inferior to reason: a secondary faculty concerned with processing abstractions, endowing sense experience with a conceptual form, and connecting the resultant concepts so as to constitute a coherent structure – until, finally, it turned into discursive knowledge, that is to say, became „reason.““ (Bérard 2018)

  3. 3.

    „We absolutely cannot think what we can’t think“ (G.E. Moore)

  4. 4.

    Wenn überhaupt, schaffen es gute Lehrer, mit Hilfe von Analogien und Narrativen das klar zu machen, worum es geht. Solch eine Erklärung beginnt dann meistens mit den Worten: „Stell Dir vor …“

  5. 5.

    https://en.wiktionary.org/wiki/nous#Etymology.

  6. 6.

    Deswegen ist es auch so angenehm, wenn man einen intelligenten Menschen sprechen hört, denn man anerkennt intuitiv sofort, dass der- oder diejenige richtig liegt. Meistens kann man nicht sagen, warum man meint, dass der intelligente Mensch richtig liegt, aber man teilt das Wirklichkeitsverständnis mit ihm oder ihr.

  7. 7.

    Vgl.: „Unsere Wahrnehmung ... ist … das Produkt leibgebundener Formen synästhetischer Wahrnehmung. An ihrem Ausgangspunkt steht immer das, was die aristotelische Wahrnehmungslehre als sensus communis (Gemeingefühl) bezeichnete. Wir sehen ‚sprudelndes Wasser‘, hören ‚helle Glockentöne‘, sehen einen ‚harten Aufschlag‘, riechen ‚den stechenden Geruch von Heu‘, – und lernen erst später, ‚das Sprudelnde‘, ‚das Helle‘ oder ‚das Harte und Stechende‘ verschiedenen Sinnesmodalitäten zuzuordnen, die sich analytisch voneinander isolieren und vermeintlich ‚elementaren‘ (auditiven, visuellen, taktilen, olfaktorischen oder gustatorischen) ‚vorgegebenen Sinneseindrücken‘ zuordnen lassen.“ (Zitat, unveröffentlichtes Manuskript, Hoff, 2021)

  8. 8.

    Vgl.: „As an example, consider a simulation that Markus Diesmann and his colleagues conducted several years ago using nearly 83.000 processors on the K supercomputer in Japan. Simulating 1.73 billion neurons consumed 10 billion times as much energy as an equivalent size portion of the brain, even though it used very simplified models and did not perform any learning … The IBM TrueNorth group, for example recently estimated that a synaptic transmission in its system costs 26 picojoules. Although this is about a thousand times the energy of the same action in a biological system, it is approaching 1/100.000 of the energy that would be consumed by a simulation carried out on a conventional general-purpose machine “ (S. 29 and 31 in (Meier 2017)).

  9. 9.

    Es ist mir bewusst, dass einige Wissenschaftler wie Daniel Dennett argumentieren, dass der Mangel an Resonanzfähigkeit eines Systems nicht an dessen Materialeigenschaften liegt. Ein Beweis für diese Argumentation liegt jedoch nicht vor. Fakt ist, dass Computer in absehbarer Zeit nicht über einen resonanzsensiblen Leib verfügen.

  10. 10.

    Vergleiche dazu meinen Artikel zum schlechten Menschenbild unserer Zeit (Spiekermann 2019a) und den historischen Quellen dieses Denkens (Spiekermann 2019b).

  11. 11.

    Man beachte an dieser Stelle, dass die technischen „skills“ von KI, also technische Komponenten, die bestimmte Algorithmen ausführen, zu unterscheiden sind von dem was Richard Sennet unter „skill“ versteht (Sennett 2009)

  12. 12.

    Es sei an dieser Stelle gesagt, dass es Momente in der Interaktion mit Robotern gibt, wo diese gerade aufgrund ihrer selbstlosen Reaktionen ungeheuer verwundbar wirken und dadurch wiederum menschlich (vgl. dazu (Spiekermann 2019b)). Und wichtig ist mir auch anzumerken, dass ich natürlich keinem Menschen absprechen möchte, dass er oder sie oftmals selbstlos bzw. altruistisch handelt. Nur ist es normalerweise schon so, dass wir unser Selbst auch in selbstlose Handlungen einbringen. Und selbst bei altruistischen Formen des Handelns spielt diese eigene Psyche und Motivlage eine Rolle.

  13. 13.

    Siehe etwa „Theory of Reasoned Action“ oder „Theoy of Planned Behavior“ (vgl. Ajzen und Fishbein 2005).

  14. 14.

    Der autonoetische Teil des Gedächtnisses ist Teil des Langzeitgedächtnisses und derjenige Teil, welcher die gewachsene Persönlichkeit eines Menschen widerspiegelt.

  15. 15.

    Wiederum weist uns das Wort noema mit der Wortwurzel des nous auf das Geteilte hin; das, was von der Gemeinschaft geteilt verstanden wird.

  16. 16.

    Nach Kant ist Erkenntnis ein „Ganzes verglichener und verknüpfter Vorstellungen“ (Kant, Kritik der reinen Vernunft, A 97). An ihrem Ausgangspunkt steht eine in den Sinnen passiv und zerstreut gegebene Mannigfaltigkeit. Zu deren Synthesis ist die „Spontaneität unseres Denkens“ erforderlich (A77/B102). Ein Objekt ist folgerichtig „das, in dessen Begriff das Mannigfaltige einer gegebenen Anschauung vereinigt ist“ (B137). Erst dadurch werden sachbezogene Urteile möglich, die uns erlauben, die Welt zu erkennen, indem sie den referenziellen Gegenstandsbezug subjektiver Synthesen sichern.

  17. 17.

    Roth (2001), S. 338.

  18. 18.

    Hierzu unter Bezugnahme auf Aristotles‘ Wahrnehmungstheorie: Fuchs (2016), S. 187 f. sowie Aristoteles, De Anima / Über die Seele, III, 430 f.

  19. 19.

    Kierkegaard, S. (2005). Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst. München: DTV.

  20. 20.

    Siehe dazu etwa Scheler (1921, 2007).

  21. 21.

    Ein bisher nicht da gewesenes Datenmuster wird als ‚neu‘ klassifiziert. Dieses ‚neu‘ ist automatisch gut. Die „Reinforcement Learning Komponente“ maximiert sich und „belohnt“ das darunter liegende System.

  22. 22.

    Beachte: „intrinsisch“ steht für „aus dem Inneren kommend“.

  23. 23.

    Lediglich die primitive Neugierde ist ein Motiv (von vielen), wo das Neue in Reinform gut sein mag.

  24. 24.

    Vgl.: „To be autonomous does not mean to be detached from or independent of others, and in fact Ryan and Lynch (1989) showed how autonomy can be positively associated with relatedness and well-being. Autonomy involves being volitional, acting from one’s integrated sense fo self, and endorsing one’s actin. It does not entail being separate from, not relying upon, or being independent of others.“

  25. 25.

    Vgl. hierzu Spiekermann. (2022).

  26. 26.

    Ein KI-System könnte natürlich eine Funktion integrieren, die das Abgeschaltet-werden oder das Abgeschossen-werden minimiert. Sie wird dann Handlungsstrategien entwickeln, die solche Eventualitäten vermeidet. Damit wird die Autonomie der Maschine begrenzt; allerdings nicht sozial begrenzt, wie das beim Menschen der Fall ist.

Literatur

  • Ajzen, I., und M. Fishbein. 2005. The influence of attitudes on behavior. Mahwah: Erlbaum.

    Google Scholar 

  • Baddeley, A., M. W. Eysenck, und M. C. Anderson. 2015. Memory. New York: Psychology Press.

    Book  Google Scholar 

  • Bérard, B. 2018. Unmasking AI. Artificial Intelligence. ed. Philos-Sophia Initiative Foundation. https://philos-sophia.org/unmasking-ai/. Zugegriffen am 22.02.2022.

  • Csikszentmihalyi, M. 1991. Flow: The psychology of optimal experience. New York: Harper Collins.

    Google Scholar 

  • Damasio, A. R., B. J. Everitt, und D. Bishop. 1996. The somatic marker hypothesis and the possible functions of the prefrontal cortex. Philosophical Transactions: Biological Sciences351(1346): 1413–1420.

    Article  Google Scholar 

  • Deci, E. L., und M. Vansteenkiste. 2004. Self-determination theory and basic need satisfaction: Understanding human development in positive psychology. Ricerche di Psichologia 27:17–34.

    Google Scholar 

  • Epley, Nicholas, Adam Waytz, und John T. Cacioppo. 2007. ‚On Seeing Human: A Three-Factor Theory of Anthropomorphism‘. Psychological Review114:864–886.

    Google Scholar 

  • Feser, E. 2013. Kurzweil’s phantasms – A review of how to create a mind: The secret of human thought revealed. First Things. https://www.firstthings.com/article/2013/04/kurzweils-phantasms. Zugegriffen am 22.02.2022.

  • Fuchs, T. 2016. Das Gehirn – ein Beziehungsorgan: Eine phänomenologisch-ökologische Konzeption. Stuttgart: Kohlhammer.

    Google Scholar 

  • Gehring, Petra. (2004). „Es blinkt, es denkt. Die bildgebenden und die weltbildgebenden Verfahren der Neurowissenschaften.“ Philosophische Rundschau51:272–295.

    Google Scholar 

  • Hastak, M., und M. B. Mazis. 2011. Deception by implication: A typology of truthful but misleading advertising and labeling claims. Journal of Public Policy & Marketing30(2): 157–167.

    Article  Google Scholar 

  • Hawkins, J. 2017. What intelligent machines need to learn from the neocortex. IEEE SPECTRUM54(6): 33–37.

    Article  Google Scholar 

  • Hoff, J. 2021. Verteidigung des Heiligen – Anthropologie der digitalen Transformation. Freiburg: Herder.

    Google Scholar 

  • Husserl, Edmund. 1930 (2009). Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie. Hamburg: Felix Meiner.

    Google Scholar 

  • Jenson, D., und M. Iacoboni. 2011. Literary biomimesis: mirror neurons and the ontological priority of representation. California Italian Studies 2(1). http://www.neurohumanitiestudies.eu/archive/paper/?id=150.

  • Kurzweil, R. 2006. The singularity is near- When humans transcend biology. London: Penguin Group.

    Google Scholar 

  • Mc Gilchrist, I. 2009. The master and his emissary – The divided brain and the making of the Western World. New Haven/London: Yale University Press.

    Google Scholar 

  • McClelland, D. 2009. Human motivation. Cambridge, UK: Cambridge University Press.

    Google Scholar 

  • Meier, K. 2017. The brain as computer – The brain may be bad at crunching numbers, but it’s a Marvel of computational efficiency. IEEE Spektrum54(6): 27–31.

    Google Scholar 

  • Nietzsche, F. 1882. Die Fröhliche Wissenschaft. Stutgart: Reclam.

    Google Scholar 

  • Parasuraman, R., und T. B. Sheridan. 2000. A model for types and levels of human interaction with automation. IEEE Transactions on Systems, Man, and Cybernetics30(3): 286–297.

    Article  Google Scholar 

  • Reiss, S. 2004. Multifaceted nature of intrinsic motivation: The theory of 16 basic desires. Review of General Psychology 8(3): 179–193.

    Article  Google Scholar 

  • Rosa, H. 2016. Resonanz. Eine Soziologie der Weltbeziehung, 2. Aufl. Berlin: Suhrkamp.

    Google Scholar 

  • Roth, G. 2001. Fühlen, Denken, Handeln: wie das Gehirn unser Verhalten steuert. Frankfurt a. M.: Suhrkamp Verlag.

    Google Scholar 

  • Ryan, R. M., und E. L. Deci. 2000. Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist 55:68–78. https://doi.org/10.1037/0003-066X.55.1.68.

    Article  Google Scholar 

  • Ryan, R. M., und J. H. Lynch. (1989). Emotional autonomy versus detachment: Revisiting the vicissitudes of adolescence and young adulthood. Child Development 60(2): 340–356.

    Google Scholar 

  • Scheler, M. 1921 (2007). Der Formalismus in der Ethik und die Materiale Wertethik – Neuer Versuch der Grundlegung eines ethischen Personalismus, 2., unveränd. Aufl. ed. Halle an der der Saale: Max Niemeyer.

    Google Scholar 

  • Schmidhuber, J. 2010. Formal theory of creativity, fun, intrinsic motivation (1990–2010). IEEE Transactions on Autonomous Mental Development 2(3): 230–247.

    Article  Google Scholar 

  • Sennett, R. 2009. The craftsman. New York: Penguin Books.

    Google Scholar 

  • Spiekermann, S. 2019a, 23./24. März. Der Mensch als Fehler. Süddeutsche Zeitung, S. 15.

    Google Scholar 

  • Spiekermann, S. 2019b. Digitale Ethik – Ein Wertesystem für das 21. Jahrhundert. Munich: Droemer.

    Google Scholar 

  • Spiekermann, S. 2022. Digitale Ethik und Künstliche Intelligenz. In Philosophisches Handbuch Künstliche Intelligenz, Hrsg. Mainzer, K. München: Springer.

    Google Scholar 

  • Vallerand, R. J. 1997. Toward a hierarchical model of intrinsic and extrinsic motivation. Advances in Experimental Social Psychology 29:271–360.

    Article  Google Scholar 

  • Vroom, V. H. 1964. Work and motivation. New Jersey: John Wiley & Sons Inc.

    Google Scholar 

  • Wendt, A. 2015. Quantum mind and social science – Unifying physical and social ontology. Cambridge: Cambridge University Press.

    Book  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Sarah Spiekermann .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2021 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this entry

Check for updates. Verify currency and authenticity via CrossMark

Cite this entry

Spiekermann, S. (2021). Zum Unterschied zwischen künstlicher und menschlicher Intelligenz und den ethischen Implikationen der Verwechselung. In: Mainzer, K. (eds) Philosophisches Handbuch Künstliche Intelligenz. Springer Reference Geisteswissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-23715-8_35-1

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-23715-8_35-1

  • Received:

  • Accepted:

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-23715-8

  • Online ISBN: 978-3-658-23715-8

  • eBook Packages: Springer Referenz Sozialwissenschaften und Recht

Publish with us

Policies and ethics