Zusammenfassung
Neuroinformatiker statten Algorithmen inzwischen mit einer „Memory-Komponente“ aus, die verhindert, dass künstliche neuronale Netzwerke Gelerntes wieder überschreiben. Damit sollen die Programme mit weniger Daten schneller lernen.
Ob in autonomen Autos oder Sprachassistenten – künstliche neuronale Netze erfüllen immer anspruchsvollere Aufgaben, zum Teil sogar besser als Menschen. Doch viele haben ein Manko: Sie sind fürchterlich vergesslich!
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Quellen
Ba, J.L. et al.: Multiple Object Recognition with Visual Attention. In: arXiv 1412.7755 (2015)
Gideon, J. et al.: Progressive Neural Networks for Transfer Learning in Emotion Recognition. In: arXiv 1706.03256 (2017)
Hassabis, D. et al.: Neuroscience-inspired artificial intelligence. Neuron 95, 245–258 (2017)
Kirkpatrick, J. et al.: Overcoming catastrophic forgetting in neural networks. PNAS 114, 3521–3526 (2017)
Mnih, V. et al.: Human-level control through deep reinforcement learning. Nature 518, 529–533, 2015
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature
About this chapter
Cite this chapter
Wolf, C. (2022). Vorbild Gehirn. In: Bischoff, M. (eds) Künstliche Intelligenz. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-62492-0_1
Download citation
DOI: https://doi.org/10.1007/978-3-662-62492-0_1
Published:
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-662-62491-3
Online ISBN: 978-3-662-62492-0
eBook Packages: Computer Science and Engineering (German Language)