Skip to main content
Log in

Automatische Emotionserkennung – Technologien, Deutung und Anwendungen

  • HAUPTBEITRAG
  • AUTOMATISCHE EMOTIONSERKENNUNG
  • Published:
Informatik-Spektrum Aims and scope

Zusammenfassung

Menschen kommunizieren nicht nur durch Sprache miteinander, sondern geben unbewusst auch eine Menge Informationen durch Emotionen preis. Da die herkömmliche Kommunikation zwischen Mensch und Computer oft nicht sehr intuitiv ist, soll sie durch die Entwicklungen im Forschungsbereich Affective Computing verbessert werden. Hierfür muss der Computer in der Lage sein, die Gefühle seines Gegenübers richtig zu deuten.

In diesem Artikel werden die Technologien und Verfahren zur Erkennung menschlicher Emotionen von Computersystemen vorgestellt, die Deutung der Daten zu Emotionen beschrieben und Anwendungsbeispiele gezeigt. Der Schwerpunkt liegt bei den technischen Komponenten der Emotionserkennung. Hierbei steht die Deutung von Gesichtszügen, Aussprache und Vitaldaten (Puls, Blutdruck etc.) im Vordergrund. Andere Hinweise wie Gestik und Körperhaltung sind sehr schwer durch Sensorik zu messen bzw. kaum zu interpretieren. Die zuverlässigsten Ergebnisse liefern stets multimodale Verfahren, bei denen mehrere Sensoren als Quellen verwendet werden, um eine besser Zuordnung zu einem emotionalen Zustand zu ermöglichen. Dies spiegelt auch die menschliche Wahrnehmung wider, da wir Emotionen über eine Vielzahl von Sinnesorganen wahrnehmen.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Institutional subscriptions

References

  1. Appenrodt J, Al-Hamadi A, Michaelis B (2010) Data gathering for gesture recognition systems based on single color-, stereo color- and thermal cameras. Int J Signal Process Image Process Pattern Recognit 37–50

  2. Bänziger T, Grandjean D, Scherer KR (2009) Emotion Recognition From Expression in Face, Voice, and Body: The Multimodal Emotion Recognition Test (MERT). University of Geneva

  3. Ben-Gal I (2007) Bayesian Networks

  4. Bowman DA, Kruijf E, LaViola JJ, Poupyrev I (2004) 3D User Interfaces: Theory and Practice, 1. Aufl. Addison-Wesley Professional

  5. Castellano G, Kessous L, Caridakis G (2008) Multimodal emotion recognition from expressive faces, body gestures and speech. InfoMus Lab, DIST – University of Genova; Department of Speech, Language and Hearing, University of Tel Aviv; Image Video and Multimedia Systems Laboratory, National Technical University of Athens

  6. Feichtinger HG, Strohmer T (1998) Gabor Analysis and Algorithms. Birkhäuser

  7. Frank RH (1992) Die Strategie der Emotionen. Oldenbourg

  8. Gerhäuser H, Elst G (2011) Detection of Faces and Facial Expressions Used in Market Research – Shore™. Fraunhofer Institute for Integrated Circuits IIS, Erlangen

    Google Scholar 

  9. Hubbard BB (1997) Die Mathematik der kleinen Wellen, Wavelets. Birkhäuser

  10. James W (1984) What is an emotion? Mind 9

  11. Kim J, André E (2008) Emotion Recognition Based on Physiological Changes in Music Listening. In: IEEE TPAMI 30(12)

  12. Kring A, Gordon A (1998) Sex differences in emotion: expression, experience and physiology. J Pers Soc Psychol 74(3)

  13. Lin Y ()Affective Driving. In: Emotional Engineering, Kap. 14

  14. Mehrabian A (1995) Framework for a comprehensive description and measurement of emotional states. Genetic, Social and General Psychology Monographs 121

  15. Mowrer OH (1960) Learning theory and behaviour. Wiley

  16. Nakasone A, Prendinger H, Ishizuka I (2005) Emotion Recognition from Electromyography and Skin Conductance

  17. Nasoz F, Ozyer O, Lisetti CL, Finkelstein N (2001) Multimodal Affective Driver Interfaces for Future Cars. In: Proceedings of the ACM Multimedia International Conference, ACM Press

  18. Niemann H (2003) Klassifikation von Mustern, 2. überarb. Aufl.

  19. Paleari M, Huet B, Chellali R (2010) Towards Multimodal Emotion Recognition: a new Approach

  20. Panksepp J (1982) Toward a general psychobiological theory of emotions. Behav Brain Sci 5

  21. Pantic M, Rothkrantz L (2003) Toward an Affect-Sensitive Multimodal Human-Computer Interaction. In: Proccedings of the IEEE 91:1370–1390

  22. Pearson K () On lines and planes of closest fit to a system of points in space. Lond Edinb Dublin Philos Mag J Sci Ser 6(2):559–572

  23. Peter C, Schultz R, Voskamp J, Urban B, Nowack N, Janik H, Kraft K, Göcke R (2007) EREC-II in Use – Studies on Usability and Suitability of a Sensor System for Affect Detection and Human Performance Monitoring. Springer, Berlin

    Google Scholar 

  24. Picard RW (1995) Affective Computing. Technical Report, MIT Media Laboratory, Cambridge

  25. Sebe N, Cohen I, Huang TS (2004) Multimodal Emotion Recognition

  26. Vogt T, Andre E (2008) Comparing feature sets for acted and spontaneous speech in view of automatic emotion recognition. Augsburg University

  27. http://www.affectiva.com/q-sensor/, letzter Zugriff: Oktober 2011

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Peter Schleining.

Rights and permissions

Reprints and permissions

About this article

Cite this article

Brand, M., Klompmaker, F., Schleining, P. et al. Automatische Emotionserkennung – Technologien, Deutung und Anwendungen. Informatik Spektrum 35, 424–432 (2012). https://doi.org/10.1007/s00287-012-0618-3

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00287-012-0618-3

Navigation