Zusammenfassung
Menschen kommunizieren nicht nur durch Sprache miteinander, sondern geben unbewusst auch eine Menge Informationen durch Emotionen preis. Da die herkömmliche Kommunikation zwischen Mensch und Computer oft nicht sehr intuitiv ist, soll sie durch die Entwicklungen im Forschungsbereich Affective Computing verbessert werden. Hierfür muss der Computer in der Lage sein, die Gefühle seines Gegenübers richtig zu deuten.
In diesem Artikel werden die Technologien und Verfahren zur Erkennung menschlicher Emotionen von Computersystemen vorgestellt, die Deutung der Daten zu Emotionen beschrieben und Anwendungsbeispiele gezeigt. Der Schwerpunkt liegt bei den technischen Komponenten der Emotionserkennung. Hierbei steht die Deutung von Gesichtszügen, Aussprache und Vitaldaten (Puls, Blutdruck etc.) im Vordergrund. Andere Hinweise wie Gestik und Körperhaltung sind sehr schwer durch Sensorik zu messen bzw. kaum zu interpretieren. Die zuverlässigsten Ergebnisse liefern stets multimodale Verfahren, bei denen mehrere Sensoren als Quellen verwendet werden, um eine besser Zuordnung zu einem emotionalen Zustand zu ermöglichen. Dies spiegelt auch die menschliche Wahrnehmung wider, da wir Emotionen über eine Vielzahl von Sinnesorganen wahrnehmen.
References
Appenrodt J, Al-Hamadi A, Michaelis B (2010) Data gathering for gesture recognition systems based on single color-, stereo color- and thermal cameras. Int J Signal Process Image Process Pattern Recognit 37–50
Bänziger T, Grandjean D, Scherer KR (2009) Emotion Recognition From Expression in Face, Voice, and Body: The Multimodal Emotion Recognition Test (MERT). University of Geneva
Ben-Gal I (2007) Bayesian Networks
Bowman DA, Kruijf E, LaViola JJ, Poupyrev I (2004) 3D User Interfaces: Theory and Practice, 1. Aufl. Addison-Wesley Professional
Castellano G, Kessous L, Caridakis G (2008) Multimodal emotion recognition from expressive faces, body gestures and speech. InfoMus Lab, DIST – University of Genova; Department of Speech, Language and Hearing, University of Tel Aviv; Image Video and Multimedia Systems Laboratory, National Technical University of Athens
Feichtinger HG, Strohmer T (1998) Gabor Analysis and Algorithms. Birkhäuser
Frank RH (1992) Die Strategie der Emotionen. Oldenbourg
Gerhäuser H, Elst G (2011) Detection of Faces and Facial Expressions Used in Market Research – Shore™. Fraunhofer Institute for Integrated Circuits IIS, Erlangen
Hubbard BB (1997) Die Mathematik der kleinen Wellen, Wavelets. Birkhäuser
James W (1984) What is an emotion? Mind 9
Kim J, André E (2008) Emotion Recognition Based on Physiological Changes in Music Listening. In: IEEE TPAMI 30(12)
Kring A, Gordon A (1998) Sex differences in emotion: expression, experience and physiology. J Pers Soc Psychol 74(3)
Lin Y ()Affective Driving. In: Emotional Engineering, Kap. 14
Mehrabian A (1995) Framework for a comprehensive description and measurement of emotional states. Genetic, Social and General Psychology Monographs 121
Mowrer OH (1960) Learning theory and behaviour. Wiley
Nakasone A, Prendinger H, Ishizuka I (2005) Emotion Recognition from Electromyography and Skin Conductance
Nasoz F, Ozyer O, Lisetti CL, Finkelstein N (2001) Multimodal Affective Driver Interfaces for Future Cars. In: Proceedings of the ACM Multimedia International Conference, ACM Press
Niemann H (2003) Klassifikation von Mustern, 2. überarb. Aufl.
Paleari M, Huet B, Chellali R (2010) Towards Multimodal Emotion Recognition: a new Approach
Panksepp J (1982) Toward a general psychobiological theory of emotions. Behav Brain Sci 5
Pantic M, Rothkrantz L (2003) Toward an Affect-Sensitive Multimodal Human-Computer Interaction. In: Proccedings of the IEEE 91:1370–1390
Pearson K () On lines and planes of closest fit to a system of points in space. Lond Edinb Dublin Philos Mag J Sci Ser 6(2):559–572
Peter C, Schultz R, Voskamp J, Urban B, Nowack N, Janik H, Kraft K, Göcke R (2007) EREC-II in Use – Studies on Usability and Suitability of a Sensor System for Affect Detection and Human Performance Monitoring. Springer, Berlin
Picard RW (1995) Affective Computing. Technical Report, MIT Media Laboratory, Cambridge
Sebe N, Cohen I, Huang TS (2004) Multimodal Emotion Recognition
Vogt T, Andre E (2008) Comparing feature sets for acted and spontaneous speech in view of automatic emotion recognition. Augsburg University
http://www.affectiva.com/q-sensor/, letzter Zugriff: Oktober 2011
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Brand, M., Klompmaker, F., Schleining, P. et al. Automatische Emotionserkennung – Technologien, Deutung und Anwendungen. Informatik Spektrum 35, 424–432 (2012). https://doi.org/10.1007/s00287-012-0618-3
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00287-012-0618-3