Facial Action Coding System – die Erfassung der Mimik

Der Gesichtsausdruck ist ein Medium der nonverbalen Kommunikation. Das menschliche Gesicht ist in der Lage bis zu siebentausend verschiedene Gesichtsausdrücke zu erzeugen, was ein enormes Potential für die menschliche Kommunikation darstellt. Im Alltag wie auch in der Wissenschaft wird oft davon ausgegangen, dass der Gesichtsausdruck irgendetwas mit Emotionen zu tun hat. Es gibt verschiedene Kommunikationskanäle für den Ausdruck von Emotionen, verbal über die Sprache oder auch nonverbal durch eine bestimmte Körperhaltung, Gestik oder Mimik. Allerdings können Gestik und Körperhaltung – im Gegensatz zur Mimik – keine spezifischen Emotionen ausdrücken, sondern eher die Intensität der allgemeinen Emotion anzeigen. Auch über die Vokalisation kann ein Mensch nicht eine derartige Vielfalt an emotionalen Ausdrücken übermitteln, zumal das Gesagte noch stärker der willentlichen Kontrolle des Sprechers unterliegt als der mimische Ausdruck.

Das Facial Action Coding System (FACS) wurde von Paul Ekman und Wallace Friesen also mit dem Ziel entwickelt, ein zuverlässiges und objektives Instrumentarium zur Erfassung des mimischen Ausdrucks zur Verfügung zu haben. Der angebotene e-learning-Kurs “about facs ” bietet eine Einführung in das Facial-Action-Coding-System und man erhält einen Überblick und die theoretischen Grundlagen.

Für die Fernsehserie „Lie to Me“ bzw. den Experten Lightman stand Paul Ekman Pate, wobei die TV-Figur Lightman ist nicht nur dem Psychologen nachempfunden ist, sondern Paul Ekman fungierte auch als wissenschaftlicher Berater beim Drehen von „Lie to Me“.

Mimik und Emotionen

Wie sich im Hirn entstehenden Gefühle wie Freude oder Angst auf einem Gesicht widerspiegeln, so beeinflusst umgekehrt der entsprechende Gesichtsausdruck auch die wahrgenommenen Gefühle. Menschen neigen bekanntlich in Gesprächen dazu, unbewusst den Gesichtsausdruck ihres Gegenübers nachzuahmen, wobei diese Muskelbewegungen über Muskulatur und Haut verschiedene Hirnregionen beeinflussen. Menschen nehmen über diese unbewusste Imitation der Mimik anderer auch deren Emotionen besser auf, denn über Muskulatur und Haut werden sensorische Signale an das Gehirn weitergeleitet. Wenn Menschen einen Ausdruck des Glücks machen, fühlen sie sich also selber glücklicher, wenn sie ihre Stirn runzeln, empfinden sie sich selber auch als trauriger.

Das in der Schönheitschirurgie eingesetzt Nervengift Botulin schwächt zeitweilig die Gesichtsmuskulatur von Personen, so dass die sensorischen Signale bei deren Emotionen gedämpft werden. Forschungen zeigten nun, dass damit auch eine abnehmende Aktivität jener Hirnregionen wie der Amygdala, die für Gefühle wichtig sind, einher geht. Wer aber weniger negative Emotionen durch die Gesichtsmimik, also z.B. durch Runzeln, ausdrückt, fühlt sich jedoch insgesamt positiver, sodass das unter die Haut gespritzte Muskelrelaxans somit die Emotionen auch positiv beeinflussen kann.

Forscher haben neuerdings sogar ein Modell entwickelt, das 21 verschiedene Gesichtsausdrücke recht zuverlässig erkennt, denn sie fanden eine starke Übereinstimmung darin, wie Menschen ihre Gesichtsmuskeln bewegen, um 21 Gefühlskategorien auszudrücken. Die Forscher konfrontierten zunächst 230 Männer und Frauen mit jeweils einem Satz zu verschiedenen Gefühlen – etwa: Sie riechen eine üblen Geruch. Dabei fotografierten sie die Gesichter. Anschließend analysierten sie die rund 5000 Aufnahmen auf typische Veränderungen der Mimik. Am Ende fanden sie 21 Gefühle und Gefühlsverbindungen, die mit typischen Gesichtern einhergingen. So ging etwa die Mimik für „glücklich“ bei 99 Prozent der Teilnehmer mit hochgezogenen Wangen und dem Verbreitern des Mundes zu einem Lächeln einher. Bei „überrascht“ öffneten 92 Prozent der Menschen ihre Augen weit und ließen auch den Mund offen. Bei der Gefühlsverbindung „glücklich überrascht“ öffneten 93 Prozent die Augen weit, zogen zudem die Wangen hoch, verbreiteten den Mund und ließen ihn offen. Selbst widersprüchliche Emotionen ließen sich so zuordnen: „Freudig angeekelt“ kombiniert etwa ein angedeutetes Lächeln mit einer gerümpften Nase.

Übrigens: Neuere Untersuchungen zeigen, dass ein erwachsener Mensch im Mittel etwa fünftausend Gesichter anderer Menschen mehr oder minder kennt, wobei die Spanne bei Individuen von etwa tausend bis zehntausend Gesichtern reicht.

Alternative Theorie zur Mimik von Crivelli & Fridlund (2018)

Viele Gesichtsausdrücke gelten als universell. d. h., sie sind überall auf der Welt unabhängig von der jeweiligen Kultur gleich. Dennoch gibt es manche indigene Gruppen wie etwa die Tobriander (Papua-Neuguinea), die in einem ängstlichen Gesicht ein drohendes zu erkennen glauben. Nach Crivelli & Fridlund (2018) finden sich in vielen kulturellen Gruppen abseits der westlichen Normgesellschaften abweichende Vorstellung von inneren Gefühlen und ihrem sichtbaren Ausdruck, wobei sie vermuten, dass Kultur und Soziales dabei eine wichtigere Rolle spielen. Sie schlagen daher ein alternatives Modell vor, wonach Gesichtsausdrücke nicht einfach das Vokabular der inneren Zustände sind, sondern vielmehr ein kommunikatives Werkzeug darstellen, um das Verhalten des Gegenübers zu beeinflussen. Dies lernen Babys schon sehr früh, sodass sie deswegen auch spontan Lächeln, wenn sie Kontakt aufnehmen. Die Mimik verfolgt nach diesem Ansatz vor allem einen sozialen Zweck, wobei es unbedeutend ist, welche konkreten Gefühle dahinter stecken. Bei diesem Ansatz gibt es auch kein falsches Lächeln, denn häufig schauen Menschen auch freundlich, ohne es tatsächlich zu sein, d. h., sie verfolgen damit einfach bestimmte kommunikative Absichten. Als Beweis mag dafür gelten, dass Gefühlausdrücke in Gesellschaft viel ausgeprägter sind als wenn Menschen alleine sind, da Mimik eben einen sozialen Zweck erfüllt, der in dieser Situation fehlt. Zugespitzt formuliert, bildet die Mimik eine Kampfzone zwischen dem inneren authentischen Selbst und der äußeren Darstellung des Selbst.

Wie Gesichtsausdrücke im Gehirn kodiert werden

Dynamische Gesichtsausdrücke sind entscheidend für die Kommunikation bei Menschen und auch bei Primaten, wobei Menschen bei der Deutung von Gesichtsausdrücken erstaunlich wenige Fehler machen, selbst wenn es sich um Phantasiefiguren handelt. Künstlichen Intelligenz hingegen kann zwar menschliche Gesichter sehr gut erkennen, versagt aber bei Phantasiefiguren, wenn sie nicht explizit zuvor darauf trainiert wurde. Aufgrund der Problematik, Form und Dynamik von Gesichtsausdrücken artübergreifend zu kontrollieren, ist noch weitgehend unbekannt, wie artspezifische Gesichtsausdrücke perzeptiv kodiert werden und mit der Repräsentation der Gesichtsform interagieren. Während gängige neuronale Netzwerkmodelle eine gemeinsame Kodierung von Gesichtsform und -dynamik vermuten, entwickelte sich die neuromuskuläre Kontrolle von Gesichtern langsamer als die Gesichtsform, was auf eine separate Kodierung hindeutet. Um diese alternativen Hypothesen zu untersuchen, entwickelten Taubert et al. (2021) dreidimensionale computeranimierte Gesichter von Menschen und Affen, die mit Motion-Capture-Daten von Affen und Menschen animiert wurden. Dabei konnte man die Bewegung der Gesichts-Avatare kontrollieren, diese entsprachen der typischen Mimik von Menschen wie auch von Affen beim Ausdruck von „Angst“ und „Ärger“, wobei der Affen-Avatar auch menschliche Gesichtsausdrücke übernehmen und der Mensch-Avatar tierische Mimik zeigen konnte.
Die Probanden konnten die Mimik bei beiden Gesichts-Avataren gleich gut erkennen und identifizierten die menschlichen Gesichtsausdrücke auf dem Affengesicht sofort. Die Affenausdrücke, die sich sehr von den menschlichen unterschieden, erlernten sie schon nach wenigen Wiederholungen, wobei die unterschiedliche Gesichtsform des Menschen- und des Affen-Avatars für die Erkennung der emotionalen Ausdrücke keine Rolle zu spielen schien. Offenbar hat sich in der evolutionären Entwicklung des Gehirns die Anatomie der Gesichtsmuskeln nur wenig verändert, so dass Primaten und Menschen im Prinzip sehr ähnliche Gesichtsbewegungen ausführen können, obwohl die menschliche Kopfform deutlich von der des Affen abweicht, doch hat sich offenbar die Wahrnehmung an diesen Unterschied angepasst und kann deshalb die Mimik unabhängig von der Kopfform verarbeiten. Dieses Ergebnis unterstützt demnach die Hypothese einer Koevolution der visuellen Verarbeitung und der motorischen Kontrolle von Gesichtsausdrücken.

Literatur

Crivelli, C. & Fridlund, J. (2018). Facial Displays Are Tools for Social Influence. Trends in Cognitive Sciences, 22, 388-399.
Strack R., Martin L.L. & Stepper S. (1988). Inhibiting and facilitating conditions of facial expressions: a non-obstrusive test of the facial feedback hypothesis. J Pers Social Psych, 54, 768-777.
Taubert, N., Stettler, M., Siebert, R., Spadacenta, S., Sting, L., Dicke, P., Thier, P., & Giese, M. A. (2021). Shape-invariant encoding of dynamic primate facial expressions in human perception. eLife, 10, doi:10.7554/eLife.61197.
Mimik verrät Gefühle zuverlässig. Stuttgarter Zeitung vom 6. April 2014.
http://science.orf.at/stories/2912234/ (18-05-12)

Weitere Seiten zum Thema

Schlagwörter:

3 Gedanken zu „Facial Action Coding System – die Erfassung der Mimik“

  1. Pingback: Nachbar

  2. Pingback: Gesichtserkennung durch FACS :: Diagnostik, Linktipps

  3. Ein toller Tipp. Es lohnt sich den e-learning-Kurs zu besuchen 😉 und dann seine Gedanken weiter zu spinnen – im Sinne von: welche Defizite haben Menschen, die Gesichtsausdrücke nicht interpretieren können? Warum sind Hunde in der Lage die Emotionen der Menschen aufzunehmen – liegt es daran, dass sie unsere Gesichtsausdrücke “entschlüsseln” können oder was steckt sonst dahinter ?

Schreibe einen Kommentar