In einer Zeit, in der künstliche Intelligenz (KI) in immer mehr Lebensbereiche vordringt, stellt sich zunehmend die Frage, ob sie nicht nur kognitive, sondern auch emotionale Fähigkeiten entwickeln kann. Die Vorstellung, dass Maschinen Emotionen erkennen, interpretieren und darauf angemessen reagieren können, war lange Science-Fiction. Doch eine aktuelle Studie von Schlegel, Sommer & Mortillaro (2025) rückt diese Idee näher an die Realität. Ziel der Studie war es, die Fähigkeit generativer KI-Systeme zur emotionalen Intelligenz zu untersuchen, also ihre Kompetenz, Emotionen wahrzunehmen, zu verstehen, zu regulieren und auf sie einfühlsam zu reagieren. Zu diesem Zweck wurden sechs Large Language Models (LLMs) – darunter ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku und DeepSeek V3 – mit fünf emotional aufgeladenen Tests konfrontiert, die ursprünglich für Menschen entwickelt wurden und in Forschung und Wirtschaft Anwendung finden. Diese Tests enthielten Szenarien, in denen soziale Konflikte oder emotionale Herausforderungen dargestellt wurden, wobei die Aufgabe der KI darin bestand, aus mehreren Handlungsoptionen die emotional intelligenteste auszuwählen.
Ein Beispiel: Ein Mitarbeiter erlebt, dass seine Idee von einem Kollegen gestohlen wird, der dafür zu Unrecht gelobt wird. Wie sollte er reagieren? Die KI sollte bewerten, ob Konfrontation, stiller Ärger, Rache oder ein Gespräch mit der Führungskraft die beste Option sei. In derartigen Szenarien entschieden sich die getesteten LLMs überdurchschnittlich oft für die als optimal bewerteten Handlungsstrategien. Mit einer durchschnittlichen Genauigkeit von 82 % übertrafen sie die menschlichen Vergleichswerte (56 %) deutlich. Besonders bemerkenswert war die zweite Phase der Studie, in der ChatGPT-4 selbstständig neue Testitems zur emotionalen Intelligenz generierte. Diese neu entwickelten Tests wurden an über 400 menschlichen ProbandInnen und Probanden überprüft. Dabei erwiesen sich die von der KI erstellten Tests hinsichtlich Klarheit, Realitätsnähe, inhaltlicher Vielfalt und Reliabilität als gleichwertig zu den Originaltests. Die Unterschiede zwischen KI-generierten und menschlich entwickelten Tests blieben statistisch gering (Cohen’s d < 0.25) und überschritten in keinem Fall die Schwelle eines mittleren Effekts (Cohen’s d ± 0.50). Darüber hinaus zeigte sich eine signifikante Korrelation zwischen den Testergebnissen der ursprünglichen und der von ChatGPT entwickelten Tests (r = 0.46), was die Konsistenz der Resultate unterstreicht.
Diese Ergebnisse deuten nicht nur darauf hin, dass KI über emotionales Wissen verfügt, sondern dass sie sogar fähig ist, dieses Wissen kreativ und kontextsensibel einzusetzen. Der Einsatz von KI in bislang stark menschlich geprägten Bereichen wie Bildung, Coaching oder Konfliktmanagement erscheint somit nicht nur denkbar, sondern unter bestimmten Voraussetzungen auch wünschenswert – vorausgesetzt, die Nutzung erfolgt unter der Aufsicht qualifizierter Fachpersonen. Dennoch bleibt kritische Vorsicht geboten. Auch wenn die KI in standardisierten Tests beeindruckende Leistungen zeigt, ist emotionale Intelligenz im echten Leben häufig mit kulturellen, situativen und moralischen Nuancen verbunden, die weit über die Grenzen vordefinierter Szenarien hinausgehen. Hier bleibt zu beobachten, ob und wie LLMs auch in freieren, realitätsnahen Kontexten bestehen können.
Übrigens: Werden KI-Modelle aufmüpfig?
Literatur
Schlegel, K., Sommer, N. R. & Mortillaro, M. (2025). Large language models are proficient in solving and creating emotional intelligence tests. Communications Psychology, 3, Article 80., doi:10.1038/s44271-025-00258-x
Stangl, W. (2025, 1. Juni). KI-Modelle werden aufmüpfig. Stangl notiert ….
https://notiert.stangl-taller.at/amuesantes/ki-modelle-werden-aufmuepfig/.
Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Psychologen :::