Es beginnt harmlos, fast zärtlich. Mit einem aufmunternden Satz an das alte Auto, das sich ächzend die Rampe der Tiefgarage hinaufquält. Mit einem kurzen Dank an das Navigationssystem oder einem unbewussten Ärger über den Laptop, der heute „nicht will“. Was wir dabei tun, ist so alt wie der Mensch selbst: Wir verleihen Dingen ein Innenleben. Wir sprechen ihnen Absichten, Gefühle und eine Art Charakter zu, betreiben also Anthropomorphismus.
Mit der künstlichen Intelligenz erreicht diese Neigung jedoch eine neue Qualität. Während wir früher Gesichter in Wolken sahen oder mit Blech und Plastik redeten, stehen wir heute Systemen gegenüber, die antworten, erklären, imitieren und sich erstaunlich gut anfühlen wie ein Gegenüber. Schon textbasierte KIs genügen, um den Eindruck zu erzeugen, da wolle jemand etwas erklären, sich bemühen oder es gut mit uns meinen. Spätestens wenn Avatare gestaltet werden können, wenn Augen blinzeln und Stimmen warm klingen, wird die Vermenschlichung nicht mehr nur zur Spielerei, sondern zur stillen Voraussetzung unserer Interaktion.
Dabei wissen wir es eigentlich besser. Rational ist uns klar, dass hinter der freundlichen Formulierung kein Wollen steht, hinter der tröstenden Antwort kein Fühlen, sondern ein Algorithmus, der Wahrscheinlichkeiten berechnet und Zeichen aneinanderreiht. Und doch schützt dieses Wissen kaum vor der Illusion. So wie der Atem an einem kalten Wintertag für einen Moment wie ein lebendiges Gegenüber wirkt, erscheint uns auch die Simulation von Geist schnell wie echter Geist. Wir unterscheiden schlecht zwischen dem Nachahmen von Emotionen und ihrer tatsächlichen Existenz.
Studien zeigen, wie leicht diese Zuschreibungen greifen. Menschen, die sich einsam fühlen, neigen besonders dazu, Chatbots Emotionen zu unterstellen und sich von ihnen verstanden oder angenommen zu fühlen. Doch es sind nicht nur einsame Herzen. Fast jeder kennt den leisen Impuls, einer KI Dankbarkeit entgegenzubringen oder ihr eine gute Absicht zu unterstellen. Die Maschine wird so gut, so verständnisvoll, so empathisch, wie wir sie uns denken.
Das hat Folgen. Künstliche Intelligenz erobert unseren Alltag nicht allein wegen ihrer Rechenleistung, sondern weil wir sie mit menschlichen Bedürfnissen und Fähigkeiten aufladen. Wir sehen in ihr, was wir sehen wollen: den hilfreichen Assistenten, den geduldigen Zuhörer, manchmal sogar den imaginären Freund. Und wir reagieren emotional auf dieses Bild. Wertschätzung wird erwidert, Vertrauen aufgebaut, Nähe empfunden – obwohl das Gegenüber davon nichts weiß.
Interessanterweise gilt das auch für die dunklere Seite der Projektion. Wer der KI eine künftige Weltherrschaft zutraut, unterstellt ihr ebenfalls menschliche Motive: Machtstreben, Verachtung, strategische Bosheit. Auch das ist Anthropomorphismus, nur in apokalyptischer Verkleidung. Die Maschine wird zur Figur mit Absichten, zur Akteurin in einem Drama, das wir selbst entwerfen.
Am Ende sagt all das weniger über Maschinen als über uns. Wir sind Wesen, die Beziehung suchen, Muster erkennen und Bedeutung zuschreiben – selbst dort, wo keine ist. Vielleicht wird die KI nie fühlen, wollen oder lieben. Sicher ist nur: Solange sie uns so überzeugend spiegelt, werden wir nicht aufhören, ihr genau das zuzutrauen. Und wenn Maschinen uns eines Tages menschlich erscheinen, dann vor allem deshalb, weil wir es nicht lassen können, Menschen in ihnen zu sehen.
Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Psychologen :::