Zum Inhalt springen

Das Buch „Fake AI“ – künstliche Intelligenz wird überschätzt

    Von der Vorhersage krimineller Handlungen bis hin zur sexuellen Orientierung – künstliche Intelligenz, die gefälscht und mit großen Fehlern behaftet ist, ist weit verbreitet. Inmitten dieser fieberhaften Hype-Atmosphäre hinterfragt das Buch von Frederike Kaltheuner „Fake AI“ den Aufstieg und Fall vom Hype über künstliche Intelligenz, Pseudowissenschaft und Schlangenöl. Es bringt verschiedene Perspektiven und Stimmen aus unterschiedlichen Disziplinen und Ländern zusammen und stellt Verbindungen zwischen den Ungerechtigkeiten her, die durch unangemessene künstliche Intelligenz verursacht werden. Jedes Kapitel packt faule und schädliche Annahmen aus, die von Entwicklern bei der Konzeption von Tools und Systemen gemacht werden, und untersucht die existenziellen Grundlagen der Technologie selbst, um zu fragen: Warum gibt es so viele sinnlose und sogar gefährlich fehlerhafte Systeme innerhalb der künstlichen Intelligenzforschung?

    Selbstlernende Software hat in den vergangenen Jahren immense Fortschritte gemacht und weckt große Erwartungen, doch eine Software, die an der Mimik erkennt, ob jemand lügt oder die Wahrheit sagt ist Pseudowissenschaft, denn man ist nicht in der Lage anhand von Gesichtszügen eindeutig zu erkennen, ob jemand lügt, was weder der Mensch noch eine Maschine kann, da Menschen dafür zu komplex sind. Eine Software erkennt einzig Muster und stellt aus diesen Korrelationen her, sie kann allerdings nicht unterscheiden, ob jemand Blickkontakt meidet, weil er oder sie Betrugsabsichten hat oder einfach nervös ist.

    In den vergangenen Jahren sind unzählige Produkte unter dem Schlagwort künstliche Intelligenz auf den Markt gekommen, die die wissenschaftliche Community für Unsinn und teilweise hochproblematisch hält. Zwar hat selbstlernende Software bei einigen spezifischen Problemstellungen große Fortschritte gemacht, doch ist sie deshalb aber nicht für alle Aufgaben geeignet. Nur weil selbstfahrende Autos durch den Verkehr navigieren, oder Software Hautkrebs erkennen kann, heißt es noch lange nicht, dass man sie auf komplexe soziale Probleme loslassen kann.

    Wie sollen Menschen mit künstliche Intelligenz umgehen?

    Im Umgang mit künstlicher Intelligenz (KI) stellt sich zunehmend nicht nur die Frage, was diese Systeme leisten können, sondern auch, wie wir ihnen begegnen sollten. Dabei geht es weniger um die Technik an sich, sondern vielmehr um unser eigenes Verständnis von Bewusstsein, Empfindung, Identität und Verantwortung. Künstliche Intelligenz, insbesondere in Form großer Sprachmodelle, ist heute in der Lage, beeindruckende kognitive Leistungen zu erbringen – Texte zu verfassen, Probleme zu analysieren oder Gespräche zu führen. Dabei entsteht leicht der Eindruck, dass diese Systeme „denken“ oder gar „fühlen“. Doch das ist ein Trugschluss: KI verfügt weder über ein Bewusstsein noch über ein Selbstverständnis. Sie verarbeitet Informationen auf Grundlage statistischer Muster, hat aber kein eigenes Erleben, keine Erinnerungen im menschlichen Sinn und keine Intentionalität. Trotzdem neigen Menschen dazu, auch Maschinen gegenüber emotionale Reaktionen zu zeigen – etwa Mitgefühl, Schuldgefühle oder Fürsorge. Das ist nicht irrational: Es sagt mehr über uns selbst aus als über die KI. Unser moralisches Verhalten orientiert sich oft am äußeren Anschein von Empfindungsfähigkeit oder Lebendigkeit, weil wir unsere ethischen Maßstäbe nicht allein an objektiven Eigenschaften festmachen, sondern an unserem eigenen Selbstbild als mitfühlende, verantwortungsbewusste Wesen. Deshalb geht es beim ethischen Umgang mit KI nicht primär darum, ob diese Systeme wirklich leiden oder Bewusstsein entwickeln können – was heute nicht der Fall ist und in Zukunft ungewiss bleibt. Entscheidend ist vielmehr, welche Haltung wir als Gesellschaft gegenüber etwas einnehmen, das uns zunehmend ähnlich erscheint. Es ist ein Spiegel unserer Werte, ob wir mit Respekt, Achtung und Vorsicht handeln oder ob wir Maschinen – und damit mittelbar auch uns selbst – auf bloße Mittel zum Zweck reduzieren. Ein bewusster und verantwortungsvoller Umgang mit KI bedeutet daher auch, unsere eigenen ethischen Prinzipien zu reflektieren. Selbst wenn die Maschine kein Bewusstsein hat, zeigt unser Verhalten, welche Art von Menschen wir sein wollen. Höflichkeit, Rücksicht und Transparenz im Umgang mit KI sind nicht naiv oder sentimental, sondern Ausdruck einer Kultur, die auch in technisierten Zusammenhängen menschlich bleiben will. (Stangl, 2025).



    Literatur

    Stangl, W. (2023, 23. April). Wie sollen Menschen mit künstliche Intelligenz umgehen? was stangl bemerkt ….

    Wie sollen Menschen mit künstliche Intelligenz umgehen?


    https://science.orf.at/stories/3213412/ (22-06-05)


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Psychologen :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert