Zum Inhalt springen

Das Buch „Fake AI“ – künstliche Intelligenz wird überschätzt

    Von der Vorhersage krimineller Handlungen bis hin zur sexuellen Orientierung – künstliche Intelligenz, die gefälscht und mit großen Fehlern behaftet ist, ist weit verbreitet. Inmitten dieser fieberhaften Hype-Atmosphäre hinterfragt das Buch von Frederike Kaltheuner „Fake AI“ den Aufstieg und Fall vom Hype über künstliche Intelligenz, Pseudowissenschaft und Schlangenöl. Es bringt verschiedene Perspektiven und Stimmen aus unterschiedlichen Disziplinen und Ländern zusammen und stellt Verbindungen zwischen den Ungerechtigkeiten her, die durch unangemessene künstliche Intelligenz verursacht werden. Jedes Kapitel packt faule und schädliche Annahmen aus, die von Entwicklern bei der Konzeption von Tools und Systemen gemacht werden, und untersucht die existenziellen Grundlagen der Technologie selbst, um zu fragen: Warum gibt es so viele sinnlose und sogar gefährlich fehlerhafte Systeme innerhalb der künstlichen Intelligenzforschung?

    Selbstlernende Software hat in den vergangenen Jahren immense Fortschritte gemacht und weckt große Erwartungen, doch eine Software, die an der Mimik erkennt, ob jemand lügt oder die Wahrheit sagt ist Pseudowissenschaft, denn man ist nicht in der Lage anhand von Gesichtszügen eindeutig zu erkennen, ob jemand lügt, was weder der Mensch noch eine Maschine kann, da Menschen dafür zu komplex sind. Eine Software erkennt einzig Muster und stellt aus diesen Korrelationen her, sie kann allerdings nicht unterscheiden, ob jemand Blickkontakt meidet, weil er oder sie Betrugsabsichten hat oder einfach nervös ist.

    In den vergangenen Jahren sind unzählige Produkte unter dem Schlagwort künstliche Intelligenz auf den Markt gekommen, die die wissenschaftliche Community für Unsinn und teilweise hochproblematisch hält. Zwar hat selbstlernende Software bei einigen spezifischen Problemstellungen große Fortschritte gemacht, doch ist sie deshalb aber nicht für alle Aufgaben geeignet. Nur weil selbstfahrende Autos durch den Verkehr navigieren, oder Software Hautkrebs erkennen kann, heißt es noch lange nicht, dass man sie auf komplexe soziale Probleme loslassen kann.

    Link zum kostenlosen Download: https://fakeaibook.com/



    Literatur

    https://science.orf.at/stories/3213412/ (22-06-05)


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Pädagogen :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert