Wie die innere Sprache in Gehirn repräsentiert wird

Die Rekonstruktion der inneren Sprache aus der neuronalen Aktivität mit Hilfe von Gehirn-Computer-Schnittstellen ist für Menschen mit schweren Sprachproduktionsdefiziten bedeutsam. Während die Dekodierung von offener Sprache Fortschritte gemacht hat, war die Dekodierung von imaginierter Sprache bisher nur begrenzt erfolgreich, vor allem weil die zugehörigen neuronalen Signale im Vergleich zu gesprochenen Sprache schwach und variabel sind und daher von Lernalgorithmen nur schwer dekodiert werden können.

Proix et al. (2022) haben Datensätze von Menschen erfasst, denen zur Beurteilung ihrer Epilepsie Elektroden implantiert worden waren und die Aufgaben zur Produktion von offener und imaginärer Sprache durchführen mussten. Die Probanden wurden dabei gebeten, Wörter zu sagen und diese sich dann vorzustellen. Auf der Grundlage neuerer Theorien zur neuronalen Sprachverarbeitung extrahierte man in diesem Experiment konsistente und spezifische neuronale Merkmale, die für künftige Gehirn-Computer-Schnittstellen verwendet werden können, etwa zur Unterscheidung von Sprachelementen in artikulatorischen, phonetischen und vokalischen Repräsentationsräumen.

Es gelang dabei nachzuweisen, dass die tieffrequente Hirnaktivität sowie die Kopplung insbesondere der Beta- und Gammawellen offensichtlich wichtige Informationen für die Entschlüsselung von inneren Monologen enthalten. Zudem zeigte sich, dass der Temporalcortex eine wichtige Rolle bei gedachtem Artikulieren spielt. Hochfrequente Aktivität lieferte dabei das beste Signal für offene Sprache, während die nieder- und höherfrequente Leistung als auch die lokale Querfrequenz zur imaginären Sprachdekodierung beitrugen, insbesondere in phonetischen und vokalischen, d.h. perzeptiven Räumen. Diese Ergebnisse zeigen, dass die tieffrequente Leistung und die Querfrequenzdynamik Schlüsselinformationen für die Dekodierung imaginierter Sprache enthalten.

Literatur

Proix, Timothée, Delgado Saa, Jaime, Christen, Andy, Martin, Stephanie, Pasley, Brian N., Knight, Robert T., Tian, Xing, Poeppel, David, Doyle, Werner K., Devinsky, Orrin, Arnal, Luc H., Mégevand, Pierre & Giraud, Anne-Lise (2022. Imagined speech can be decoded from low- and cross-frequency intracranial EEG features. Nature Communications, 13, 48-61.