Es hat sich gezeigt, dass es grundsätzlich kein Grund zur Besorgnis ist, wenn Jugendliche bevorzugt Hörspiele hören, anstatt Bücher zu lesen. Während das Lesen einen Vorteil für das Erlernen der Rechtschreibung haben kann, zeigt die Forschung, dass das Gehirn gehörte und gelesene Informationen an denselben Stellen und auf eine ähnliche Weise verarbeitet. Ein wesentlicher Unterschied besteht allerdings darin, dass Hören häufig mit anderen Tätigkeiten kombiniert wird, wodurch die Konzentration leiden kann. Dennoch ermöglicht es das Hören von Hörbüchern oder Podcasts, während monotoner Aufgaben wie Hausarbeit oder Autofahren trotzdem Wissen aufzunehmen.
Die Forschungsergebnisse beruhen auf Experimenten mit der Magnetresonanztomographie (MRT). Dabei wurde untersucht, wie das Gehirn Geschichten verarbeitet – sowohl beim Lesen als auch beim Hören. Die Probandinnen und Probanden bekamen dazu echte Geschichten einer US-amerikanischen Radiosendung präsentiert. Die MRT-Studie zeigte, dass Wörter nicht isoliert, sondern im Kontext der gesamten Geschichte verarbeitet werden. Die klassische Vorstellung, dass bestimmte Worte immer in denselben Gehirnregionen verarbeitet werden, wurde dadurch relativiert. Vielmehr hängt die Verarbeitung davon ab, in welchem Zusammenhang ein Wort innerhalb einer Erzählung auftaucht.
Um diese kontextabhängige Verarbeitung besser zu verstehen, nutzt das Forschungsteam Sprachmodelle der Künstlichen Intelligenz (KI). Diese Modelle basieren auf sogenannten Bedeutungsräumen, in denen Worte nach ihrer semantischen Nähe zueinander angeordnet werden. So stehen beispielsweise „Apfel“, „Messer“ und „Tisch“ in einer engen Beziehung, da sie oft zusammen genannt werden. Die Forschung arbeitet mit hochdimensionalen Vektoren, die es ermöglichen, die Bedeutungszusammenhänge von Wörtern noch präziser abzubilden. Dadurch kann man vorhersagen, welche Hirnaktivitäten beim Hören oder Lesen neuer, bisher nicht untersuchter Geschichten auftreten werden.
Diese Forschung hat weitreichende Implikationen. Sie liefert neue Erkenntnisse darüber, wie Sprache im Gehirn verarbeitet wird und zeigt, dass das Gehirn stark kontextabhängig arbeitet. Bestimmte Regionen springen zwar immer dann an, wenn es um Gesichter, Objekte oder soziale Informationen geht, aber der genaue Kontext beeinflusst, welche weiteren Hirnregionen beteiligt sind.
Die Ergebnisse könnten zudem zur Weiterentwicklung von KI-gestützten Sprachmodellen beitragen, indem sie menschenähnlichere semantische Repräsentationen ermöglichen. Darüber hinaus bieten sie vielversprechende Ansätze für medizinische Anwendungen, etwa zur Unterstützung von Menschen mit Sprachstörungen nach einem Schlaganfall. Auch im Bereich der Bildungsforschung könnten die Erkenntnisse helfen, indem sie beispielsweise neue Strategien für den Umgang mit Legasthenie oder für Schreib- und Lesehilfen aufzeigen.
Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Psychologen :::