Sprache und Musik sind im Gehirn eng miteinander verbunden, wobei die Prozesse von Sprache und Musik im Gehirn offenbar denselben Mustern folgen, wie zahlreiche Experimente gezeigt haben. Sprache spielt sich in der linken, rationalen Gehirnhälfte ab, während Musik vor allem für die rechte, emotionale relevant ist. Allerdings findet Sprache überall im Gehirn statt, denn obwohl die Schädigung von Gehirnregionen wie dem Broca-Areal und Wernicke-Areal spezifische Effekte auf die Produktion und das Verständnis von Sprache haben, gibt es kein Areal, von der man sagen kann, dass Sprache allein dort produziert wird. Demnach ist das menschliche Gehirn viel komplexer, als alte Stereotypen diesem das zugestehen, wobei in beiden Gehirnhälften, und zwar sowohl vorne als auch hinten, viele verschiedene für Sprache wichtige Regionen liegen, und erst die Interaktion zwischen diesen macht Sprache möglich. Auch Musik funktioniert durch im Gehirn miteinander verbundene Netzwerke und nicht in säuberlich voneinander getrennten Regionen, wobei sich die neuronalen Netzwerke für Sprache und Musik überlappen. Musik gehört nämlich zu einer der zentralen Behandlungsmethoden für Aphasie, also Sprachverlust, denn wenn jemand etwa aufgrund eines Schlaganfalls an Aphasie leidet, kann diese Mensch zwar nicht sprechen, behält dafür aber oft ihre Fähigkeit zu singen. Diesen Umstand kann man in der Therapie nutzen, um die Betroffenen wieder zum Sprechen zu bringen, und zwar indem man deren musikalische Fähigkeiten etwa im Rahmen der Musikalischen Intonationstherapie trainiert.
Im Clusterprojekt „Sprach- und Musikressourcen des Gehirns“ wird im Institut für Verhaltens- und Kognitionsbiologie der Universität Wien genauer untersucht, inwiefern die Prozesse von Sprache und Musik im Gehirn denselben Mustern folgen. Dafür arbeitet man sowohl mit Menschen, die unter Aphasie leiden, als auch mit gesunden Personen, wobei dies vor allem in der ersten Phase des Projekts eine wichtige Rolle spielen, denn bei ihnen untersucht man mithilfe der funktionellen Magnetresonanztomographie und dem Brain Imaging verschiedene Aspekte von Musik im Gehirn, etwa in welchem Ausmaß ein Pfeifen, Summen oder Sprechen die gleichen Areale des Gehirns aktiviert. Mithilfe der funktionellen Magnetresonanztomographie will man schließlich herausfinden, welche Bereiche in die Produktion von Musik und Sprache involviert sind, und damit die Funktionen dieser Bereiche während eines Trainings verstärken.
Sprache und Musik sind menschliche Universalien und einander in Rhythmus, Betonung, Melodie und Klang akustisch recht ähnlich, wobei Menschen auf der ganzen Welt sie oft in Form von Vokalliedern vermischen. Diese Verschränkung der kognitiven Bereiche von Sprache und Musik ist eine Herausforderung für das auditorische kognitive System des Menschen, denn es stellt sich die Frage, wie Zuhörer Worte und Melodien aus einer einzigen Schallwelle extrahieren. Sprache wird bekanntlich vor allem links, Musik insbesondere die Töne vor allem rechts im Gehirn verarbeitet. Man vermutet, dass die Spaltung bereits im Signal beginnt, dass Sprache und musikalische Klänge sich also in Details ihrer akustischen Struktur unterscheiden und somit unterschiedliche rezeptive Präferenzen der linken und rechten Hörrinde des Gehirns aktivieren. Albouy et al. (2020) liefert dabei Belege für die biophysikalischen Grundlagen zur der immer noch ungelösten hemisphärischen Asymmetrie der Sprach- und Musikwahrnehmung beim Menschen, indem sie zeigen, dass die linke und die rechte Hörregion des Gehirns unterschiedlich zur Entschlüsselung von Worten und Melodien in Liedern beitragen. Man hat dies mit Hilfe von A-capella-Liedern untersucht, bei denen die Stimme allein Text und Melodie transportiert, wobei zehn Sätze mit zehn Melodien zu 100 Liedern (englisch und französisch) kombiniert wurden, indem einmal die zeitliche Struktur immer weiter verfälscht wurde, das andere Mal die Frequenzen. Bekanntlich spielen Tempo und Rhythmus beim Sprachverständnis eine wichtige Rolle, denn es kann sich sogar die Bedeutung verändern, je nachdem, ob eine Silbe lang oder kurz ausgesprochen wird, während Änderungen im Frequenzspektrum und somit bei den Tönen und der Melodie hingegen für das musikalische Verständnis wichtiger sind. Wenn die zeitliche Struktur der Lieder verzerrt war, hatten die Probanden und Probandinnen Schwierigkeiten, sprachliche Inhalte zu erkennen und zu unterscheiden, während sich verzerrte Klangfrequenzen hingegen beim Erkennen der Melodien auswirkten. Die Reaktionen auf die akustischen Veränderungen spiegelten sich auch im Gehirn wieder, denn bei den eher sprachlichen Aspekten war die linke Gehirnhälfte aktiver, bei den musikalischen die rechte. Diese Spezialisierung optimiert offenbar die parallele Verarbeitung von Sprache und Musik. Vermutlich sind die Grenzen zwischen sprachlicher und musikalischer Verarbeitung aber nicht ganz so scharf zu ziehen, denn so äußern sich manche sprachlichen Nuancen auch in der Melodie und im Tonfall, auf der anderen Seite sind selbst kleine rhythmische Änderungen in der Musik mitunter entscheidend, etwa wenn ein Orchester gemeinsam den Takt halten möchte. Insofern gibt es wahrscheinlich doch auch ein paar Überschneidungen bei der Verarbeitung von Musik und Sprache (Sammler, 2020).
Literatur
Albouy, Philippe, Benjamin, Lucas , Morillon, Benjamin & Zatorre, Robert J. (2020). Distinct sensitivity to spectrotemporal modulation supports brain asymmetry for speech and melody. Science, 367, 1043-1047.
Sammler, Daniela (2020). Splitting speech and music. Science, 367, 974-976.
https://news.univie.ac.at/uniview/forschung/detailansicht/artikel/singend-die-sprache-finden/ (20-04-23)
Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl ::: Pädagogische Neuigkeiten für Psychologen :::