Von Synapsen und Symphonien – Musik und Sprache im Gehirn

Für den heutigen Beitrag hatte ich das Glück, mit der Neurowissenschaftlerin und Psychologin Dr. Daniela Sammler sprechen zu können, die sich seit über zwei Jahrzehnten mit der Frage beschäftigt, wie unser Hirn Musik und Sprache verarbeitet. Als Leiterin der Forschungsgruppe Neurokognition von Musik und Sprache am Max-Planck-Institut für empirische Ästhetik in Frankfurt a.M. bewegt ihre Gruppe sich an der spannenden Schnittstelle beider Domänen. Ihre Arbeit vereint klinische Beobachtungen, grundlegende Hirnforschung und interdisziplinäre Perspektiven. Das Ziel: Verstehen, was in unseren Köpfen passiert, wenn wir sprechen, zuhören, singen oder Musik hören. In unserem Gespräch gibt sie nicht nur Einblicke in aktuelle neurowissenschaftliche Erkenntnisse und Herausforderungen. Sie erzählt uns auch von persönlichen Schlüsselmomenten ihrer wissenschaftlichen Laufbahn – von lebensverändernden Zufällen, Momenten der Erkenntnis am Küchentisch, und der bleibenden Faszination für Musik und Sprache.

Anfänge einer Forschungskarriere

A – Ich würde heute gerne mit dir über das Thema Musik und Sprache reden. Warum Musik und Sprache zusammen? Warum hat dich das interessiert zu erforschen? Vielleicht magst du ganz kurz erzählen, wie du zu diesen Themen überhaupt gekommen bist.

D – Ich kam über die Klinik zu diesen Fragen, weil mich das fasziniert hat, dass Menschen nach einem Schlaganfall auf einmal nicht mehr sprechen können oder keine Sprache mehr verstehen können und Sprachstörungen entwickeln, die auch ziemlich isoliert sind.

Sie können sich normal bewegen, aber sobald die dann den Mund aufmachen, ist der ehemalige Professor auf einmal nicht mehr in der Lage, einen geraden Satz zu bilden. Das hatte mich fasziniert. Und dann habe ich gehört von Studien, die sagten, dass diese Leute aber teilweise noch singen können oder dass Gesang, Musik ihnen hilft, wieder zur Sprache zu finden. Das war damals wahrscheinlich ziemlich naiv, immer noch. Aber da kam Musik und Sprache für mich zusammen. Und tatsächlich auch vor dem Hintergrund, vielleicht mitzuarbeiten, etwas zu entwickeln, wie man diesen Menschen helfen kann. Es war schon ein recht therapeutischer, klinischer Gedanke dahinter.

Von der Klinik zur Grundlagenforschung

Dann fängt man an zu forschen und dann fängt man an zu merken, dass dieses Thema doch viel komplexer ist, denn Musik ist nicht Musik, sondern ganz viele kleine Einzelleistungen. Sprache ist nicht Sprache, sondern viele Einzelleistungen. Und dann fängt man an, sich auf eine Einzelleistung zu spezifizieren. Das war bei mir die Grammatik in der Musik und der Sprache, ob es da Gemeinsamkeiten gibt oder Unterschiede, wo das im Gehirn liegt. Da muss man Paradigmen entwickeln. Und so wurde das immer tiefer, tiefer, tiefer, tiefer, tiefer. Es ging immer weiter weg von der Klinik, weil man in diese Grundlagenwissenschaft kam, bis hin zur basalen Akustik. Das Feld wurde immer größer, je weiter man vorankam.

Und es ist auch extrem kontrovers. Ich war in einem Forschungsinstitut in Leipzig, wo das sehr, sehr vertreten wurde, dass Musik und Sprache ähnlich verarbeitet sind. Also wir haben immer geguckt, Gemeinsamkeiten zu finden. Und dann trafen wir ab und zu Forscher, die waren da ganz am anderen Ende und sagten „Das ist alles komplett verschieden“. Das war schon spannend zu sehen, wie diese unterschiedlichen Meinungen diskutiert werden, und zwar bis heute.

Infobox: Arbeitsteilung im Gehirn

Klicke hier für mehr Infos.

Dachten wir früher noch, dass Sprache vor allem in der linken und Musik in der rechten Hirnhälfte verarbeitet wird, wissen wir heute mehr. Sprache ist akustisch äußerst komplex. Sie besteht sowohl aus zeitlichen als auch aus klanglichen Merkmalen. Viele Studien deuten darauf hin, dass unsere beiden Hirnhälften sich unterschiedlich auf diese Aspekte spezialisiert haben. Wir sprechen hier von „Lateralisierung“, einer Art Arbeitsteilung der beiden Hemisphären.

Die linke Hirnhälfte ist etwa besser darin, temporale Informationen präzise zu entschlüsseln. Diese beziehen sich auf die zeitliche Struktur akustischer Signale – wann setzt ein Laut ein oder wie schnell ist die Abfolge von Lauten? Es geht also um schnelle Veränderungen im Sprachsignal, wie beim Hören von Konsonanten, Silben oder Sprachrhythmus.

Die rechte Hirnhälfte hingegen ist sensibler für spektrale Informationen, also Klangfarbe, Tonhöhe oder Melodiebögen – Merkmale, die wir zum Beispiel in der Sprachmelodie (Prosodie) oder der Musik wahrnehmen.

Diese Spezialisierung gilt nicht nur beim Zuhören. Auch wenn wir selbst Sprache produzieren, nutzt unser Gehirn diese Aufgabenteilung, um über das Gehör unsere Aussprache laufend zu kontrollieren. Die linke Seite überwacht dabei mehr das Timing, während die rechte eher auf die Klangqualität achtet. [1, 4]

Wir hatten da vor Kurzem dieses große Projekt zu Musik und Sprache und musikalischem Training – es ging darum, ob Musiker ein besseres Kurzzeitgedächtnis haben. Am Ende haben da so viele Labs mitgearbeitet an diesem Thema. Es kamen Daten raus, es war alles pre-registert und trotzdem waren wir uns am Ende nicht einig – zeigt das jetzt Overlap oder zeigt das jetzt kein Overlap. Da war wieder diese Riesendiskussion, wie also die Leute das interpretieren. Ich finde, das Thema ist auch noch lange nicht zu Ende diskutiert. Ich weiß auch nicht, ob wir es mal ausdiskutiert kriegen. Ja, vielleicht sollten wir die Fragen anders stellen, aber das beschäftigt mich seit mittlerweile 25 Jahren.

Mehr zu dem Projekt unter anderem hier:

Lebenslange Faszination

A – Da ist dann auf jeden Fall eine große Faszination dahinter. Gab es für dich da Schlüsselmomente – du hast es schon etwas angeschnitten – Aha-Erlebnisse, was waren einige der spannendsten Momente in deinem Forschungsleben?

D – Es war spannend überhaupt in dieses Thema einzutauchen und es kam auch relativ unerwartet. Ich hatte eine Erasmus-Jahr in Straßburg eingelegt und hatte dort eine Professorin, die war gerade auch ganz frisch an die Uni gekommen. Und die hat das gelehrt und ich hatte vorher noch was von gehört. Ich kam aus diesem Jahr zurück und wusste das wird’s, das mache ich jetzt.

Dann war ein Aha-Moment. Zurück in Leipzig – ich hatte schon gehört, dass es dieses Max-Planck-Institut gibt, das war auch nicht weit von der Psycho-Uni weg. Wir waren an einem Samstag-Nachmittag in der Innenstadt shoppen. Da waren Stände, so ein Science-Day, wo alle Wissenschaftsinstitutionen, Uni und Max-Planck und alle sich vorstellten. Und ich drückte meinen Freunden meine Shopping-Tüten in die Hand und sagte „Leute, ich habe gerade mal jetzt einen Moment zu tun“ und bin an diesen Stand vom Max-Planck-Institut gegangen und sagte „Ich möchte gerne ein Praktikum machen”.

Der Mensch, der da den Stand betreute, das war Stefan Koelsch, der gerade eine Gruppe zu Musikkognition aufmachte. Also so eine Forschungsgruppe wie wir hier haben, hatte er da gerade begonnen. Und er sagte „Klar, Praktikum, kannst nächste Woche anfangen“. Und dann war es passiert. Dann war ich irgendwie auf der Schiene. Ich frage mich, was passiert wäre, wenn ich an dem tag nicht shoppen gegangen wäre. Manchmal weißt du am Morgen nicht, dass dein Leben jetzt gerade bestimmt wird. Und jetzt bin ich heute noch dran.

Erkenntnisse unterm Küchentisch

Ich weiß noch, wie ich gefeiert habe. Es war echt painful. Wir hatten eine Studie gemacht, mit Patienten, die Elektroden implantiert hatten – richtig auf dem Kortex, unter der Schädeldecke, für Epilepsie-Diagnostik. Wir hatten mühsam Daten von denen erhoben, wir haben ein kleines Musikexperiment gemacht, ein kleines Sprachexperiment gemacht. Und ich wollte jetzt gucken, ob das an derselben Stelle passiert. Wenn wir die Elektroden direkt auf dem Kortex haben, dann können wir ja viel besser lokalisieren, wo Aktivierungen stattfinden. Und es ging und ging nicht vorwärts. Es war ziemlich schwierig diese Daten zu analysieren. Ich habe mir dann irgendwann alle Ergebnisse groß ausgedruckt und habe die dann auf meinem Küchenfußboden – weil der Tisch war zu klein für diese ganzen Ausdrucke – ausgebreitet. Die ganzen Aktivierungsmuster.

Und dann gucke ich so da drauf und denke mir „Halleluja“. Das ist tatsächlich an derselben Stelle! Das hat man nicht gesehen, wenn du dir die nacheinander auf dem Bildschirm angeguckt hast. Aber wenn du dir die alle so aufgereit hast, schon. Und dann habe ich erstmal gefeiert. PhD ist gerettet! Das war auch tatsächlich, ich glaube sechs Wochen vor der Abgabe der PhD-Thesis, dass ich das gefunden habe. Das war schon ziemlich knapp. Das wurde dann natürlich alles noch differenzierter.

Diese Feuerstunde wurde dann auch ernüchtert am nächsten Tag. Es ist zwar die selbe Stelle, aber die Dipole sind alle unterschiedlich rotiert, es sind unterschiedliche Zeitfenster. Kann man das jetzt als das selbe interpretieren, ja oder nein? Aber das war so ein Moment, wo ich dachte „Wow, das war echt knapp. Deswegen: Immer ausdrucken, an die Wand hängen, die Daten anschauen. Ich bin da so ein analoger Mensch. Also auch Papier und einfach einen Schritt zurück gehen und gucken. Da sieht man manchmal Dinge besser.

A – Also wirklich das große Ganze?

D – Ja, the big picture.

Infobox: Musik und Sprache gehen Hand in Hand

Klicke hier für mehr Infos.

Musik und Sprache begleiten uns gleichermaßen schon seit Anbeginn der Menschheitsgeschichte. So unterschiedlich die beiden Domänen auf den ersten Blick scheinen, zeigen sich auffällige Parallelen in ihrer Struktur und Verarbeitung. Beide beruhen auf zeitlich strukturierten akustischen Signalen, nutzen Rhythmus und Melodie und folgen regelbasierten Organisationsprinzipien, also einer „Grammatik“.

Erkenntnisse aus der Neurowissenschaft deuten darauf hin, dass Musik und Sprache teilweise auf überlappende neuronale Netzwerke im Gehirn zugreifen – etwa im auditorischen Kortex, im Broca-Areal (Verarbeitung von Syntax) sowie im frontotemporalen Kortex. Untersuchungen deuten auch darauf hin, das Syntax – also die Regeln, wie einzelne Bausteine zusammengesetzt werden – sowohl in Sprache als auch Musik ähnliche Bereiche im Hirn aktivieren [5, 6].

Auch rhythmische Verarbeitung scheint in beiden Domänen auf ähnliche kognitive und neurale Mechanismen zu beruhen. Studien mit EEG und fMRI zeigen, dass Hirnareale wie der prämotorische Kortex und Basalganglien bei rhythmischer Vorhersage sowohl in Sprache als auch Musik beteiligt sind [7].

Einige Theorien vermuten eine evolutionäre Vorform beider Systeme: eine „musilanguage“ oder „protomusikalische Kommunikation“. Diese soll eine frühe Form sozialer Lautkommunikation gewesen sein, aus der sich Musik und Sprache später spezialisiert entwickelt haben könnten. Für diese Hypothese sprechen auch Beobachtungen aus der Entwicklungspsychologie: Schon Neugeborene reagieren sensibel auf prosodische Muster und Rhythmus – lange bevor sie Sprache oder Melodie im engeren Sinn verstehen können [2, 3].

A – Steigen wir ein bisschen mehr in die Thematik selbst ein. Warum sollte man Musik und Sprache überhaupt gemeinsam betrachten? Warum macht es für dich Sinn, dass man das nicht einzeln anguckt? Erstmal würde man ja denken, Musik ist eigentlich was ganz anderes als eine normale Unterhaltung. Warum würdest du sagen, es macht trotzdem Sinn?

D – Das ist eine gute Frage. Ich frag mich das auch manchmal ehrlich gesagt, je weiter ich komme. Es wird in der Literatur und in allen Disziplinen irgendwo als spannend empfunden, die gemeinsamen Wurzeln von Musik und Sprache zu betrachten. Das mag zwar so aussehen, als ob es zwei verschiedene Dinge sind, aber die Idee ist trotzdem, dass die einen gemeinsamen Vorfahren haben, und den könnte man unter Umständen auch heute noch entdecken, wenn man nur genau hinguckt.

Wenn man sagt: Es gibt eine Melodie in beiden Domänen. Es gibt in beiden Domänen eine Grammatik. Da kommen wir wieder dazu. Es gibt so ähnliche Grundmuster, die vielleicht auch erklären, warum das eine dem anderen helfen kann oder die vielleicht auch erklären, warum die meisten häufig auch gemeinsam auftauchen. Also in Songs. Deswegen finde ich, sollten wir viel mehr Gesang auch untersuchen, weil da beide Dinge zusammenkommen.

Musik und Sprache als Kontinuum

Und außerdem: Man sagt immer Musik und Sprache, aber es gibt so ein Kontinuum. Poesie hat mehr so einen musikalischen Einschlag. Rap hat einen Fokus sehr stark auch auf Sprache und auf Wörtern. Also es sind gar nicht so sehr diese beiden Kategorien, es ist so ein Kontinuum. Ich finde, das macht schon Sinn beides zu untersuchen, um von dem einen vielleicht auch abzuleiten, was in dem anderen passiert. Gegenseitig sich zu inspirieren und zu befruchten. Technisch gesehen ist das manchmal gar nicht so einfach, weil man erst das eine Feld verstehen muss, um das andere erforschen zu können.

Oder man muss sich genau Gedanken machen, auf welchem Level vergleicht man das jetzt? Also man kann sagen, die haben beide eine Melodie. Ja, aber die sind trotzdem unterschiedlich. Man hat diese gleitenden, prosodischen Pitch-Movements und man hat diese diskreten Tonsprünge in der Musik. Ist das wirklich vergleichbar? Also man kommt da auch nach den oberflächlichen Gemeinsamkeiten sehr schnell an tiefgründige Unterschiede. Die Frage ist, ob das Gehirn das ähnlich oder verschieden betrachtet, verarbeitet und wie es überhaupt möglich ist, dass sich das gegenseitig beeinflusst.

Warum treten die so häufig gemeinsam auf und wie kann das eine das andere beeinflussen? Da sind wir wieder bei der anderen Frage: Kann das eine das andere wirklich beeinflussen? Das ist so eine Frage und da streiten sich wirklich die Gemüter. Und warum ist das so? Ist das so, weil das Musik und Sprache ist? Weil die irgendwas gemeinsam haben? Oder ist es, dass irgendwelche allgemeinen Dinge verändert? Ist es mehr Aufmerksamkeit oder genaues Zuhören. Ist es eher was Auditorisches, was aber weder Musik noch Sprache ist, sondern einfach nur Auditory Acuity Precision ist. Das sind wirklich große Fragen, die uns immer noch umtreiben und nicht so einfach zu beantworten sind.

A – Ich finde immer diese Momente spannend – was du gerade auch kurz angesprochen hast. Man hört ja oft, dass musikalisches Training auch dein Sprachverständnis verbessert oder generell dein Sprachvermögen. Das kann natürlich auch an anderen übergeordneten Faktoren liegen, wie du gesagt hast. Ich habe in letzter Zeit oft von Musikern und Musikerinnen gehört, dass sie es aber auch andersherum machen. Dass sie sehr viel Sprache nutzen, um in der Musik besser zu werden. Beispielsweise Rhythmustraining, bestimmte Muster, Worte werden mitgesprochen und mit geklopft. Siehst du da Zusammenhänge?

D – Das ist total spannend. Diese Frage kriegen wir häufig. Wir gucken immer, ob die Musik einen Einfluss auf die Sprache nimmt. Und diese Frage andersherum, ob Sprache einen Einfluss auf Musik nimmt, die ist sowas von unterrepräsentiert in der Forschung. Das liegt zum Teil daran, dass wir davon ausgehen, dass wir alle Sprachexperten sind.

A – Weil wir alle sprechen?

D – Ja, weil wir alle sprechen. Da kann man natürlich sagen, das ist nicht so! Es gibt da schon Unterschiede, wie Leute sprechen. Da hatte ich letztens ein Gespräch: Wie können wir das rauskriegen, wie das Sprachlevel ist. Da gibt es nicht wirklich einen Test dafür, weil einfach alle vermuten: Wir sprechen, deswegen können wir alle Sprache. In Musik haben wir diesen Unterschied. Es gibt Musiker, Nicht-Musiker. Wobei man auch wieder sagen kann, ist das nicht vielleicht ein hausgemachtes Ding. Sind nicht alle Menschen irgendwo musikalisch? Nur eben nicht, dass man es produziert, haptisch auf einem Instrument – aber singen, kann jeder. Es hat jeder irgendwie ein Grundverständnis von Musik.

A – Sehr viele Menschen hören auch einfach sehr viel Musik, das ist ja auch eine gewisse Expertise.


D – Eben. Und das ist es. Man kommt auch immer mehr drauf, dass dieser Gruppenvergleich Musiker gegen Nicht-Musiker gar nicht so richtig passend ist, sondern dass man latente Musiker hat in Nicht-Musikern. Also die haben einfach ein unheimlich gutes musikalisches Gehör, obwohl sie kein Instrument spielen. Und da gibt es auch mittlerweile Tests, das rauszufinden.

Da gibt es dann einige Musiker, die schneiden da nicht gut darin ab, und einige Nicht-Musiker, die schneiden wirklich gut darin ab. Das Feld entwickelt sich auch methodisch weiter. Aber ich glaube, wir müssen tatsächlich an der Sprache noch ein bisschen arbeiten und auch rauskitzeln, dass es da schon Unterschiede gibt zwischen den Leuten. Individuelle Unterschiede, dass nicht alle Sprachexperten sind. In der Muttersprache. Ich rede jetzt nicht von der Zweitsprache.

Infobox: Was ist Prosodie?

Klicke hier für mehr Infos

Prosodie bezeichnet Melodie, Rhythmus und Betonung gesprochener Sprache. Dazu zählen Intonation, Pausen, Lautstärke und Sprechgeschwindigkeit – all jene Informationen, die über den bloßen Wortlaut hinaus Bedeutung transportieren. Prosodie hilft uns sozusagen „zwischen den Zeilen zu lesen“. Sie kann Aufschluss über den emotionalen Zustand des Sprechers geben, darüber, ob es sich um eine Aussage oder eine Frage handelt. Sie hilft uns nicht nur beim Sprachverständnis, sondern ist auch zentral für funktionierende Kommunikation. Durch Betonung und Sprachmelodie erkennen wir zum Beispiel Ironie, Ärger oder Freude. Kommt es bei der Deutung zu Fehlern, können Missverständnisse entstehen – Ein Satz kann sachlich gemeint sein, aber doch gereizt und vorwurfsvoll klingen. Die Prosodie gibt uns demnach essentielle Hinweise darauf, wie wir uns optimal in einer sozialen Interaktion verhalten sollten.

Daniela Sammler erforschte bereits intensiv, wie unser Hirn Prosodie verarbeitet. Ihre Arbeit konnte bislang zeigen, dass wohl ein spezifisches Netzwerk zur Verarbeitung von Prosodie in der rechten Hirnhemisphäre existiert. Die prosodischen Informationen werden in diesem über zwei parallele Wege hinweg verarbeitet – einen dorsalen (oberen) und einen ventralen (unteren) Pfad. Dabei spielt der dorsale Pfad eine Rolle bei der zeitlich präzisen Analyse und möglicherweise bei der Vorbereitung motorischer Reaktionen („Wie klingt das?“), während der ventrale Pfad eher prosodische „Gestalten“ verarbeitet („Was höre ich für einen Tonfall?“) [8].

A – Du hast dich ja schon viel mit Prosodie beschäftigt. Das war für mich natürlich aus gegebenem Anlass ein Punkt, wo Musik und Sprache sehr augenscheinlich zusammenkommen. Wie kam es dazu, dass du dich für Prosodie mehr interessiert hast?

D – Genau aus dem Grund. Wir reden über Musik und Sprache. Aber wo ist der Missing Link? Ich hatte am Anfang in meiner Doktorarbeit mir sehr viel über Grammatik Gedanken gemacht. Über diese Strukturierung, über Prediction. Aber das Augenscheinliche ist eigentlich die Prosodie.

 Die Prosodie haben wir auch seit Geburt an. Das, was Babys im Mutterleib hören, ist Prosodie. Worauf sie als erstes reagieren – angeboren – ist Prosodie. Und dann differenziert sich die Prosodie aus in zwei Richtungen. Prosodie differenziert sich aus in die linguistische Prosodie, wo sie wirklich Sprache strukturiert. Wo hört ein Wort auf, wo hört ein Satz auf? Was ist wichtig im Satz? Da geht es eher in diese sprachliche Richtung.

Aber Prosodie hat auch viel mit Emotionen zu tun. Da geht es eher in die Funktion der Musik vielleicht. Also so eine Art Smallest Common Denominator, der angeboren ist oder der zumindest sehr früh in der Kindheit relevant ist und sich dann ausdifferenziert in zwei Systeme.

Das fehlende Bindeglied zwischen Musik und Sprache

Für mich war das so dieser Missing Link und deswegen habe ich gedacht, das müssen wir untersuchen. Da habe ich mir natürlich jetzt eine dritte Domäne eingehandelt, die kann man auch für sich untersuchen, ohne jetzt mit Musik und Sprache überhaupt in Kontakt zu kommen.

A – Meinst du Emotion?


D – Emotionale Prosodie, Intention – das INGEMA-Projekt [einer der Forschungsschwerpunkte der Gruppe und ein aktuelles Projekt]. Da geht es ja weniger um die Sprache, da geht es wirklich um „What’s in the prosody? What’s the message behind the prosody?“ Ich weiß nicht, ob das clever war, die dritte Domäne noch dazuzunehmen. Aber es gibt auch die Idee, dass das auch im Tierreich, auch eher auf Lauten, auf Tönen – ich weiß nicht, ob man das so benennen kann – aber dass das vielleicht wirklich der gemeinsame Nenner und Vorläufer war für das, was sich dann als Sprache und Musik ausdifferenziert hat. Deswegen fand ich das spannend.

Mehr zu Prosodie auch in diesem Artikel:

A – Du machst ja Grundlagenforschung. Blöd gefragt: Wofür ist das eigentlich alles gut? Was denkst du? Was können wir damit anfangen?

D – Ich würde ja schon ganz gerne zur Klinik zurückkommen, so wie es angefangen hat. Ich glaube, da sind wir noch sehr, sehr weit davon weg. Aber wir müssen aufpassen, dass wir das nicht aus den Augen verlieren. Wofür das gut ist? Natürlich ist es intellektuell interessant, spannend. Es macht uns aus als Menschen. Musik und Sprache sind so mit die höchsten Funktionen, die wir haben. Die zu untersuchen, das finde ich, macht sehr viel Sinn. Einfach um uns zu erklären. Ich glaube, es wäre schon interessant auch zu sehen, warum. Ob das eine auf das andere wirkt und wie man es vielleicht nutzen kann. Wenn wir da ein bisschen dazu beitragen können, das zu inspirieren – das werden vielleicht n

icht wir selber machen, aber andere lesen ja unsere Sachen und finden dann Inspiration daraus. Dann wäre es schon, denke ich, ein guter Beitrag.

A – Das klingt doch vielversprechend. Was sollten die Leserinnen und Leser aus unserem Gespräch über Musik und Sprache unbedingt mitnehmen?

D – Da könnten wir ewig weiterdiskutieren, das findet auch kein Ende. Ich finde es interessant, wie so ein Thema über die Jahrhunderte hinweg die Wissenschaftler beschäftigen kann – aus unterschiedlichen Disziplinen. Philosophie, Biologie, Genetik, Anthropologie und so weiter. Ich finde, wir sollten mehr zusammenarbeiten. Ich finde diese unterschiedlichen Disziplinen sollten sich gegenseitig helfen und auch zu hören. Wir sollten uns nicht streiten, wir sollten konstruktiv zusammenarbeiten.

Und wir sollten es interaktiver gestalten. Das ist eine große Gap, die wir noch haben, dass wir in Interaktion untersuchen. Also nicht nur einer, der in einer Kabine sitzt und sich Musik anhört. Sondern tatsächlich rausgehen und sagen: Was passiert, wenn Leute gemeinsam Musik hören? Wenn Leute gemeinsam Musik machen? Wenn Leute gemeinsam sprechen? Miteinander sprechen und nicht nur Sätze hören? Musik und Sprache sind soziale Dinge. Sie haben vielleicht unterschiedliche soziale Funktionen, aber sie sind beide sozial. Das ist ein großes Manko, das wir noch haben, was an unseren Methoden liegt, die nicht ganz einfach kompatibel sind mit solchen Versuchen. Aber da müssen wir unbedingt hin. In die Interaktion. Die natürliche Interaktion in der Musik und Sprache untersuchen.

Ein kurzes Schlusswort

Das Gespräch mit Dr. Daniela Sammler macht deutlich, wie vielschichtig das Verhältnis von Musik und Sprache ist – und wie viel noch lange nicht abschließend geklärt ist. Beide Domänen prägen unser Leben auf grundlegende Weise, sei es im Alltäglichen, emotional oder auch kulturell von Bedeutung. Beide beruhen auf komplexen, zeitlich strukturierten akustischen Signalen und greifen bei der Verarbeitung auf teilweise überlappende neuronale Netzwerke zu. Die Forschung bewegt sich dabei in einem Spannungsfeld zwischen Gemeinsamkeiten und Unterschieden musikalischer und sprachlicher Verarbeitungsprozesse. Hier gilt es noch einiges genauer zu ergründen.

Dr. Sammler betont, dass hier auch die Fragestellungen selbst weiterentwickelt werden müssen. So sollten wir vielleicht anfangen Musik und Sprache mehr als Kontinuum zu betrachten anstatt als zwei spezifische Phänomene. Außerdem unterstreicht Sammler die Bedeutung interdisziplinärer Zusammenarbeit auch in diesen Themengebieten. Ihre wissenschaftliche Laufbahn, die mit einer klinischen Motivation begann und sich hin zur Grundlagenforschung entwickelte, verdeutlich zudem, wie eng neurokognitive Forschung mit praktischen Anwendungen verknüpft sein kann. All dies zeigt uns die Notwendigkeit Brücken zwischen Disziplinen, Methoden und verschiedenen Forschungsstandpunkten zu schlagen, um neue Perspektiven zu eröffnen, die sowohl der Forschung als auch der Praxis zugutekommen.

Quellen:

[1] Albouy, P., Benjamin, L., Morillon, B., & Zatorre, R. J. (2020). Distinct sensitivity to spectrotemporal modulation supports brain asymmetry for speech and melody. Science, 367(6481), 1043-1047.

[2] Brown S. (2007). Contagious heterophony: a new theory about the origins of music. Music. Sci. 11, 3–26. 10.1177/102986490701100101

[3] Brown S. (2017). A joint prosodic origin of language and music. Front. Psychol. 8:1894. 10.3389/fpsyg.2017.01894

[4] Floegel M, Fuchs S, Kell CA (2020) Differential contributions of the two cerebral hemispheres to temporal and spectral speech feedback control. Nature Communications11:2839  https://doi.org/10.1038/s41467-020-16743-2

[5] Koelsch, S. (2005). Neural substrates of processing syntax and semantics in music. Current Opinion in Neurobiology, 15(2), 207–212. https://doi.org/10.1016/j.conb.2005.03.005

[6] Koelsch, S. (2009). Neural substrates of processing syntax and semantics in music. In: Haas, R., Brandes, V. (eds) Music that works. Springer, Vienna. https://doi.org/10.1007/978-3-211-75121-3_9

[7] Kotz, S. A., & Schwartze, M. (2010). Cortical speech processing unplugged: a timely subcortico-cortical framework. Trends in cognitive sciences14(9), 392–399. https://doi.org/10.1016/j.tics.2010.06.005

[8] Sammler, D., Grosbras, M. H., Anwander, A., Bestelmeyer, P. E., & Belin, P. (2015). Dorsal and Ventral Pathways for Prosody. Current biology : CB25(23), 3079–3085. https://doi.org/10.1016/j.cub.2015.10.009

Fotos: Adobe Stock

Antonia Ceric

Veröffentlicht von

Ich heiße Antonia Ceric und studiere im Master Neurowissenschaften an der Uni Frankfurt. Während ich in meinem Psychologie-Bachelor die neuronalen und psychologischen Grundlagen der Wahrnehmung und unseres Gehirns kennenlernen durfte, konnte ich mich parallel im Kunststudium an der HfG Offenbach dem Bereich auch aus einer philosophischen Perspektive nähern. Durch meinen interdisziplinären Hintergrund interessieren mich besonders Grenzbereiche, wo die Neurowissenschaft auf andere – etwa geisteswissenschaftliche und kreative – Felder trifft oder das Verständnis unseres Hirns plötzlich im Alltäglichen überrascht.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +