Das weiße Rauschen: Wie sich das Gehirn an schlechte Sprachqualität anpasst

BLOG: NeuroKognition

Kognitive Fähigkeiten und Gehirnprozesse des Menschen
NeuroKognition

von Julia Erb – Wieso können wir gesprochene Sprache selbst dann verstehen, wenn sie extrem verrauscht ist – sei es in einer lauten Kneipe, am Telefon oder wegen Hörstörungen? Wie passt sich das Gehirn innerhalb kürzester Zeit an ein verrauschtes Sprachsignal an, das akustisch kaum noch klar gesprochener Sprache ähnelt? Dieser Fragestellung sind wir in der Forschungsgruppe „Auditive Kognition“ nachgegangen.

Wer eine laute Kneipe betritt, kann anfangs im Stimmengewirr (oder Fußballgetöse)  kaum sein eigenes Wort und noch weniger sein Gegenüber verstehen. Doch nach kurzer Zeit schaffen wir es irgendwie, den Lärm beiseite zu schieben und können uns fast normal unterhalten. Ähnliches passiert, wenn wir jemanden treffen, der einen ungewöhnlichen Akzent hat. Anfangs mag es schwerfallen, aber nach einer Gewöhnungsphase kann man sich doch verstehen. Hörgeschädigte sind eigentlich ständig einer solchen Situation ausgesetzt: für sie klingt Sprache niemals klar. Ein drastisches Beispiel dafür sind Gehörlose, die eine Innenohrprothese (Cochlea-Implantat) eingesetzt bekommen. Das künstliche Innenohr ist derzeit die einzige Neuroprothese, die ein Sinnesorgan ersetzen kann; es übersetzt Schall in elektrische Impulse und stimuliert direkt den Hörnerv. Das übertragene Sprachsignal ist jedoch extrem verzerrt und erfordert vom Träger höchste Lernleistung, um aus dem Gehörten Sinn zu machen. Doch welche Fähigkeiten helfen bei der Anpassung an eine solche Hörsituation und welche Hirnprozesse finden dabei statt?

In einer kürzlich veröffentlichten Studie haben wir Normalhörende in eine ganz ähnliche Lage wie Patienten mit frisch implantiertem künstlichem Innenohr versetzt. Sie hörten ca. 20 Minuten lang sehr verrauschte Sätze, die kaum spektrale Auflösung hatten und sich mehr wie ein „kratziges Flüstern“ anhörten. Aufgabe der Probanden war es, soviel wie möglich von dem Gehörten zu verstehen und wiederzugeben. Gleichzeitig wurde untersucht, welche Faktoren einen Einfluss auf das Sprachverständnis hatten: Kurzzeitgedächtnisleistung, nicht-sprachliche Hörfähigkeiten oder die Hirnstruktur der Probanden?

Es zeigte sich, dass sich alle Probanden während der 20 Minuten im Sprachverständnis der verrauschten Sätze verbesserten. Während Gedächtnisfähigkeiten keine Rolle dabei spielten, trugen nicht-sprachliche Hörfähigkeiten erheblich zu diesem Anpassungsprozess bei. Personen, die besser die Modulationen von weißem Rauschen hören konnten, lernten auch schneller, die verzerrte Sprache zu verstehen.

Diese Fähigkeit, sich an ein verrauschtes Sprachsignal anzupassen, spiegelte sich zudem in bestimmten Hirnstrukturen wider: Wer eine dichtere Struktur im linken Zwischenhirn, dem Thalamus, hatte, lernte schneller, die verzerrte Sprache zu verstehen. Dieser Teil des Gehirns hat besonders starke Verbindungen zur Großhirnrinde; von hier werden Informationen aus dem Gehör zur Hörrinde weitergeleitet. Möglicherweise ist der Anpassungsprozess also dann besonders erfolgreich, wenn das Zwischenhirn Informationen aus dem auditiven System effektiv an die Großhirnrinde verteilen kann, wo diese weiterverarbeitet werden.

Für die zunehmende Zahl von Menschen mit künstlichem Innenohr ist dieser Lernprozess von vitaler Bedeutung: Nur wenn es ihnen gelingt, sich an das ungewohnte, degradierte Sprachsignal anzupassen, können sie überhaupt von ihrem Implantat profitieren und Sprache nach einem gehörlosen Leben (wieder) verstehen. Darum ist es so wichtig, die neurale Grundlage dieser Anpassungsprozesse zu kennen und Hörstrategien entsprechend zu formen.

Originalpublikation:
Erb, J., Henry, M. J., Eisner, F., & Obleser, J. (2012). Auditory skills and brain morphology predict individual differences in adaptation to degraded speech. Neuropsychologia. Advance online publication.

Julia Erb ist Doktorandin in der Max-Planck-Forschungsgruppe “Auditive Kognition”.

10 Kommentare

  1. Frage

    Hat man die Leute auch trainiert?
    D.h. hat man erst das verständliche Wort und dann als Vergleich die verrauschte Version zum Training mit vielen Übungswörterpaaren vorgespielt – damit das Gehirn den Unterschied lernt.
    Bei Implantatträgern müsste die Möglichkeit gegeben werden erst das Wort zu lesen, bevor es vorgespielt wird.

    Mit so einem Vor-Training müsste doch die Erkennungsleistung beim eigentlichen Test deutlich ansteigen – oder nicht?

  2. Vor-training

    Ergänzung: Das Vor-Training von ganzen Sätzen müsste noch effektiver sein, als das Training einzelner Worte – da dies eher der Realität entspricht

  3. Ähnlichkeit

    Die erstaunlichen Fähigkeiten beim Erkennen von verrauschter Sprache werden verständlicher durch das Phänomen „Ähnlichkeit“, mit dem unser Erkenntnisorgan seine bemerkenswerten Leistungen schafft. Während im Computer mit den beiden Systemzuständen „On“ und „Off“ alle seine Rechenleistungen mit pedantischer Genauigkeit auf fehlerfreien Gleichheiten basieren, die keine Abweichungen zulassen, ist in der biologischen „Datenverarbeitung“ die ähnliche Reaktion auf ähnliche Reize schon bei den Mikroorganismen nachweisbar.
    In der Evolution hat sich das Prinzip der Orientierung auf der Basis von Ähnlichkeiten bis zum Menschen ständig verfeinert, und es herrscht auch in der sprachlichen Kommunikation.
    Mit ähnlichen Wortfetzen aktualisieren bzw. verstehen wir ähnlichen Sinn.
    Die neurophysiologische Erklärung für diese Erkenntnisleistungen folgt aus der automatischen Kontrastverstärkung, die durch „Laterale Hemmung“ in allen Ebenen des Nervensystems erzielt wird. Diese Konvergenz-Divergenz-Verschaltung in den neuronalen Ebenen erzeugt aus diffusen Umweltsignalen kontrastierte Grenzen, mit denen wir die Welt erkennen und nach Ähnlichkeiten einteilen.
    Der Thalamus hat zwei wichtige Funktionen: Zunächst als Vermittler der Informationen aus den Sinnesorganen an den Cortex und umgekehrt, von der Hirnrinde Impulse auf andere Ebenen des Nervensystems zu vermitteln. Die Anatomen nannten den Thalamus „das Tor zum Bewußtsein“ und meinten dabei wohl schon die zweite Aufgabe, die der Thalamus über das „unspezifische Aktivierungssystem“ für die Hirnrinde leistet.
    Der Schlaf, die „Weckfunktion“ und die Steuerung der Aufmerksamkeit durch starke Reize sind die Leistungen des Thalamo-Corticalen Systems, die sich grob in der Registrierung der „Hirnwellen“ (EEG) aufzeichnen lassen. Wenn man sich den Cortex als „Chefetage“ anschaulich macht, dann ist der Thalamus deren „Vorzimmer“ mit einer Chefsekretärin, die vor allem dafür zu sorgen hat, den Chef vor der Flut von Informationen und Besuchern abzuschirmen.
    Im Thalamo-corticalen System werden nur ca. 10-20 Bitkomplexe pro Sekunde zum Cortex geleitet, eine milliardenfach größere Informationsmenge wird ständig zurückgehalten.
    Mit seinem rhythmisch arbeitenden Aktivierungssystem können selektiv Teile der Hirnrinde zu Punkten der Aufmerksamkeit fokussiert werden. Wie sich solche Fokussierung auswirken kann, zeigt das Gespräch im Partylärm: Die gesteigerte Aufmerksamkeit auf die akustischen Laute wird ganzheitlich verbunden mit der Konzentration auf die Lippenbewegungen,
    und so können Ähnlichkeiten leichter entdeckt werden.

  4. Training & Adaptation

    Zu den Fragen 1 und 2:

    Die Probanden hörten hundert verrauschte Sätze und versuchten, soviel wie möglich nachzusprechen. Sie erhielten jedoch weder eine Rückmeldung, wie viel sie richtig widergegeben hatten, noch hatten sie die Chance, den verzerrten Satz auch einmal klar gesprochen zu hören. Der Grund dafür war, dass das Experiment möglichst real die Situation Cochlea-Implantat-Patienten nachstellen sollte, die nie die Möglichkeit haben, klare Sprache zu hören (und auch höchst selten das Gesagte gleichzeitig geschrieben sehen). Trotzdem, dass kein eigentliches Training stattfand, wurden die Probanden aber im Lauf des Experimentes besser im Erkennen der Sätze.

    Es gibt allerdings Studien, die belegen, dass Probanden schneller lernen, verrauschte Sätze zu verstehen, wenn sie den Satz einmal klar gesprochen hören (z.B. Davis et al. 2005). Dieselbe Gruppe konnte in einer Folgestudie auch zeigen, dass es einfacher ist, ganze Sätze in schlechter Sprachqualität zu verstehen, als einzelne Worte (Hervais-Adelman et al., 2008). Eine Erklärung dafür ist, dass Sätze einen Kontext aufbauen, der dem Hörer eine Art feedback gibt (da der Satz nur dann richtig verstanden wurde, wenn er am Ende Sinn macht). Bei einzelnen Worten (ohne Kontext) tappt der Hörer jedoch im Dunkeln, ob das Wort nun richtig gehört wurde oder nicht.

    Referenzen:
    Davis MH, Johnsrude IS, Hervais-Adelman A, Taylor K, McGettigan C (2005) Lexical information drives perceptual learning of distorted speech: evidence from the comprehension of noise-vocoded sentences. J Exp Psychol Gen 134:222-241.
    Hervais-Adelman A, Davis MH, Johnsrude IS, Carlyon RP (2008) Perceptual learning of noise vocoded words: effects of feedback and lexicality. J Exp Psychol Hum Percept Perform 34:460-474.

  5. Danke

    Vielen Dank für die Antwort.

    Unter Google [erwartung beschleunigt bewusste wahrnehmung] finden Sie einen Beitrag zur optischen Wahrnehmung, welcher zeigt, dass die Reaktion des Gehirns etwa 1/3 schneller erfolgt, wenn voher bekannt ist, welche Bilder gezeigt werden.
    (L Melloni, C. Schwiedrzik, N. Müller, E. Rodriguez, W. Singer, Expectations change the signature and timing of electrophyiological correlates of perceptual awareness, The Journal of Neuroscience, Jan 26, 2011, 31(4): 1386-1396)
    Eventuell kann man diese Idee einer Konditionierung/Vorgabe auf begrenzte und bekannte Themen auch bei Cochlea-Patienten nutzen, um anfangs den Trainingseffekt zu beschleunigen.

    Das Gehirn arbeitet ja per Mustererkennung/-vergleich; Vorwissen erhöht den Lerneffekt

  6. Hinweis

    Unsere Erfahrungen werden in der zeitlichen Gegenwartsform erlebt, abgespeichert und wieder erinnert.
    Wenn man diese Zeitform am Anfang vom Hörtraining beachtet, müsste sich der Lernerfolg steigern lassen.

  7. Rauschen der Sprache

    Wieso können wir gesprochene Sprache selbst dann verstehen, wenn sie extrem verrauscht ist – sei es in einer lauten Kneipe, am Telefon oder wegen Hörstörungen? Wie passt sich das Gehirn innerhalb kürzester Zeit an ein verrauschtes Sprachsignal an, das akustisch kaum noch klar gesprochener Sprache ähnelt?

    Die Sprache bzw. deren Sprechen ist immer verrauscht – und zwar sehr stark verrauscht.

    Kompressionsverfahren (“MP3”) würden gar nicht funktionieren können, wenn die Sprache zielgerichteter und effizienter wäre.

    IdT ist es bemerkenswert wie sich angrunzende Menschen (vs. Bären) so gut verstehen können.

    “Gastronomisierende” Bemühungen beweisen bezogen auf die Sprache nur den Status Quo.

    MFG
    Wb

  8. “Darum ist es so wichtig, die neurale Grundlage dieser Anpassungsprozesse zu kennen und Hörstrategien entsprechend zu formen.”

    -> Solche Aussagen machen mir Angst. Sie hören sich ein nicht gering zu bewertenden Anteil “kreationistisch” an. Aus wissenschaftlicher Sicht ist es aber die einzige Möglichkeit, das Kind, was in den Brunnen gefallen ist (also den Tauben, ertaubten oder schwerhörigen) zu helfen – ganz chronologisch die einzelnen Faktoren des Hörens abzuwandern und die maßgeblichen Faktoren einkreisen, um sie eventuell manipulieren zu können.

    Ich kenne aus der Familie eine mittelgradig schwerhörige Person und kann ein wenig aus den Erfahrungen davon berichten. Diese Person trägt die heute üblichen Hörgeräte. Das ist ein eher mäßiger Ansatz das Hörvermögen zu steigern. Denn das Gehör ist in seiner gesamtheit beeinträchtigt und es ist nur ein sehr gering sinnvoller Ansatz, alle Geräusche einfach nur zu verstärken.
    Meine Erfahrung sind auch, dass es im detail nicht allein nur an dem Mangel an denen am Hören direkt beteiligten Organen liegen kann, dass diese Person so schlecht hört und auch Sprache schlecht versteht. Manchmal sage ich auch zu mir, dass sie nichts verstehen kann (akustisch), weil sie nicht verstehen will (Inhaltlich). Ich bin also inzwischen davon überzeugt, dass es sich bei dieser Person wahrscheinlich um einen globalen Gehirnschaden handelt, der nicht nur das Gehör betrifft. Die damalige Diagnose beschränkte sich auf mehrfache gehörstürze und anschließender Verringerung der Hörfähigkeit. Weitere Diagnosen schien esdamals nicht möglich gewesen zu sein. Und heute macht man sich (auch) nicht mehr die Mühe zu ergründen, warum es überhaupt zu solchen Begebenheiten gekommen ist. Dies ist auch aus den Ausführungen in dem Artikel zu entnehmen – leider.

    Nun kann man vielleicht auch mutmaßen, dass es aufgrund der vielen Jahre mit Schwerhörigkeit auch das Gehirn verändert und so zu zusätzlichen Beeinträchtigungen kommt. Sicher ist jedenfalls wohl, dass aus der fehlenden Übung aufgrund des schlechten verstehens auch die Assoziation von gehörten Worten nicht so gut funktioniert, wie es bei einem gut hörenden Menschen der Fall ist. Das man Bedeutung von gesprochenen Worten auch aus ihren Zusammenhängen Interpretieren kann, ist ein weitere Faktor, der bei länger schon schlecht hörenden Menschen einen Nachteil verursacht. Wer schlecht hört, hat auch weniger Kommunikation (Gesprächszeit mit Mitmenschen, weil diese auf das wesendliche reduziert werden)- sodass die Übung hier fehlt, woraus sich diese Muster erst bilden können.

    Kognitiv ist zu beobachten, dass diese Person schon seit Jahrzehnten keine Weiterentwicklung zeigt. Ob dies nur an der Schwerhörigkeit liegt, ist eine Mutmaßung und unzuverlässig. Aber es liegt eben auch mit an den begleitenden Bedingungen (etwa verringerte und darauf angepasste Kommunikation). Sie versucht das Klavier spielen zu lernen – seit mehr als einem Jahr mit sehr mäßigen Ergebnis; eigendlich kaum Erfolg.

Schreibe einen Kommentar