Wo die Musik spielt: Wie wir wissen, woher ein Geräusch kommt

Selbst wenn viele Geräusche auf einmal auf uns einprasseln, kann das Gehirn bestimmen, woher die kommen und wie weit entfernt sie von uns sind. Dadurch werden wir nicht nur vor Gefahren gewarnt, die wir nicht sehen. Wir können die verschiedenen Geräusche auch räumlich voneinander trennen und uns so besser in lauten Umgebungen verständigen. Diese Schalllokalisation ist eine komplexe Rechenleistung. Erkennt man deren Prinzipien, so die Idee, versteht man das Gehirn besser – und Hörgeräte lassen sich feiner auf das einzelne Ohr abstimmen.

von Ole Bialas

Stellen Sie sich vor, Sie verbringen einen Nachmittag am See und ihre Begleitung fordert Sie zu einem Spiel heraus. Sie gräbt, dicht beieinander, zwei schmale Kanäle in den Sand am Seeufer. Auf dem See herrscht ein leichter Wellengang, sodass mit den Wellen Wasser in die Kanäle hinein- und wieder herausläuft. Anschließend legt sie auf jeden der Kanäle eine Serviette, die sich nun mit den Wellen heben und senken. Sie sind nun aufgefordert, die Bewegungen der beiden Servietten zu beobachten und anhand dessen mehrere Fragen zu beantworten: Wie viele Boote sind auf dem See und wo sind sie? In welche Richtungen bewegen sie sich und welches Boot ist Ihnen am nächsten? 

Diese Aufgabe mag unlösbar erscheinen, doch sie ist eine exakte Analogie für die alltäglichen Herausforderungen an unser Hörsystem (Bregman, 1994). Während unsere Netzhaut ein räumliches Abbild der visuellen Sinneseindrücke erhält, ist unser Gehör mit einem Gemisch sämtlicher Schallwellen aus der Umwelt konfrontiert, unabhängig von deren Position. Dabei ist es entscheidend, dass wir Geräusche mit zwei Ohren wahrnehmen die, auch wenn uns das selten bewusst ist, verschiedene Sinneseindrücke erhalten. Das Gehirn setzt daher die Positionen der einzelnen Geräuschquellen im Nachhinein aus verschiedenen Informationsstückchen zusammen. 

Das Puzzle der Schalllokalisation

Kommt ein Geräusch von einer seitlich gelegenen Schallquelle, muss es am Kopf vorbei, um das abgewandte Ohre zu erreichen. Dabei wird das Geräusch abgedämpft und zwar umso stärker, je seitlicher die Quelle liegt. Der so entstehende Lautstärkeunterschied zwischen den Ohren enthält also Informationen über die Position der Schallquelle. Allerdings hängt der Lautstärkeunterschied nicht nur von der Position der Quelle sondern auch von der Frequenz der Schallwellen ab. Je höher die Frequenz, desto stärker werden die Wellen durch kleinere Objekte blockiert. Fledermäuse etwa verwenden für ihre Echolokalisation den Ultraschall mit dem sie, dank seiner hohen Frequenz, die Umgebung sehr genau abtasten können. 

Im Umkehrschluss bedeutet das, für tiefe Frequenzen (unter einem Kilohertz) gibt es quasi keine Lautstärkedifferenz zwischen den Ohren. Dass wir dennoch in der Lage sind, tieffrequente Geräusche zu lokalisieren, liegt daran, dass die Neuronen unseres Hörnervs im Takt der Schallwellen feuern. Dadurch kann das Gehirn neben den Lautstärke- auch die Zeitunterschiede zwischen den Ohren berechnen. Da Neuronen aber nur etwa tausend Mal in der Sekunde feuern, können sie den Takt von Schallwellen mit einer Frequenz über tausend Hertz nicht halten. Wir haben also zwei Indikatoren für die Position einer Schallquelle: Die Unterschiede in der Zeit für tieffrequente Geräusche, die in der Lautstärke für die hohen Frequenzen. Besonders schlecht können wir daher Geräusche im Frequenzbereich zwischen 1500 und 3000 Hertz einordnen. Dort sind weder die Zeit- noch die Lautstärkeunterschiede besonders zuverlässig (Middlebrooks, 1991).

Das Interessante dabei: Die Unterschiede zwischen den Ohren verraten die Position einer Schallquelle nicht eindeutig. Liegen zwei eine Schallquelle direkt vor oder direkt hinter uns, macht das für die Ohren keinen Unterschied. Die Quellen erzeugen dieselben Zeit- und Lautstärkeunterschiede – nämlich gar keine. Um das Problem zu lösen, braucht es also ein weiteres Teil. Dieses Teil ist der Grund dafür, warum unsere Ohrmuscheln nicht einfach nur glatte Schalen sind sondern eine komplexe Struktur voller Wölbungen und Windungen. Je nachdem aus welchem Winkel Schallwellen auf die Ohrmuschel treffen, werden sie in unterschiedlicher Art und Weise reflektiert und abgelenkt. Wenn wir also das selbe Geräusch von verschiedenen Positionen im Raum abspielen und es mit einem Mikrophon im Ohrkanal des Hörers aufnehmen, erhalten wir für jede Position eine etwas andere Aufnahme. Diese feinen Unterschiede kombiniert das Gehirn mit den Zeit- und Lautstärkedifferenzen, um schließlich eindeutig zu wissen, woher ein Geräusch kommt. 

Jedes Ohr ist anders

Doch die Form der Ohrmuscheln ist von Mensch zu Mensch verschieden. Unser Gehirn muss also unsere individuelle Ohrform erlernen. Forscher haben das demonstriert, indem sie die Ohrmuscheln der Probanden durch eine eingepasste Silikonform verändert haben. Die Unterschiede in Zeit und Lautstärke zwischen den Ohren waren noch vorhanden, die Teilnehmer konnten also noch links von rechts unterscheiden. Was ihnen jedoch nicht mehr gelang, war zu entscheiden, ob ein Geräusch von oben oder unten kommt. Das war aber nur von kurzer Dauer. Nachdem die Probanden die Silikonformen mehrere Wochen lang im Ohr getragen hatten, kehrte ihre Fähigkeit zurück, Schallquellen zu lokalisieren (Hofman, 1998). Unser Gehirn ist also in der Lage, neue Ohrformen zu erlernen. Das hielt selbst dann an, als man die Silikonformen wieder entfernt hatte. Auch mit ihren natürlichen Ohren konnten sie uneingeschränkt gut erkennen, woher ein Geräusch kommt. Das Wissen über die eigene Ohrform wurde demnach durch den Lernprozess nicht überschrieben. Es zeigte sich aber auch: Manche Ohren sind besser für das Richtungshören geeignet als andere. Die Genauigkeit hängt zu einem gewissen Teil von der individuellen Form der Ohrmuscheln ab.

Und im Alltag?

Wir orientieren uns in erster Linie mit den Augen, in der Regel sind wir also nicht auf unseren Hörsinn angewiesen, um uns in unserer Umwelt zurechtzufinden. Die Fähigkeit, Schallquellen zu lokalisieren, ist allerdings wichtig, um das sogenannte “Cocktailparty-Problem” zu lösen. Die Cocktailparty steht dabei stellvertretend für akustische Situationen, in denen viele verschiedene Quellen gleichzeitig Geräusche erzeugen. Aus dem Gemisch an Schallwellen, muss man ein bestimmtes Signal herauszufiltern, zum Beispiel die Stimme unseres Gesprächspartners. Dies gelingt besser, wenn man in der Lage ist, die Schallquellen räumlich voneinander zu trennen.

Das kann für die Träger von Hörgeräten zum Problem werden. Hörgeräte verändern nämlich, genau wie die Silikonformen aus dem Experiment, die Form des Ohres und stören somit die Schalllokalisation. Dadurch fällt es den Nutzern schwerer, Schallquellen voneinander zu trennen. Dadurch fällt es ihnen schwer, einem Gespräch auf einer Cocktailparty zu folgen. Zwar sind auch sie in der Lage sich an eine neue Ohrform anzupassen. Der Prozess dauert jedoch mehrere Wochen. Je älter die Person, desto länger kann diese Eingewöhnungszeit werden. Das trägt wiederum dazu bei, dass viele Patienten auf ein notwendiges Hörgerät verzichten.

Ändern könnte sich das, indem man noch besser versteht, wie das Gehirn Schallquellen berechnet. Beispielsweise konnten Forscher zeigen, dass sich die Zeit, die das Hörsystem benötigt um sich an eine veränderte Ohrform zu gewöhnen, durch Training drastisch reduziert werden kann. Während des Trainings mussten die Probanden ihren Kopf in die Richtung drehen, aus der das Geräusch kommt. Lagen sie daneben, wurde ihnen die tatsächliche Position durch ein Licht angezeigt, das Geräusch wurde wiederholt. Dieses Zusammenspiel aus Sehen, Hören und Bewegung beschleunigte den Lernprozess enorm. Die Teilnehmer hatten bereits innerhalb von drei 12-minütigen Trainings ihre Lokalisationsgenauigkeit deutlich verbessert (Parseihian, 2012). Ein ähnliches Training, zum Beispiel in Form einer App, könnte die Gewöhnung an ein neues Hörgerät in ähnlicher Art und Weise Beschleunigen.

Veröffentlicht von

Ich habe Biologie in Tübingen und Leipzig studiert und promoviere an der Universität Leipzig in Kooperation mit dem Max-Planck-Institut für Kognitions- und Neurowissenschaften. In meiner Forschung untersuche ich, wie räumliches Hören auf neuronaler Ebene funktioniert. Ich halte räumliches Hören für ein interessantes Modell, anhand dessen wir besser verstehen können, wie unser Gehirn Sinnesinformation verarbeitet. Methodisch setzte ich dabei auf eine Kombination aus Verhaltensstudien, Hirnstrommessungen mittels EEG und statistischer Modellierung.

31 Kommentare

  1. Dies ist ein interessanter Artikel. Nur eine Frage habe ich:

    Ich habe manchmal in letzter Zeit das Problem bei lauter Musik meinen Gegenüber zu verstehen. Hat dies etwa mit dem Nachlassen der hörfähigkeit bei hohen Frequenzen zu tun?

    Gruß
    Rudi Knoth

    • Hallo Herr Knoth,

      ein Gespräch in einer lauten Umgebung ist ein typisches “Cocktailparty”-Problem, wie es im Artikel beschrieben wird. Die Herausforderung für das Gehirn ist dabei, das Signal des Gegenübers von den restlichen Geräuschquellen zu trennen. Wie Sie korrekt bemerkt haben, ist ein Faktor dafür die spektrale Zusammensetzung der Geräusche – ein Frequenzverlust beim Hören kann also den von Ihnen beschriebenen Effekt haben. Allerdings ist der Cocktailparty-Effekt sehr vielschichtig, wir können auch Geräusche derselben Frequenz (unter anderem durch deren Lokalisation) voneinander trennen. Auch das Gedächtnis spielt eine Rolle: Es fällt uns leichter, jemanden zu verstehen, dessen Stimme wir gut kennen. Um also wirklich zu verstehen, wie und warum es zu den von Ihnen beschriebenen Schwierigkeiten kommt, wären entsprechende Tests durch einen Audiologen nötig.

      Beste Grüße,
      Ole Bialas

  2. elektronische Geräte z.B. der Feuermelder geben einen Warnton von sich, wenn die Batterie schwach wird. Der Warnton ist aber so kurz, dass man die Schallquelle nicht lokalisieren kann, nur wenn man weiß wo der Feuermelder ist.
    Die Ursache hängt vielleicht mit ihrer Anmerkung zusammen “Da Neuronen aber nur etwa tausend Mal in der Sekunde feuern, können sie den Takt von Schallwellen mit einer Frequenz über tausend Hertz nicht halten”
    Man sollte also das Piepsen der Kameras z.B. , die Tonhöhe ist gemeint, tiefer machen.
    Ich habe z.B. einen Key-Finder, den kann man mit einer Melody ,mit bestimmter Tonhöhe finden. Bei mir ist das die amerikanische Nationalhymne. Wenn der Key-Finder aber nur piepst wenn die Batterie leer wird, dann findet man ihn nicht, weil der Piepston zu kurz ist.

    • Genau – wenn ein Ton eine Frequenz größer als 1500 Hertz hat, können wir nur die Lautstärke-, nicht aber die Zeitdifferenz zwischen den Ohren für die Lokalisation nutzen. Außerdem fällt bei einem Reinton, der nur aus einer einzigen Frequenz besteht, der richtungsabhängige Filter der Ohrmuschel weg. Eine Melodie zu benutzen ist eine gute Idee – am besten wäre es, wenn diese dann nicht nur aus Reintönen besteht, sondern ein breites Frequenzspektrum enthält

  3. Warum hat die Evolution das Gehör bei Menschen nicht weiterentwickelt, etwa wie bei den Fledermäusen ? Ein vor einigen zehntausend Jahren an eine Sippe heranpirschender Säbelzahntiger hatte leichtes Spiel weil er vom Homo Sapiens
    nicht “gehört” wurde. Oder wurde er vielleicht doch gehört und unser Gehör sensibilisiert sich nur für bestimmte Reize, also für solche die unser Überleben wichtig sind, was heute entfällt im Falle dieses Tigers ? Da unsere Vorfahren besonders in der Nacht- also in Zeiten wo sie ihren Sehsinn nicht gebrauchen konnten- auf Sinneseindrücke die Gefahren erkennen sollten, ausgerichtet waren, muss der Hörsinn als vielleicht noch wichtiger eingestuft werden, denn in der Dunkelheit muss man Fressfeinde auch per Gehör outen und bestimmen können.

    • Tatsächlich ist unser Gehör sehr sensibel, in vollständiger Stille können wir wortwörtlich eine Stecknadel fallen hören. Die Sensitivität hängt aber nicht nur von der Lautstärke ab. Unser Gehirn baut ständig Erwartungen auf und kontrolliert, ob diese erfüllt werden. Ein unerwartetes Geräusch wie das plötzliche Knacken eines Astes erregt also besonders hohe Aufmerksamkeit. Bei ihrer Frage viel mir eine interessante Studie ein, in der die Teilnehmer Geräusche vorgespielt bekamen, die sich auf sie zu oder von ihnen wegbewegten. Die Teilnehmer mussten einen Knopf drücken, wenn die Geräusche eine bestimmte Distanz von ihnen hatten. Das Ergebnis war, dass sie den Knopf bei herannahenden Geräuschen systematisch zu früh drückten, also überschätzten, wie nah das Geräusch bereits war. Übertragen auf ihre Frage könnte man sagen, dass es evolutionär von Vorteil ist, “zu früh” auf den Säbelzahntiger zu reagieren.

  4. Ihre Kollegin (Frau Prof. K. von Kriegstein, Dresden) hat vor kurzem eine Arbeit veröffentlicht, wo sie zeigt dass wir nicht nur die realen Schallwellen hören – sondern dass ein Teil der Hörerfahrung aus dem Gedächtnis reaktiviert wird

    DOI: 10.7554/eLife.64501 Abstract rules drive adaption in the subcortical sensory pathway

    http://www.sciencedaily.com > 210108120110.htm ´We hear what we expect to hear´

  5. Die Fähigkeit den Schall zu lokalisieren ist wohl jedem bekannt. Eine entscheidende Bedeutung scheint sie im heutigen Leben aber nicht zu spielen, was sich etwa darin zeigt, dass mir keine Standardtests bekannt sind mit denen man diese Fähigkeit beim Einzelnen misst.

    Beim Menschen dominiert der Sehsinn. Auch im modernen Alltag mit all den Bildschirmen und dem was man sieht als wichtigste Quelle des Fahrverhaltens im eigenen Fahrzeug.
    Interessanterweise verfügen alle höheren Säugetiere und Vögel über die gleichen Sinne, aber bei fast allen dominiert ein Sinn und die weiteren sind weniger stark ausgeprägt. Eine Ausnahme machen da vielleicht noch die Katzen, die sowohl sehr gut hören (inklusive Lokalisation) und sehr gut sehen. Allerdings sind Katzen nur gerade gute Nacht- und Bewegungsseher, nicht besonders gute Tagseher. Woran liegt es dass bei fast allen höheren Tieren ein Sinn dominiert? Vielleicht ja daran, dass die Verarbeitung der Sinnesinformation sehr viel „Brainpower“ beanspruchen kann und dann nicht mehr so viel übrig bleibt für die übrigen Sinne?

    • Hallo Herr Holzherr,

      die Schallokalisation spielt für uns heute vor allem eine Rolle als Warnsystem (z.B. beim Überqueren einer Straße) und beim Trennen verschiedener Geräuschquellen, was ich letzten Absatz des Textes beschrieben habe. Die Frage nach dem Vorteil eines dominanten Sinns ist sehr interessant. Zwar ist es nicht so, dass es ein bestimmtes Kontingent an “Brainpower” gibt, dass dann irgendwann aufgebraucht wäre, allerdings Verbrauchen Neuronen viel Energie weshalb das Einsparen von Hirnprozessen evolutionär von Vorteil war. Tatsächlich ist es sehr bemerkenswert warum sich Homo sapiens ein so energieintensives Gehirn “geleistet” hat. Es könnte auch etwas damit zu tun haben, dass eine Hierarchie nützlich ist um bei widersprüchlichen Informationen Entscheidungen treffen zu können. Wir können das in Experimenten beobachten, bei denen Geräusche mit visuellen Reizen verbunden werden – beispielsweise indem man an der Schallquelle eine LED aufleuchten lässt. Befindet sich die LED an einer anderen Position als die Schallquelle, haben wir in der Regel dennoch das Gefühl, das Geräusch käme von der Position der LED. Es ist aber keinesfalls so, dass das Sehen in allen Fällen über das Hören dominiert. Beispielsweise führen unerwartete Geräusche dazu, dass sich unsere Pupillen weiten. Da “befiehlt” also das auditorische dem visuellen System die Aufmerksamkeit zu erhöhen.

      Beste Grüße,
      Ole Bialas

      • @Ole Bialas,
        Besten Dank für die Antwort. Im Beitrag von Ihnen wurde auch darauf hingewiesen, dass heutige Hörgeräte das Trennen verschiedener Schallquellen eher erschweren, weil sie die geometrischen Verhältnisse am Ohr ändern.

        Zukünftige Hörgeräte scheinen dieses Problem mittels der Technik der Strahlformung (beam forming) lösen zu können wobei virtuelle Mikrophone zum Einsatz kommen. Die virtuellen Mikrophonsignale werden aus den Informationen der reellen Mikrophone des Hörgeräts errechnet, so dass das generierte Hörsignal scheinbar aus einem Mikrophone kommt, welches beispielsweise direkt in der Blickrichtung liegt. Damit genügt eine Kopfdrehung um eine Schallquelle (z.B. ein Gespräch) in der Blickrichtung perfekt hervorzuheben und es gegenüber den restlichen Geräuschquellen abzugrenzen.
        Die nötigen Umrechnungen der Audiosignale werden dabei über Deep Learning vorgenommen. In den Schlussfolgerungen des Artikels Speech signal enhancement in cocktail party scenarios by deep learning based virtual sensing of head-mounted microphones liest man dazu (übersetzt von google translate):

        In dieser Arbeit wurden reale und virtuelle Mikrofonsignale als Input für einen MVDR-Beamformer kombiniert, um die Auswirkungen auf die Sprachqualität für Hörgeräte- oder CI-Nutzer in Cocktailparty-Szenarien zu untersuchen. Die Messungen bezüglich Anzahl und räumlicher Anordnung realer Mikrofone ergaben, dass Mikrofone optimalerweise möglichst nah an der Zielquelle platziert werden sollten, monaurale Signale kodieren und durch ihre räumliche Anordnung eine große Distanzstreuung erzeugen. In Wirklichkeit ist es jedoch unbequem, die Mikrofone nach diesen Kriterien zu platzieren. Um dieses Problem zu lösen, wurden virtuelle Mikrofonsignale unter Verwendung eines tiefen neuronalen Netzes ohne explizite Kenntnis der räumlichen Mikrofonanordnung berechnet. Die Ergebnisse von subjektiven Hörtests mit 3 Alternativen Forced Choice und objektiven Sprachqualitätsmetriken deuten darauf hin, dass Hörgeräte- oder CI-Benutzer von virtuell erfassten Mikrofonsignalen profitieren könnten, insbesondere in anspruchsvollen Cocktailparty-Szenarien.

        • Sehr interessant, danke für den Kommentar! Ich würde vermuten, dass das Beamformer Hörgerät dennoch die Schallokalisation vorübergehend beeinträchtigt, da es ja die akustischen Eigenschaften der Ohrmuschel verändert. Stattdessen löst es das Cocktailparty-Problem, indem es Schall aus einer bestimmten Richtung selektiv verstärkt.

  6. DOI: 10.1073/pnas.1717948115
    The eardrums move when the eyes move: A multisensory effect on the mechanics of hearing

    http://www.sciencedaily.com/releases/2018/01/180123171437.htm
    When the eyes move, the eardrums move too

    Versuchsteilnehmer folgten mit den Augen einem bewegten LED-Licht – Sensoren im Gehörgang zeigten, dass sich passend zur Beobachtungsrichtung auch das Trommelfell fokussierte
    D.h. wenn man zu einer Schallquelle direkt hinblickt, erhöht dies die Wahrnehmungsmöglichkeit des akustischen Reizes

    • Unser Gehirn unterdrückt die Sinneswahrnehmung die durch uns selbst verursacht wird, denn diese enthält ja keinerlei neue Information und könnte, wie sie korrekt angemerkt haben, andere Geräusche überschatten. Das gilt übrigens genau so für das Sehen – wenn wir unseren Kopf bewegen ändert sich auch der visuelle Sinneseindruck

  7. Wenn man die Lippen anderer Menschen beim Sprechen beobachtet und gleichzeitig einen anderen Text per Ohrhörer zu hören bekommt – dann ´hört´ man etwas völlig anderes als das was per Ohrhörer zugespielt wurde.
    Dieser Wahrnehmungsfehler ist als McGurk-Effect bekannt – und sagt sehr viel über die Qualität unserer akustischen Wahrnehmung aus: man ´hört´ aus dem Gedächtnis

    DOI: 10.1371/journal.pcbi.1005229
    A causal interference model explains perception of the McGurk effect and other incongruent audiovisual speech

    http://www.sciencedaily.com/releases/2017/02/170216143941.htm
    When your eyes override your ears: new insights into the McGruk Effect: New model shows how the brain combines information from multiple senses

    off topic
    Per Google [Kinseher NDERF denken_nte] finden Sie eine PDF wo erklärt wird, wie DENKEN prinzipiell funktioniert; die Regeln und ein konkretes Beispiel dazu (Seiten 3+4)

      • @ Bialas Literatursammlung

        Hören ist ja auch ein interessantes Thema, denn
        – wir hören reale Geräusche
        – wir ´hören´ aus dem Gedächtnis reaktivierte Geräusche (z.B. McGurk Effekt)
        – wir hören Mischformen (reale+reaktivierte Geräusche z.B. Cocktailparty-Effekt)

        • Genau daran kann man sehr schön erkennen, dass unsere Sinne keine objektiven Messinstrumente sind, sondern unsere Umwelt in einer Art und Weise wahrnehmen, die zwar verzerrt ist, sich aber evolutionär als nützlich erwiesen hat.

  8. Ole Bialas,
    Denken Sie mal an die vielen Musiker, denken Sie mal an einen Klavierstimmer.
    Die haben nichts anderes als ihre Ohren.
    Denken Sie mal an einen Kunstschützen, wenn der nicht objektiv richtig zielt, dann schießt er daneben mit schlimmen Folgen.
    Unsere Sinne sind objektiv, was denn sonst.
    Sie haben wahrscheinlich an unser Wärmeempfinden gedacht. Mit einem Thermometer kann das nicht konkurrieren.
    Oder unser Tastsinn, der merkt wenn eine Ameise über unseren Handrücken läuft. Unser Gesicht bemerkt einen Spinnenfaden.
    Was ist daran nicht objektiv ?
    Oder kennen Sie ein Messinstrument, dass besser funktioniert als unser Geruchssinn ? Wir riechen, wenn etwas faul ist, wir können zwei verschiedene Weine am Geruch erkennen.

    • Ich wollte damit keineswegs die Leistung unserer Sinne kleinreden, sondern zeigen, dass unsere Wahrnehmung der Umwelt keine Messung, sondern eine Interpretation der Umwelt ist und das diese vom Kontext und unseren Erfahrungen abhängt. Man könnte auch sagen, dass unsere Sinne viel besser als einfache Messgeräte sind! Schließlich sind sie in der Lage, Sinnesinformation kontextabhängig nach ihrer Relevanz zu filtern. Bleiben wir bei ihrem Beispiel aus der Musik – ein Dirigent wird bei der Probe einen Musiker, der einen falschen Ton spielt, besonders deutlich Wahrnehmen, da dieser seiner Erwartung widerspricht.

  9. Martin Holzherr,
    für eine Mutter mit 4 Kindern ist der Gehörsinn der wichtigste. Wenn die Mutter am Herd kocht, dann hört sie was ihre Kleinen hinter ihr treiben. Gefährlich wird es , wenn es still wird-

  10. Zu Biales
    “Unser Gehirn unterdrückt die Sinneswahrnehmung….”
    Es wird nichts unterdrückt sondern -nach der Bewertung der Wahrnehmungen- in dem Sinne sortiert, dass eine Habituation erfolgte oder das der Reiz weiterhin gefährlich ist. So wird zum Bsp. die Sinneswahrnehmung bestimmter Politiker/Promis im TV automatisch “unterdrückt” weil man sich an diese Phrasen gewöhnt hat und die Geräusche, sprich Wörter, nicht mehr wahrnimmt, also mental abschaltet. Das Gehirn “arbeitet” trotzdem weiter, die Hörreize werden aber ,nach erfolgter Bewertung, in die Schublade “Kann man vergessen” eingeordnet.

    • Das sind zwei verschiedene Prozesse. In meinem Kommentar ging es um die durch das eigene Handeln verursachte Sinnesinformation – z. B. die Schallwellen, die unsere Ohren erreichen, wenn wir selbst sprechen. Wenn das Gehirn der Kehlkopfmuskulatur das Signal gibt, bestimmte Laute zu erzeugen, erstellt es zeitgleich eine Kopie dieses Signals (sog. Efferenzkopie). Indem diese Kopie mit dem Höreindruck verglichen wird, reagiert unser Hörsystem schwächer auf die durch uns selbst verursachten Anteile. Diese schwächere Reaktion findet bereits auf einer sehr basalen Ebene der Wahrnehmung statt und zeigt sich physisch in ein einer verringerten Feuerrate der Neurone, wofür wir den Begriff der Unterdrückung (suppression) verwenden. Ihr Beispiel ist ein anderes Phänomen, bei dem ja auch höhere kognitive Prozesse involviert sind – ich muss ja zunächst den Inhalt verstehen, um ihn dann bewerten zu können. Dafür ist der Begriff der Unterdrückung sicherlich nicht zutreffend.

  11. Zu Ole Bials
    “Was im Gehirn gibt der Kehlkopfmuskulatur das Signal ? ”
    Bei Tieren würde ich eine Konditionierung sehen. So miaut meine Katze sobald ich morgens erscheine weil sie dieses mit Fütterung in Verbindung bringt. Das Signal, der Reiz, in dem Fall die Konditionierung , löst eine Reaktion aus ( bedingter Reiz)
    was eine Kombination mit einer Lautwiedergabe zur Folge hat: Miauen = Forderung nach Futter. Die Kopie des Signals ist die Konditionierung, mehr nicht.

    • Das motorische Zentrum schickt Signale an die Muskulatur, die diese kontrahieren lassen. Gleichzeitig schickt es eine Kopie dieser Information an das Hör- und andere sensorische Systeme. Die eingehende Sinnesinformation wird dann mit dieser Kopie abgeglichen, wodurch die selbst erzeugten Anteile vom Rest unterschieden werden können. Die Konditionierung ist wieder etwas anderes, da geht es darum, einen bestimmten Reiz (bei Ihrer Katze wären das dann Sie) mit einer bestimmten Handlung (miauen) zu assoziieren).

  12. Ergänzung zum Thema hören und unterdrücken.

    Hören ist eine Wahrnehmung die nicht nur über das Ohr erfolgt. Man hört auch mit dem ganzen Körper. Wer schon einmal unter einer Kirchenorgel gesessen hat, der kann den Schalleindruck nicht unterdrücken. Bei den tiefen Tönen etwa 16 Hz und noch tiefer geht der Ton als Schwingung von den Füßen durch die Beine, durch den ganzen Körper. Der Körper erbebt förmlich bei diesem tiefen Ton. Zuerst ist das unangenehm, man gewöhnt sich daran und dann weiß man erst, was ein tiefer Ton ist. Und das Seltsame, man empfindet das nicht mehr als gehört, eher als gefühlt.
    Ich würde diesen Ton eher als das Brummen wie bei einem Transformator bezeichnen. So ein Ton lässt sich nicht mehr ausblenden.
    Früher gab es auch einmal eine Todesstrafe, wobei der Deliquent sich unter eine Glocke begeben musste.

  13. @hwied
    Die Wahrnehmung von Infraschall um 10-19 Hz ist kein Hörerlebnis!

    Sondern diese Schallwellen wirken sich mechanisch auf unseren Körper aus. Wir fühlen uns dabei berührt – und weil aber niemand sichtbar anwesend ist, werden solche ´Berührungen´ sehr ungewöhnlich erlebt.

    Solche ´Berührungen´ sind z.B. die Grundlage für das Gefühl/Erleben der Anwesenheit von Geistern oder die Empfindung von Spuk. Der Engländer Vic Tandy (siehe bei Wikipedia) hat dazu Messungen durchgeführt.

    Diese mechanische Wirkung von Infraschall wird noch verstärkt, wenn man sich in einer Umgebung mit feuchter kühler Luft befindet – dann fängt man an sich zu Gruseln ( das ´kalte Grauen´ überkommt einen). Dies ist z.B ein konkreter Grund, warum alte Burgen oft mit Spukgeschichten verbunden sind. Durch kalte fensterlose Mauern können sich stehende Wellen von Infraschall aufbauen – so dass man sich an solchen Stellen berührt erlebt; ohne dass ein anderes Wesen anwesend ist .
    Im Ersten Weltkrieg kam es dadurch in den kalten, nassen Schützengraben von Mons sogar zu einer Massenhalluzination – ´Die Engel von Mons´ – wobei Soldaten sogar berichteten, dass sie Bogenschützen-engel gesehen hätten.

  14. KRichard,
    Sehr interessant, wenn also so ein Raum in einer alten Burg etwa 30m lang ist, und es bildet sich eine stehende Welle von 15 Hz aus, dann kommt das Gruseln.
    Deshalb wurden die “alten Rittersleut” nicht nur beneidet.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +