Nachgefragt: Was steht an im Februar?

BLOG: HirnNetze

Hinter den Kulissen eines Forschungsnetzwerks
HirnNetze

1. Ich bin…

Professor an der Universität Tübingen im Fachbereich Physik und im Exzellenzcluster Centrum für Integrative Neurowissenschaft (CIN). Außerdem leite ich das Bernstein Zentrum für Computational Neuroscience in Tübingen. Besonders spannend finde ich es herauszufinden, wie die Informationsverarbeitung im Gehirn funktioniert. Die schwierigsten Berechnungen, die unser Gehirn durchführt, laufen unbewusst ab. Zum Beispiel verarbeitet unser Sehsinn mehrfach pro Sekunde mehrere Millionen Lichtsignale, die von den Fotorezeptoren in unserer Netzhaut aufgenommen werden. Das Erkennen eines Objekts aus diesen Signalen erfordert äußerst komplexe Berechnungen, da sie sich je nach Beleuchtungsbedingungen, Sehwinkel und Umgebung, sehr stark verändern.

2. Ein aktuelles wissenschaftliches Highlight für mich…

ist der vor kurzem erfolgte Durchbruch in der Entwicklung von künstlichen neuronalen Netzen. Wir können heute immer größere Netze erfolgreich trainieren, so dass diese derzeit alle wichtigen Wettbewerbe im Bereich des künstlichen Sehens, der Spracherkennung und anderen Wahrnehmungsaufgaben dominieren und kontinuierlich ihre Leistungsfähigkeit weiter steigern (siehe z.B. ImageNet). Besonders bemerkenswert ist, dass sich die Leistungsfähigkeit dieser Netzwerke nicht nur auf die Aufgabenstellungen beschränkt, für die sie ursprünglich entwickelten wurden, sondern sich auch auf neue Aufgabenstellungen überträgt. Zum Beispiel konnten wir mit Hilfe eines neuronalen Netzes, das für den ImageNet-Wettbewerb optimiert worden war, ein neues „Saliency Map“-Modell entwickeln, welches die Vorhersage der Blickrichtung von Menschen bei der Betrachtung von Bildern um ca. 65% gegenüber dem zuvor besten Modell verbessern konnte.

Mit zunehmender Komplexität der künstlichen Netze stellt sich aber auch – genau wie bei den biologischen neuronalen Netzen – die wichtige Frage, wie man die Informationsverarbeitungsprozesse systematisch erfassen und verstehen kann. Neue Ansätze und Methoden zu entwickeln, um dieses Problem zu lösen, ist ein Kernziel der Computational Neuroscience Forschung und zentraler Forschungsgegenstand meiner Arbeitsgruppe.

3. Diesen Monat möchte ich mich darauf konzentrieren…

einen Forschungsantrag zu schreiben.

4. Ein Event, worauf ich mich in diesem Monat besonders freue

Fertigstellung des Forschungsantrags.

5. Was ich diesen Monat außer der Wissenschaft noch machen will

Schlittschuhlaufen.

Matthias Bethge, Bernstein Zentrum Tübingen
Matthias Bethge, Bernstein Zentrum Tübingen

  • Veröffentlicht in:
Avatar-Foto

Veröffentlicht von

Bernstein Autor – das kann jeder werden, der mit dem Bernstein Netzwerk verbunden ist. Unter diesem Namen bloggen Studenten, Doktoranden, Postdocs, PIs und Projektassistenten. Sprich uns an, wenn auch du über deine Sicht des Bernstein Netzwerks berichten willst!

20 Kommentare

  1. Sehr geehrter Herr Prof. Bethge
    Um Informationsprozesse systematisch erfassen und verstehen zu können, bräuchten Sie zunächst einmal ein theoretisches Konzept über die Ablaufstrukturen des Denkens. Dieses Konzept muss dann mit Versuchsergebnissen und Messwerten abgeglichen werde, um es zu bestätigen oder zu wiederlegen.
    Im Rahmen der sogenannten ´Nahtod-Erfahrung´(NTE) kann man selbst bewusst erleben, wie ein einzelner Reiz systematisch und struktruiert vom Gehirn verarbeitet wird. Die Ablaufstruktur von NTEs ist seit 1975 durch das Buch von Dr. Moody ´Leben nach dem Tod´ bekannt.
    Aber Gehirn-/Gedächtnisforschung bzw. Geisteswissenschaften haben es bis heute versäumt, diese Ablaufstruktur zu analysieren. Weil sich dieses wissenschaftliche Fehlverhalten heuer zum 40. Mal jährt – haben wir ein negatives Jubiläum zu feiern.
    unter http://www.gehirn.info/entdecken/neurokritik/wann-koennen-wir-die-neuro-wissenschaft-wieder-beim-wort-nehmen-7774 finden Sie in meinen Kommentaren zusätzliche Infos zu diesem Vorwurf.

    Bei NTEs kann man z.B. erkennen, dass unser Gehirn ganz simpel per Mustervergleich arbeitet: ein aktueller Reiz wird mit im Gedächtnis vorhandenem Wissen verglichen, wobei diese Erfahrungen re-aktiviert werden. Beim RE-AKTIVIEREN vorhandenen Wissens werden auch die zugehörigen Körperreaktionen re-aktiviert; damit kann man sofort und schnell auf ein aktuelles Ereignis reagieren.
    Für die Neurowissenschaft von besonderem Interesse dürfte dabei z.B. sein – wie ´altes´ Wissen in ´neue´ Erkenntnisse umgewandelt wird. Denn damit kann man verstehen, wieso wir Menschen uns über die Lebenszeit als identische Person erleben, obwohl wir uns doch dauernd ändern. Und gerade dies ist ein großes Thema für die Informatik/Computer-steuerung: wie kann man vorhandenes Wissen an neue Realitäten anpassen.
    Ich hoffe, meine Hinweise sind nützlich für Ihre Arbeit.

  2. Ja, das sind spannende Fragen, besonders natürlich für Informatiker wie mich, der sich als Amateur für Kognitionsforschung interessiert. Im Gegensatz zu KRichard kann ich aber noch keine Lösung vorweisen. Ich sehe einen “kybernetischen Naturalismus” bzw. die “Kognitive Kybernetik” hier im Vordergrund. Die große Frage ist selbstverständlich, wie Information im Nervensystem realisiert wird, d.h. wie und wo genau die Nervensignale als Materialisierungen der Sinnesreize verknüpft und gespeichert werden. Ich darf dazu an das standardisierte Schichtenmodell der Informatik erinnern. Schließlich werd im Gehirn nicht Informationen verarbeitet, sondern zigmillionen elektrische und chemische Signale, die synchron wirksam sein müssen, um daraus kontinuierlich kohärente und bewusste Information entstehen zu lassen, das berühmte Bindungsproblem. Die Information ist nur die reflexive Deutung des Geschehens im Gehirn – ein faszinierendes Thema, viel Erfolg!

    • @ Herr Reutlinger :

      Die große Frage ist selbstverständlich, wie Information im Nervensystem realisiert wird, d.h. wie und wo genau die Nervensignale als Materialisierungen der Sinnesreize verknüpft und gespeichert werden. Ich darf dazu an das standardisierte Schichtenmodell der Informatik erinnern.

      Dito oder ganz bei Ihnen.

      Die hauptsächliche Herausforderung müsste darin bestehen der Zentraleinheit oder CPU „Gehirn“ oder „Mensch“ (inwieweit die Körperlichkeit hier mitspielt, ist auch nicht ganz klar), Data und Information zuzuführen.

      MFG
      Dr. W

  3. Für einen Wissenschafter/Ingenieur ist “wie man die Informationsverarbeitungsprozesse systematisch erfassen und verstehen kann” eine wichtige Frage und es ist im Zusammenhang mit neuronalen Netzen, besonders mit hierarchischen neuronalen Netzen wie sie beim Deep Learning verwendet werden, eine besonders wichtige Frage, denn hier staunen ja sogar diejenigen, die diese Netzeeinsetzen über den Erfolg dieser Technik, einer Technik, die nur mit Training an grossen Datensammlungen zu erstaunlichen, fast unerklärlichen Ergebnissen kommt.
    Es funktioniert, aber niemand weiss genau, warum eigentlich. Ein Pragmatiker würde nun sagen: Shut up and train your net . Dem klassischen Wissenschaflter befriedigt diese Situation aber ganz und gar nicht.
    Und auch für die Leistungen des Hirns gilt natürlich, dass es nicht befriedigend ist, nur zu wissen was für Hirnzentren beteiligt sind und welche Signale ausgetauscht werden. Der Ingenieur will eigentlich so viel verstehen, dass er ein eigenes Hirn schaffen könnte das genau die Leistungen vollbringt, die er eingeplant hat. Oder wie Feynman das gesagt hat: “What I cannot create, I do not understand”

    • Für Informatik/Robotertechnik ist z.B. von Interesse, wie ein Reiz verarbeitet wird. Es ist ein deutlicher Unterschied, ob ein Reiz a) sofort vergleichbares Wissen und zugehörige Reaktion re-aktiviert oder ob die Informationsverarbeitung b) per up-/download funktioniert.
      Variante a) ist wesentlich schneller; weil eine sofortige Reaktion möglich ist – auch wenn diese Reaktion eventuell fehlerhaft ist. Schnelligkeit geht vor Genauigkeit!

      Bei der sogenannten ´Nahtod-Erfahrung´ ist eindeutig erkennbar, dass unser Gehirn einen Reiz systematisch mit Gedächtnisinhalten vergleicht, die dabei jeweils re-aktiviert werden.

      Leztes Jahr wurde eine Arbeit veröffentlicht, welche diese Sichtweise bestätigt: DOI: 10.1037/a0036781 ´predicting object features across saccades: evidence from object recognition and visual search´. bzw. ´Gehirn gaukelt scharfes Sehen vor´ http://www.scinexx.de/wissen-aktuell-18110-2014-10-13.html
      Diese Arbeit zeigt, dass unser Seheindruck wesentlich von dem in unserem Gedächtnis gespeicherten Wissen abhängt. Wir sehen nicht die Realität, sondern nur diejenige Vorhersage, welche als Reaktion auf einen aktuellen Reiz re-aktiviert wird.

    • Der Ausspruch von Feynmann geht auf Giambattista Vico (1668-1744) zurück: man kann nur als wahr erkennen, was man selber geschaffen hat. Inwieweit das mit dem Verstehen bei Feynman übereinstimmt, das sei dahingestellt.

      Interessant ist auch, dass die künstlichen neuronalen Netze schon 1943 von McCullock&Pitts erfunden wurden. Man braucht keinen zweckmäßig konstruierten Computer, um Informationen zu verarbeiten, sondern es genügt eine variierbare Struktur, denn Information selber ist nichts anderes als Struktur. Allerdings ist die Zuverlässigkeit nicht zu vergleichen mit der Zuverlässigkeit des digitalen Computers. Aber bekanntlich arbeitet auch unser Hirn nicht fehlerfrei.

      • @ Herr Reutlinger :

        (…) man kann nur als wahr erkennen, was man selber geschaffen hat (….)

        Interessanter Punkt, Ihr Kommentatorenfreund würde hier wie folgt ergänzen wollen:

        Wenn bekannte Regel- auf bekannte Zustandsmengen angewendet werden und wenn diese Anwendung ebenfalls umfänglich bekannt ist, können Resultate vorhergesagt werden und zwar als ‘wahr’ (sofern diese Adjektivierung so im System vorgesehen ist).

        Der Rest bliebe dann dem Erkennen vorbehalten, geeignete Subjekte, die also erkennen können, vorausgesetzt.

        Es würde dann eine Welt betrieben werden. [1]

        Aus Sicht der Nicht-Welt-Betreiber gilt dieser Satz:

        ‘Eine Aussage zu einer Sache oder einem diesbezüglichen Verhalt ist für den Systematiker immer zuerst eine Aussage einer Person(enmenge) über eine Sache oder einen diesbezüglichen Verhalt.’ (Quelle: unbekannt)

        Andererseits existiert in der Logik oder Sprachlichkeit der sozusagen betriebenen Erkenntnissubjekte, siehe oben, genau dann Wahrheit, wenn im Rahmen dieser Logik die Eigenschaft ‘wahr’ vorgesehen ist und zugewiesen werden kann.

        Diese ist nicht mit der (umgebenden) Natur zu verwechseln.

        HTH
        Dr. W

          • Streng genommen ischt oder war es der Webbaer.

            MFG + Ihnen alles Gute,
            Dr. W

          • “Wenn bekannte Regel- auf bekannte Zustandsmengen angewendet werden und wenn diese Anwendung ebenfalls umfänglich bekannt ist, können Resultate vorhergesagt werden”

            Sollte man zur Vorhersage einen sequentiell arbeitenden Rechner verwenden, oder einfach das künstliche neuronale Netz auf schnellerer Hardware implementieren?

            Könnte man die derart gewonnene Vorhersage auch schon vorhersagen?

            “Das Erkennen eines Objekts aus diesen Signalen erfordert äußerst komplexe Berechnungen, da sie sich je nach Beleuchtungsbedingungen, Sehwinkel und Umgebung, sehr stark verändern.”

            So wäre es z.B. bei selbstfahrenden Automobilen schön, wenn man vorhersagen könnte, ob spielende Kinder, die vor das Auto laufen, zuverlässig vom künstlichen neuronalen Netz erkannt werden.

          • @Joker, Kinder sicher erkennen trotz fuzzy-Algorithmus: Letztverantwortlich ist der (menschliche) Ingenieur. Er könnte folgende Heuristiken anwenden:
            1) Falls das Objekt auf der Strasse ein Kind sein könnte, dann wie ein Kind darauf reagieren, auch wenn die Wahrscheinlichkeit unter 50% liegt.
            2) Mehrere Sensoren nutzen (z.B: Lidar+Kamera) und mehrere parallel arbeitenden Algorithmen nutzen und am Schluss einen Schiedsrichter entscheiden lassen.

            2) wird von Flugcomputern bereits angewendet.

          • @ Martin Holzherr

            “Letztverantwortlich ist der (menschliche) Ingenieur.”

            Das glauben sie doch wohl selbst nicht. Abgesehen davon, dass es so etwas wie “Letztverantwortlichkeit” kaum gibt, gibt es da noch den Hersteller, den Vertreiber, den Zulasser, den Kontrolleur, den Besitzer, den Betreiber sowie natürlich den unvorhersehbaren Zufall.

            “wenn die Wahrscheinlichkeit unter 50% liegt”

            Wie wollen Sie denn diese Wahrscheinlichkeit berechnen?

            “2) wird von Flugcomputern bereits angewendet.”

            Das scheint ja auch gut zu funktionieren, Flugzeuge haben wohl bisher immer rechtzeitig bremsen können. Hab zumindest noch nie gehört, dass ein Kind von einem Flugzeug erfasst wurde.

          • @Joker: Wenn das Fahrzeug selbst lenkt ist die Herstellerfirma der verantwortliche “Pilot”. Der Ingenieur übernimmt mit der Implementation diese Verantwortung teilweise.
            Wahrscheinlichkeitsabschätzungen sind beim Google-Auto die Regel, denn es arbeitet mit probabilistic reasoning, was Schmidhuber auf seiner Automatic-Car-History-Seite auch vermerkt.

            Flugcomputer verwenden häufig unabhängig voneinander arbeitende Algorithmen für den gleichen Zielwert und verwenden dann einen Schiedsrichter (wieder ein Algorithmus) um die Letztentscheidung zu treffen. Dabei geht es aber um Flug- und Landemanöver, kaum um Objekte im Flugweg.

        • Egal wie die Welt beschaffen ist und wie sie aussieht, alles Erkennen, Verstehen, Für-wahr-halten spielt sich allein in unserem Kopf ab. Was wir für wahr halten, hängt von unserem Verständnis, von der Deutung der Begriffe und der Sätze ab. Man kann sich nicht darauf verlassen, dass Andere die Begriffe genauso verstehen. Das ist eine alltägliche Erfahrung und Anlass vieler Missverständnisse, insbesondere bei abstrakten Begriffen, die nicht auf ein konkret und eindeutig bestimmbares Objekt referenzieren. In der heutigen Medienwelt bekommt der Ausspruch von Vico eine noch viel höhere Bedeutung als damals, wenn man an Nachrichten und Bilder denkt.

          • Ich würde von operationalisierbaren Begriffen sprechen, wenn es darum geht mithilfe dieser Begriffe etwas materielles schaffen zu können. Operationalisierbarkeit heisst Messbarkeit, Validierbarkeit und Objektivität (intersubjektive Nachvollziehbarkeit.
            Die Wikipedia sieht diesen Begriff vor allem im Zusammenhang mit Quantifizierbarkeit ausser in der Pädagogik, wo er das Erreichen eines abstrakten Lernziels bei Beachtung konkreter Verhaltensweisen beschreibt. Deren Beherrschung soll in einem Lernprozess erreicht werden.
            Diese Auffassung könnte auch beim maschinellen Lernen eine Rolle spielen. Eine Maschine müsste ebenfalls ein abstraktes Lernziel erreichen können nur indem sie etwas konkretes lernt und das dann generalisiert.

        • @ Joker :
          Das geht jetzt vielleicht doch “ein wenig” vom Thema weg, der Schreiber dieser Zeilen dankt den Verantwortlichen für ihre Geduld, darum nur ganz kurz:
          1.) ‘Laplacescher Dämon’ – dieser ist als idealer Mathematiker und Physiker gedankenexperimentell theoretisiert.
          2.) Es ging weiter oben weder um die Kunst des Lernens (“Mathematik”), noch um die naturwissenschaftliche Lehre, sondern um einfache logische Feststellung.
          3.) Sind alle Systembedingungen bekannt und können gleiche Systeme mehrfach aufgesetzt werden, so kann ein “Lauf” des Systems A den noch nicht stattgefundenen “Lauf” des gleichen Systems B bestimmen oder vorhersagen.

          Die Praxisrelevanz auf diese Welt bezogen ist gleich Null, derartige Überlegung spielt aber in der SciFi seit mindestens 50 Jahren eine besondere Rolle.

          MFG
          Dr. W

    • Martin Holzherr schrieb (3. Februar 2015 12:19):
      > […] wie Feynman […] gesagt hat:

      “What I cannot create, I do not understand”

      Es ist keineswegs gesichert, dass Feynman diesen einprägsamen Aphorismus zu irgendwem gesagt hätte (einschl. sich selbst).

      Stattdessen ist die Quelle des Zitats offenbar die Kreidetafel in Feynmans Caltech-Büro, so wie
      sie nach Feynmans Ableben vorgefunden wurde; http://caltech.discoverygarden.ca/islandora/object/ct1%3A483

      Es ist demnach auch keineswegs gesichert, dass Feynman den Aphorismus zu Lebzeiten an diese Tafel geschrieben hätte.

      (So viel Einsicht traut man jemandem kaum zu, der sich zu Lebzeiten z.B. gar nicht darum
      kümmerte, wie denn Versuch für Versuch überhaupt festgestellt werden könnte, ob und wie viele “Schlitze”, “Spalte”, “Löcher” oder weitere Fehlstellen “in” einer gegebenen “Blende” gewesen wären …)

      • Zitat: “..keineswegs gesichert, dass Feynman den Aphorismus zu Lebzeiten an diese Tafel geschrieben hätte.” Zu Todeszeiten hat er ihn wohl kaum geschrieben. Ich würde also formulieren, “keineswegs gesichert, dass Feynman selbst den Aphorismus an diese Tafel geschrieben hät.”

  4. Das Hirn scheint bei Tauben und Menschen in vielerlei Hinsicht ähnlich zu funtionieren, was für mich bedeutet, dass es gute Chancen gibt grundlegende Denkprozesse zu verstehen, denn das Taubenhirn ist nicht grösser als ein Zeigefinger.
    Der Artikel Study suggests similarity between how pigeons learn the equivalent of words and the way children do zeigt, dass Tauben Gegenstände in Kategorien einteilen können und in der Lage sind neue Gegenstände einer der gelernten Kategorien zuzuteilen.

    hree pigeons were shown 128 black-and-white photos of objects from 16 basic categories: baby, bottle, cake, car, cracker, dog, duck, fish, flower, hat, key, pen, phone, plan, shoe, tree. They then had to peck on one of two different symbols: the correct one for that photo and an incorrect one that was randomly chosen from one of the remaining 15 categories. The pigeons not only succeeded in learning the task, but they reliably transferred the learning to four new photos from each of the 16 categories.

    Wenn mich etwas wundert, dann nicht das Resultat dieses Taubentests, sondern die Tatsache, dass es so lange gedauert hat bis ein solches Experimente durchgeführt werden konnte. Der Fortschritt in den Wissenschaften ist allgemein langsamer als in der Öffentlichkeit oft wahrgenommen. Mir scheint ein Grund dafür ist einfach der, dass Forscher oft nicht die richtigen Fragen stellen. Oder mit anderen Worten: Sie gehen zuwenig intelligent vor und erkennen darum oft nur das, was andere schon erkannt haben.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +