Nachgefragt: Was steht an im Februar?
BLOG: HirnNetze

1. Ich bin…
Professor an der Universität Tübingen im Fachbereich Physik und im Exzellenzcluster Centrum für Integrative Neurowissenschaft (CIN). Außerdem leite ich das Bernstein Zentrum für Computational Neuroscience in Tübingen. Besonders spannend finde ich es herauszufinden, wie die Informationsverarbeitung im Gehirn funktioniert. Die schwierigsten Berechnungen, die unser Gehirn durchführt, laufen unbewusst ab. Zum Beispiel verarbeitet unser Sehsinn mehrfach pro Sekunde mehrere Millionen Lichtsignale, die von den Fotorezeptoren in unserer Netzhaut aufgenommen werden. Das Erkennen eines Objekts aus diesen Signalen erfordert äußerst komplexe Berechnungen, da sie sich je nach Beleuchtungsbedingungen, Sehwinkel und Umgebung, sehr stark verändern.
2. Ein aktuelles wissenschaftliches Highlight für mich…
ist der vor kurzem erfolgte Durchbruch in der Entwicklung von künstlichen neuronalen Netzen. Wir können heute immer größere Netze erfolgreich trainieren, so dass diese derzeit alle wichtigen Wettbewerbe im Bereich des künstlichen Sehens, der Spracherkennung und anderen Wahrnehmungsaufgaben dominieren und kontinuierlich ihre Leistungsfähigkeit weiter steigern (siehe z.B. ImageNet). Besonders bemerkenswert ist, dass sich die Leistungsfähigkeit dieser Netzwerke nicht nur auf die Aufgabenstellungen beschränkt, für die sie ursprünglich entwickelten wurden, sondern sich auch auf neue Aufgabenstellungen überträgt. Zum Beispiel konnten wir mit Hilfe eines neuronalen Netzes, das für den ImageNet-Wettbewerb optimiert worden war, ein neues „Saliency Map“-Modell entwickeln, welches die Vorhersage der Blickrichtung von Menschen bei der Betrachtung von Bildern um ca. 65% gegenüber dem zuvor besten Modell verbessern konnte.
Mit zunehmender Komplexität der künstlichen Netze stellt sich aber auch – genau wie bei den biologischen neuronalen Netzen – die wichtige Frage, wie man die Informationsverarbeitungsprozesse systematisch erfassen und verstehen kann. Neue Ansätze und Methoden zu entwickeln, um dieses Problem zu lösen, ist ein Kernziel der Computational Neuroscience Forschung und zentraler Forschungsgegenstand meiner Arbeitsgruppe.
3. Diesen Monat möchte ich mich darauf konzentrieren…
einen Forschungsantrag zu schreiben.
4. Ein Event, worauf ich mich in diesem Monat besonders freue
Fertigstellung des Forschungsantrags.
5. Was ich diesen Monat außer der Wissenschaft noch machen will
Schlittschuhlaufen.

Sehr geehrter Herr Prof. Bethge
Um Informationsprozesse systematisch erfassen und verstehen zu können, bräuchten Sie zunächst einmal ein theoretisches Konzept über die Ablaufstrukturen des Denkens. Dieses Konzept muss dann mit Versuchsergebnissen und Messwerten abgeglichen werde, um es zu bestätigen oder zu wiederlegen.
Im Rahmen der sogenannten ´Nahtod-Erfahrung´(NTE) kann man selbst bewusst erleben, wie ein einzelner Reiz systematisch und struktruiert vom Gehirn verarbeitet wird. Die Ablaufstruktur von NTEs ist seit 1975 durch das Buch von Dr. Moody ´Leben nach dem Tod´ bekannt.
Aber Gehirn-/Gedächtnisforschung bzw. Geisteswissenschaften haben es bis heute versäumt, diese Ablaufstruktur zu analysieren. Weil sich dieses wissenschaftliche Fehlverhalten heuer zum 40. Mal jährt – haben wir ein negatives Jubiläum zu feiern.
unter http://www.gehirn.info/entdecken/neurokritik/wann-koennen-wir-die-neuro-wissenschaft-wieder-beim-wort-nehmen-7774 finden Sie in meinen Kommentaren zusätzliche Infos zu diesem Vorwurf.
Bei NTEs kann man z.B. erkennen, dass unser Gehirn ganz simpel per Mustervergleich arbeitet: ein aktueller Reiz wird mit im Gedächtnis vorhandenem Wissen verglichen, wobei diese Erfahrungen re-aktiviert werden. Beim RE-AKTIVIEREN vorhandenen Wissens werden auch die zugehörigen Körperreaktionen re-aktiviert; damit kann man sofort und schnell auf ein aktuelles Ereignis reagieren.
Für die Neurowissenschaft von besonderem Interesse dürfte dabei z.B. sein – wie ´altes´ Wissen in ´neue´ Erkenntnisse umgewandelt wird. Denn damit kann man verstehen, wieso wir Menschen uns über die Lebenszeit als identische Person erleben, obwohl wir uns doch dauernd ändern. Und gerade dies ist ein großes Thema für die Informatik/Computer-steuerung: wie kann man vorhandenes Wissen an neue Realitäten anpassen.
Ich hoffe, meine Hinweise sind nützlich für Ihre Arbeit.
Sorry, ein Tippfehler, die korrekte Adresse beim Link ist
http://www.dasGehirn.info > Entdecken > Neurokritik > Wann können wir die Neuro-Wissenschaft wieder beim Wort nehmen
Ja, das sind spannende Fragen, besonders natürlich für Informatiker wie mich, der sich als Amateur für Kognitionsforschung interessiert. Im Gegensatz zu KRichard kann ich aber noch keine Lösung vorweisen. Ich sehe einen “kybernetischen Naturalismus” bzw. die “Kognitive Kybernetik” hier im Vordergrund. Die große Frage ist selbstverständlich, wie Information im Nervensystem realisiert wird, d.h. wie und wo genau die Nervensignale als Materialisierungen der Sinnesreize verknüpft und gespeichert werden. Ich darf dazu an das standardisierte Schichtenmodell der Informatik erinnern. Schließlich werd im Gehirn nicht Informationen verarbeitet, sondern zigmillionen elektrische und chemische Signale, die synchron wirksam sein müssen, um daraus kontinuierlich kohärente und bewusste Information entstehen zu lassen, das berühmte Bindungsproblem. Die Information ist nur die reflexive Deutung des Geschehens im Gehirn – ein faszinierendes Thema, viel Erfolg!
@ Herr Reutlinger :
Dito oder ganz bei Ihnen.
Die hauptsächliche Herausforderung müsste darin bestehen der Zentraleinheit oder CPU „Gehirn“ oder „Mensch“ (inwieweit die Körperlichkeit hier mitspielt, ist auch nicht ganz klar), Data und Information zuzuführen.
MFG
Dr. W
Für einen Wissenschafter/Ingenieur ist “wie man die Informationsverarbeitungsprozesse systematisch erfassen und verstehen kann” eine wichtige Frage und es ist im Zusammenhang mit neuronalen Netzen, besonders mit hierarchischen neuronalen Netzen wie sie beim Deep Learning verwendet werden, eine besonders wichtige Frage, denn hier staunen ja sogar diejenigen, die diese Netzeeinsetzen über den Erfolg dieser Technik, einer Technik, die nur mit Training an grossen Datensammlungen zu erstaunlichen, fast unerklärlichen Ergebnissen kommt.
Es funktioniert, aber niemand weiss genau, warum eigentlich. Ein Pragmatiker würde nun sagen: Shut up and train your net . Dem klassischen Wissenschaflter befriedigt diese Situation aber ganz und gar nicht.
Und auch für die Leistungen des Hirns gilt natürlich, dass es nicht befriedigend ist, nur zu wissen was für Hirnzentren beteiligt sind und welche Signale ausgetauscht werden. Der Ingenieur will eigentlich so viel verstehen, dass er ein eigenes Hirn schaffen könnte das genau die Leistungen vollbringt, die er eingeplant hat. Oder wie Feynman das gesagt hat: “What I cannot create, I do not understand”
Für Informatik/Robotertechnik ist z.B. von Interesse, wie ein Reiz verarbeitet wird. Es ist ein deutlicher Unterschied, ob ein Reiz a) sofort vergleichbares Wissen und zugehörige Reaktion re-aktiviert oder ob die Informationsverarbeitung b) per up-/download funktioniert.
Variante a) ist wesentlich schneller; weil eine sofortige Reaktion möglich ist – auch wenn diese Reaktion eventuell fehlerhaft ist. Schnelligkeit geht vor Genauigkeit!
Bei der sogenannten ´Nahtod-Erfahrung´ ist eindeutig erkennbar, dass unser Gehirn einen Reiz systematisch mit Gedächtnisinhalten vergleicht, die dabei jeweils re-aktiviert werden.
Leztes Jahr wurde eine Arbeit veröffentlicht, welche diese Sichtweise bestätigt: DOI: 10.1037/a0036781 ´predicting object features across saccades: evidence from object recognition and visual search´. bzw. ´Gehirn gaukelt scharfes Sehen vor´ http://www.scinexx.de/wissen-aktuell-18110-2014-10-13.html
Diese Arbeit zeigt, dass unser Seheindruck wesentlich von dem in unserem Gedächtnis gespeicherten Wissen abhängt. Wir sehen nicht die Realität, sondern nur diejenige Vorhersage, welche als Reaktion auf einen aktuellen Reiz re-aktiviert wird.
Der Ausspruch von Feynmann geht auf Giambattista Vico (1668-1744) zurück: man kann nur als wahr erkennen, was man selber geschaffen hat. Inwieweit das mit dem Verstehen bei Feynman übereinstimmt, das sei dahingestellt.
Interessant ist auch, dass die künstlichen neuronalen Netze schon 1943 von McCullock&Pitts erfunden wurden. Man braucht keinen zweckmäßig konstruierten Computer, um Informationen zu verarbeiten, sondern es genügt eine variierbare Struktur, denn Information selber ist nichts anderes als Struktur. Allerdings ist die Zuverlässigkeit nicht zu vergleichen mit der Zuverlässigkeit des digitalen Computers. Aber bekanntlich arbeitet auch unser Hirn nicht fehlerfrei.
@ Herr Reutlinger :
Interessanter Punkt, Ihr Kommentatorenfreund würde hier wie folgt ergänzen wollen:
Aus Sicht der Nicht-Welt-Betreiber gilt dieser Satz:
Andererseits existiert in der Logik oder Sprachlichkeit der sozusagen betriebenen Erkenntnissubjekte, siehe oben, genau dann Wahrheit, wenn im Rahmen dieser Logik die Eigenschaft ‘wahr’ vorgesehen ist und zugewiesen werden kann.
Diese ist nicht mit der (umgebenden) Natur zu verwechseln.
HTH
Dr. W
Nachgefragt:
Quelle [1] ist der Laplacesche Dämon?
Streng genommen ischt oder war es der Webbaer.
MFG + Ihnen alles Gute,
Dr. W
“Wenn bekannte Regel- auf bekannte Zustandsmengen angewendet werden und wenn diese Anwendung ebenfalls umfänglich bekannt ist, können Resultate vorhergesagt werden”
Sollte man zur Vorhersage einen sequentiell arbeitenden Rechner verwenden, oder einfach das künstliche neuronale Netz auf schnellerer Hardware implementieren?
Könnte man die derart gewonnene Vorhersage auch schon vorhersagen?
“Das Erkennen eines Objekts aus diesen Signalen erfordert äußerst komplexe Berechnungen, da sie sich je nach Beleuchtungsbedingungen, Sehwinkel und Umgebung, sehr stark verändern.”
So wäre es z.B. bei selbstfahrenden Automobilen schön, wenn man vorhersagen könnte, ob spielende Kinder, die vor das Auto laufen, zuverlässig vom künstlichen neuronalen Netz erkannt werden.
@Joker, Kinder sicher erkennen trotz fuzzy-Algorithmus: Letztverantwortlich ist der (menschliche) Ingenieur. Er könnte folgende Heuristiken anwenden:
1) Falls das Objekt auf der Strasse ein Kind sein könnte, dann wie ein Kind darauf reagieren, auch wenn die Wahrscheinlichkeit unter 50% liegt.
2) Mehrere Sensoren nutzen (z.B: Lidar+Kamera) und mehrere parallel arbeitenden Algorithmen nutzen und am Schluss einen Schiedsrichter entscheiden lassen.
2) wird von Flugcomputern bereits angewendet.
@ Martin Holzherr
“Letztverantwortlich ist der (menschliche) Ingenieur.”
Das glauben sie doch wohl selbst nicht. Abgesehen davon, dass es so etwas wie “Letztverantwortlichkeit” kaum gibt, gibt es da noch den Hersteller, den Vertreiber, den Zulasser, den Kontrolleur, den Besitzer, den Betreiber sowie natürlich den unvorhersehbaren Zufall.
“wenn die Wahrscheinlichkeit unter 50% liegt”
Wie wollen Sie denn diese Wahrscheinlichkeit berechnen?
“2) wird von Flugcomputern bereits angewendet.”
Das scheint ja auch gut zu funktionieren, Flugzeuge haben wohl bisher immer rechtzeitig bremsen können. Hab zumindest noch nie gehört, dass ein Kind von einem Flugzeug erfasst wurde.
@Joker: Wenn das Fahrzeug selbst lenkt ist die Herstellerfirma der verantwortliche “Pilot”. Der Ingenieur übernimmt mit der Implementation diese Verantwortung teilweise.
Wahrscheinlichkeitsabschätzungen sind beim Google-Auto die Regel, denn es arbeitet mit probabilistic reasoning, was Schmidhuber auf seiner Automatic-Car-History-Seite auch vermerkt.
Flugcomputer verwenden häufig unabhängig voneinander arbeitende Algorithmen für den gleichen Zielwert und verwenden dann einen Schiedsrichter (wieder ein Algorithmus) um die Letztentscheidung zu treffen. Dabei geht es aber um Flug- und Landemanöver, kaum um Objekte im Flugweg.
Egal wie die Welt beschaffen ist und wie sie aussieht, alles Erkennen, Verstehen, Für-wahr-halten spielt sich allein in unserem Kopf ab. Was wir für wahr halten, hängt von unserem Verständnis, von der Deutung der Begriffe und der Sätze ab. Man kann sich nicht darauf verlassen, dass Andere die Begriffe genauso verstehen. Das ist eine alltägliche Erfahrung und Anlass vieler Missverständnisse, insbesondere bei abstrakten Begriffen, die nicht auf ein konkret und eindeutig bestimmbares Objekt referenzieren. In der heutigen Medienwelt bekommt der Ausspruch von Vico eine noch viel höhere Bedeutung als damals, wenn man an Nachrichten und Bilder denkt.
Ich würde von operationalisierbaren Begriffen sprechen, wenn es darum geht mithilfe dieser Begriffe etwas materielles schaffen zu können. Operationalisierbarkeit heisst Messbarkeit, Validierbarkeit und Objektivität (intersubjektive Nachvollziehbarkeit.
Die Wikipedia sieht diesen Begriff vor allem im Zusammenhang mit Quantifizierbarkeit ausser in der Pädagogik, wo er das Erreichen eines abstrakten Lernziels bei Beachtung konkreter Verhaltensweisen beschreibt. Deren Beherrschung soll in einem Lernprozess erreicht werden.
Diese Auffassung könnte auch beim maschinellen Lernen eine Rolle spielen. Eine Maschine müsste ebenfalls ein abstraktes Lernziel erreichen können nur indem sie etwas konkretes lernt und das dann generalisiert.
@ Joker :
Das geht jetzt vielleicht doch “ein wenig” vom Thema weg, der Schreiber dieser Zeilen dankt den Verantwortlichen für ihre Geduld, darum nur ganz kurz:
1.) ‘Laplacescher Dämon’ – dieser ist als idealer Mathematiker und Physiker gedankenexperimentell theoretisiert.
2.) Es ging weiter oben weder um die Kunst des Lernens (“Mathematik”), noch um die naturwissenschaftliche Lehre, sondern um einfache logische Feststellung.
3.) Sind alle Systembedingungen bekannt und können gleiche Systeme mehrfach aufgesetzt werden, so kann ein “Lauf” des Systems A den noch nicht stattgefundenen “Lauf” des gleichen Systems B bestimmen oder vorhersagen.
Die Praxisrelevanz auf diese Welt bezogen ist gleich Null, derartige Überlegung spielt aber in der SciFi seit mindestens 50 Jahren eine besondere Rolle.
MFG
Dr. W
Martin Holzherr schrieb (3. Februar 2015 12:19):
> […] wie Feynman […] gesagt hat:
Es ist keineswegs gesichert, dass Feynman diesen einprägsamen Aphorismus zu irgendwem gesagt hätte (einschl. sich selbst).
Stattdessen ist die Quelle des Zitats offenbar die Kreidetafel in Feynmans Caltech-Büro, so wie
sie nach Feynmans Ableben vorgefunden wurde; http://caltech.discoverygarden.ca/islandora/object/ct1%3A483
Es ist demnach auch keineswegs gesichert, dass Feynman den Aphorismus zu Lebzeiten an diese Tafel geschrieben hätte.
(So viel Einsicht traut man jemandem kaum zu, der sich zu Lebzeiten z.B. gar nicht darum
kümmerte, wie denn Versuch für Versuch überhaupt festgestellt werden könnte, ob und wie viele “Schlitze”, “Spalte”, “Löcher” oder weitere Fehlstellen “in” einer gegebenen “Blende” gewesen wären …)
Zitat: “..keineswegs gesichert, dass Feynman den Aphorismus zu Lebzeiten an diese Tafel geschrieben hätte.” Zu Todeszeiten hat er ihn wohl kaum geschrieben. Ich würde also formulieren, “keineswegs gesichert, dass Feynman selbst den Aphorismus an diese Tafel geschrieben hät.”
Das Hirn scheint bei Tauben und Menschen in vielerlei Hinsicht ähnlich zu funtionieren, was für mich bedeutet, dass es gute Chancen gibt grundlegende Denkprozesse zu verstehen, denn das Taubenhirn ist nicht grösser als ein Zeigefinger.
Der Artikel Study suggests similarity between how pigeons learn the equivalent of words and the way children do zeigt, dass Tauben Gegenstände in Kategorien einteilen können und in der Lage sind neue Gegenstände einer der gelernten Kategorien zuzuteilen.
Wenn mich etwas wundert, dann nicht das Resultat dieses Taubentests, sondern die Tatsache, dass es so lange gedauert hat bis ein solches Experimente durchgeführt werden konnte. Der Fortschritt in den Wissenschaften ist allgemein langsamer als in der Öffentlichkeit oft wahrgenommen. Mir scheint ein Grund dafür ist einfach der, dass Forscher oft nicht die richtigen Fragen stellen. Oder mit anderen Worten: Sie gehen zuwenig intelligent vor und erkennen darum oft nur das, was andere schon erkannt haben.