Human Brain Project – erstes Jahr, erster Streit

BLOG: Gedankenwerkstatt

die Psychologie irrationalen Denkens
Gedankenwerkstatt

Kann man ein menschliches Gehirn in einem Computer simulieren? Das Human Brain Project (HBP) möchte genau das herausfinden. Sein Initiator Henry Markram verspricht, dass er mit einer gemeinsamen Anstrengung von mehreren Hundert europäischen Wissenschaftlern bis 2023 dieses Wunder vollbracht haben wird. Aber jetzt gibt es erst einmal Streit. Die Auseinandersetzung wirft ein Schlaglicht auf die Regeln und Gepflogenheiten des internationalen Wissenschaftsbetriebs.

Das HBP hat es 2012 tatsächlich geschafft, zu einem der beiden wissenschaftlichen Leuchtturmprojekte der EU gewählt zu werden. Jeden dieser hochragenden Lichtwerfer lässt sich die EU etwa eine Milliarde € kosten. Dafür verspricht das HBP nicht weniger als die komplette Simulation des menschlichen Gehirns in einem Computer und, darauf aufbauend, wesentliche Erkenntnisse über Geisteskrankheiten oder verschiedene Formen von Demenz. Die EU verlangt, dass ihre Leuchtturmprojekte bis 2023 abgeschlossen sein müssen. Im Oktober 2013 ist das Projekt gestartet und Ende September feierte das Projekt bei einer Veranstaltung in Heidelberg sein erstes Jahr. Ein mit vielen bunten Bildern und wenig Text werbewirksam gestalteter Bericht versichert, dass alles nach Plan läuft.

Aber nicht alle wollen von einem Erfolg sprechen. Im Juli beschwerten sich fast tausend Wissenschaftler in einem offenen Brief, dass das HBP viel zu einseitig auf die Computertechnik ausgerichtet sei. Die experimentellen Neurowissenschaften dürfen zwar weiter mitmachen, müssen aber das Geld für ihre Projekte selber einwerben. Der Großteil der finanziellen Mittel des Projekts soll in den Aufbau der Computer-Infrastruktur gehen. In der Tat sind die Pläne gewaltig:

Der große Plan

Im Forschungszentrum Jülich soll ein Supercomputer installiert werden, der das menschliche Gehirn auf der Ebene der Nervenzellen simulieren kann. Selbst das größte und schnellste heutige System wäre dafür deutlich zu klein. Der geplante Rechner soll deshalb mindestens zwei Zehnerpotenzen schneller sein. Bis ein solcher Bolide überhaupt gebaut werden kann, werden sicher noch einige Jahre ins Land gehen. Wenn man annimmt, dass sich die Rechnerleistung, wie bisher, alle zwei Jahre verdoppelt, müsste man mindestens 14 Jahre warten, bevor es soweit ist – zu lange für das HBP. Also müssen die Lieferfirmen ihre Innovationszyklen deutlich beschleunigen. Das wird zweifellos teuer, einige hundert Millionen € sollte man schon einplanen1.

Das HBP will noch einen zweiten Ansatz unterstützen. Die sogenannten neuromorphen Computer sollen Strukturen aus einige Millionen auf Computerchips nachgebildeter Nervenzellen miteinander verschalten. Karl-Heinz Meier von der Universität Heidelberg, Vorstandsmitglied des HBP, konstruiert diese Systeme. Er wird sicherlich über die Projektlaufzeit einen achtstelligen Betrag brauchen, wenn er bahnbrechende Ergebnisse erzielen will.

Viele andere, die auf einen warmen Regen gehofft haben, sitzen dagegen weitgehend auf dem Trockenen. Wenn man den Etat von einer gut Milliarde € auf 10 Jahre und die beteiligten 83 Institute umlegt, kommt man auf mehr als eine Million € pro Institut und Jahr. Wenn aber das meiste Geld für die Informationstechnologie ausgegeben wird, dann schrumpfen die Mittel für andere Forschungsvorhaben auf fünf bis sechsstellige Beträge. Das ist allerdings ziemlich wenig, und dürfte in manchen Fällen nicht einmal für die Gehälter reichen, von der Ausstattung ganz zu schweigen.

Das Geld fließt also zum großen Teil in Projekte, die viele Neurowissenschaftler für vollkommen aussichtslos halten. Trotzdem haben sie das Projekt anfangs unterstützt und teilweise sogar ihren Namen unter den Antrag gesetzt. Was mag sie dazu bewogen haben?

Wie man an Drittmittel kommt

Wissenschaftliche Institute werden normalerweise von den Universitäten finanziert. Mit dem wenigen Geld lassen sich aber aktuelle Forschungsvorhaben kaum finanzieren. Also muss man Drittmittel akquirieren. Umtriebige und gut vernetzte Institutsdirektoren schaffen es manchmal, ein mehrfaches Ihres Etats von Stiftungen oder von der Industrie einzuwerben. Dabei hängt der genaue Wortlaut des Antrags hauptsächlich davon ab, was der Geldgeber hören möchte. Wofür die Mittel hinterher tatsächlich verwendet werden, ist eine andere Frage. Das Jonglieren mit Stellen und Sachmitteln hat sich zu einer hohen Kunst entwickelt. Wenn für die Simulation eines menschlichen Gehirns eine Milliarde Euro in Aussicht gestellt wird, dann wird der Antrag geschmeidig daran angepasst. Schließlich ist Wissenschaft nicht vollkommen planbar, die Geldgeber können zwar Berichte verlangen, aber keine vorher bestimmbaren Ergebnisse. Das sogenannte „Abgreifen“ von Drittmitteln ist eher die Regel als die Ausnahme.

Diese Geisteshaltung hat sicher dazu beigetragen, dass der Projektleiter des HBP bei der EU den Eindruck erwecken konnte, die wichtigsten Hirnforscher Europas unterstützten seine Idee, während einige von ihnen hinter vorgehaltener Hand davon sprachen, dass eine Gehirnsimulation völliger Blödsinn ist.

Die Stuttgarter Zeitung zitiert beispielsweise Herwig Baier, den Direktor des Max-Planck-Instituts für Neurobiologie, mit den Worten: „Fast jeder mit einem menschlichen Gehirn wusste von Anfang an, dass das Human Brain Project wirklich mangelhaft war.“

Dem ist kaum etwas hinzuzufügen. Wir können bisher nicht einmal ein Fliegengehirn simulieren. Das Gehirn eines Säugetiers versteht niemand auch nur annähernd. Das hindert aber Henry Markram, den Chef des HBP, nicht daran, hehre Ziele zu formulieren. Zum Beispiel:

The Human Brain Project’s platforms will give scientists a single point of access to neuroscience data, multiomic clinical data and analysis tools from all over the world. The platforms will allow them to reconstruct and simulate the brain on supercomputers coupled to virtual bodies acting in virtual environments (in silico behaviour), and provide them with pipelines to develop simplified brain models for implementation in neuromorphic computing systems. We are confident that we can deliver what we have promised.2

(Das HBP wird Wissenschaftlern eine zentrale Anlaufstelle für den Zugriff auf neurowissenschaftliche Daten, vielfältige klinische Daten und Analysewerkzeuge aus aller Welt bieten. Das wird ihnen gestatten, auf Supercomputern das Gehirn zu nachzubilden und zu simulieren, zusammen mit virtuellen Körpern in einer virtuellen Umgebung (in Siliko-Verhalten). Es wird ihnen Wege für die vereinfachte Entwicklung von Gehirnmodelle aufzeigen, um sie in neuromorphen Computersystemen zu implementieren. Wir sind zuversichtlich, dass wir halten können, was wir versprochen haben.)

Hört sich das etwas überoptimistisch an?3 In einem Interview mit der BBC im Jahr 2009 erklärte Markram sogar: „Es ist nicht unmöglich, ein menschliches Gehirn zu bauen und wir können das in 10 Jahren tun“. 2019 dürften wir demnach ein menschliches Gehirn im Computer erwarten. Tatsächlich werden wir nichts dergleichen zu sehen bekommen, nicht 2019 und nicht 2023. Muss Henry Markram also in zehn Jahren zerknirscht gestehen, er habe seine Ziele verfehlt? Wohl kaum, er ist, wie die Vergangenheit gezeigt hat, ein optimistischer Mensch. Sein Resümee könnte 2024 beispielsweise so aussehen:

„Die vergangenen zehn Jahre haben einen Quantensprung bei der Erforschung der Hirntätigkeit gebracht. Wir sind dem Verständnis der menschlichen Gehirnfunktion so nahe gekommen wie nie zuvor. Niemals in der Geschichte der Menschheit hat ein einzelnes Forschungsprojekt ein so überragendes Ergebnis erzielt. Die beispiellos enge Zusammenarbeit von Wissenschaftlern aus ganz Europa hat uns ermöglicht, eine Sammlung von Daten, Fakten und Werkzeugen zu erstellen, die in der Geschichte kein Beispiel kennt. Wenn die Mittel weiterhin im gleichen Maße zur Verfügung stehen, kann die Auswertung jetzt beginnen, und wir werden in nur 10 Jahren die Fähigkeit besitzen, ein menschliches Gehirn im Computer nachzubilden.“

P.S.: zum Nachlesen: Mein Blog-Beitrag vom Juli 2012 zu diesem Thema. Auch die lebhafte Diskussion ist wirklich lesenswert.

 

Anmerkungen

 

1 Die derzeitige Nr. 2 der Supercomputer, der Cray Titan, kostet 97 Millionen US$ (lt. Wikipedia). Die Sonderwünsche und der verlangte Leistungssprung werden den Preis für den Rechner in Jülich deutlich in die Höhe treiben. 150-300 Millionen € dürfte eine realistische Schätzung sein.

2 Kandel, E. R., Markram, H., Matthews, P. M., Yuste, R., & Koch, C. (2013). Neuroscience thinks big (and collaboratively). Nature Reviews Neuroscience, 14(9), 659-664.

3 Natürlich sollte man gewisse sprachliche Feinheiten nicht aus den Augen verlieren. Markram hat lediglich versprochen, die Daten und Werkzeuge in einer zentralen Anlaufstelle zu sammeln. Darauf aufbauend können dann (andere) Wissenschaftler ihre Forschungen betreiben. Nicht das HBP soll also das Gehirn, den Körper und die Umgebung simulieren, sondern ungenannte Forscher, die von der Vorarbeit des HBP profitieren. Allerdings würde ich für 1 Milliarde € doch etwas mehr Gegenwert als eine Datenbank für Neurodaten erwarten.

Avatar-Foto

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

26 Kommentare

  1. HBP scheitert nicht an der nötigen Rechenleistung, sondern an der nötigen Simulationsqualität. Wie will man ein System simulieren, dessen Grundelemente – also Neuronen, Neurohormone, Transmitter, Glia etc – man nicht genügend versteht. Das ist vergleichbar mit dem Versuch das zukünftige Klima zu simulieren ohne genügend gutes Verständnis für die Physik des Erdsystems.
    Das HBP schreibt auf ihrer Website zur Vision die hinter dem Projekt steht:

    Understanding the human brain is one of the greatest challenges facing 21st century science. If we can rise to it, we can gain profound insights into what makes us human, build revolutionary computing technologies and develop new treatments for brain disorders. Today, for the first time, modern ICT has brought these goals within reach.

    Hier wird also behauptet ICT (Informations-und Kommunikationstechnologiie) könne das Verständis des Hirns ermöglichen. Wie gesagt ist dies nur möglich, wenn wenigstens die Kompontenten des menschlichen oder tierischen Nervensystems schon verstanden werden. Das HBP-Projekt schreibt dazu:

    Neuroscience is generating exponentially growing volumes of data and knowledge on specific aspects of the healthy and diseased brain in animals of different ages and genders, belonging to a broad range of species. However, we still do not have effective strategies to experimentally map the brain across all its levels and functions. Modern supercomputing technology makes it possible—for the first time—to integrate these data in detailed reconstructions and simulations.

    Wenn es tatsächlich nur darum gehen würde die immensen schon vorhandenen Informationen zum Hirn über alle Ebenen zu integrieren um so das Hirn zu verstehen, dann wäre das HBP ein sinnvolles Projekt. Doch genau das bezweifeln viele: Dass wir die Hardwareelemente, die das Hirn ausmachen schon genügend gut verstehen. Sollte im Verlaufe des HBP-Projekts die Erkennntis reifen, dass einen realistische Hirnsimulation heute noch nicht möglich ist, bliebe als mögliches Resutlat der Integration alles bestehenden Wissens ums Hirn einen Art Hirn-Wikipedia, was für einen Ausgabeposten von 1 Milliarde Euro ein sehr bescheidenes Resultat wäre.
    Wenn die vorhand

    • Das HBP scheitert an vielen Dingen. Ein Beispiel: Die Initiatoren gehen fälschlich davon aus, dass die vielen Veröffentlichungen aus dem Bereich der Gehirnforschung lauter winzige Legosteinchen bilden, die man nur richtig zusammensetzen muss, um ein vollständiges Bild von der Entwicklung, Funktion und Anatomie des Gehirns auf allen Ebenen zu erhalten. Das ist leider falsch. Viele Veröffentlichungen sind zweifelhaft, sie müssten überprüft werden, bevor sie aufgenommen werden können (oder verworfen werden müssen). Andere schildern ihre Methodik unvollständig, so dass die Ergebnisse nicht eingeordnet werden können. Insgesamt ergeben die Veröffentlichungen kein kohärentes Bild. Es ist eine naive Vorstellung, dass man lediglich die Fülle der Einzeldaten zusammenführen und integrieren müsse, um das Gehirn vollständig zu beschreiben.
      Und – da haben Sie recht – ich kann ein System nur dann simulieren, wenn ich sein Verhalten weitgehend vollständig beschreiben kann.

  2. Bisher hat die Gehirnforschung kein vernünftiges theoretisches Konzept über die Ablaufstrukturen des Denkens und das Wesen von ´Bewusstsein´ entwickelt. Solange aber solche allgemeinen Funktionen des Gehirns nicht verstanden sind, haben die Daten des HBP nur begrenzten Wert – weil man diese Erkenntnisse nicht vernünftig einordnen kann.

  3. Für die Simulationsrechner werden sie wohl ein eigenes Kraftwerk brauchen….;)

    • Das könnte schon sein. Der schnellste Superrechner, der chinesische TianHe-2, braucht etwa 17 Megawatt. Wenn der geplante Rechner in Jülich das Hundertfache leisten soll, wird er vermutlich deutlich mehr Strom verbrauchen. 50 Megawatt könnten da schon zusammenkommen. Damit würde die Maschine etwa ein halbes Promille des gesamten deutschen Stromverbrauchs ziehen (wenn man annimmt, dass sie 3/4 des Tages läuft).

    • Um ein Konzept zu erstellen, reicht ein Bleistift und ein DIN A4-Blatt aus.
      Denn in einem solchen Konzept müssen nur einfache Ablaufstrukturen enthalten sein: z.B. Regeln, wie ein Reiz verarbeitet wird, Beschreibung der Reizverarbeitung, Reaktivieren und Transformation von ´altem´ Wissen, wie entsteht lebenslange Identität mit sich selbst, wie entsteht Kreativität, usw.
      Und wenn man solche Regeln entwickelt und verstanden hat, dann kann die Übertragung in Computermodelle erfolgen.

      • Nein. Die von HBP anvisierte Hirnsimulation ist nicht etwa neuronales Rechnen. Sie will das menschliche Hirn 1:1 simulieren und animieren. Markam hat in einer seiner Präsentationen sogar davon gesprochen, man könne später einmal mit dem simulierten Gehirn Gespräche führen.

      • HBP umfasst Neurowissenschaft, Neuromedizin und Neuromorphes Rechnen. Im Bereich Neurowissenschaft soll das menschliche Hirn bis auf das molekulare Niveau simuliert werden, was auf der HBP-Projektseite so umschrieben wird:

        Modern supercomputing technology offers a solution, making it possible to integrate the data in detailed computer reconstructed models and simulations of the brain. Brain models and simulations allow researchers to predict missing data and principles and to take measurements and perform experimental manipulations that would be ethically or technically impossible in animals or humans. Combined with new knowledge from big data projects across the world, in silico neuroscience has the potential to reveal the detailed mechanisms leading from genes to cells and circuits and ultimately to cognition and behaviour – the very heart of that which makes us human.

        Das simulierte Hirn soll also Experimente zulassen und diese Experimente würden beim lebenden Menschen die gleiche Resultate lieferen wie bei der Simulation. Nur dass solche Experimente oft am lebenden Menschen gar nicht ausführbar wären. Aus ethischen und auch experimentellen Gründen.

        • Dieses Vorhaben ist schlicht illusorisch, von ethischen Bedenken ganz abgesehen. Bisher können wir nicht einmal einfachste Nervensysteme ausreichend genau nachbilden. Binnen zehn Jahren ein menschliches Gehirn so genau simulieren zu wollen, dass man daraus sichere Erkenntnisse über das Original gewinnt, ist deshalb schlicht unmöglich. Allerdings vermeidet Markram normalerweise auch jede feste Zusage. Er spricht immer von “Möglichkeiten”, von “Potential”, oder von “Chancen”. Mit dem HBP will er auch nur die Plattform erstellen, auf deren Grundlage Wunderdinge wie eine komplette Hirnsimulation möglich werden sollen. Das kann aber kaum funktionieren, die Milliarde € könnte man sicherlich besser ausgeben. Auch das Schicksal des vorangegangenen Blue Brain Projects stimmt nachdenklich. Es sollte ein Rattenhirn simulieren. Aber selbst die erste Stufe des Projekts, die Simulation einer sogenannten kortikalen Säule aus 100000 Neuronen, wurde nie beendet. Bis auf die Aussage, dass man deren Funktion jetzt recht gut verstehe, ist bisher wenig Verwertbares veröffentlicht worden.

        • Eine wissenschaftlich fundierte Simulation setzt voaus, dass man zumindest ein grundlegendes Verständnis von dem hat, was man macht. Man muss Grundlagen von Gehirnaktivitäten als Idee verstehen, um diese Idee(Theorie) dann mit zielgerichteten Experimenten zu erforschen. Dabei können Theorien bestätigt oder widerlegt werden.

          Der US-Arzt Dr. Moody veröffentlichte 1975 sein Buch ´Life after Life´, in dem er die sogenannte ´Nahtod-Erfahrung´(NTE) vorstellte. Er beschrieb, dass viele NTEs nach einer einheitlichen Struktur ablaufen – und stellte typische Merkmale dieser Strukturelemente vor.
          Die Gehirn-/Gedächtnisforschung und die Geisteswissenschaften haben es bis heute nicht geschaft, diese Struktur zu analysieren und zu entschlüsseln. Dies zeugt von einem so immensen Unverständnis des eigenen Fachgebietes – seit vier Jahrzehnten -, welches nur als blamabel zu bezeichnet ist . Es stellt sich die Frage, wieso Wissenschaftler, denen man nachweisen kann, dass sie in ihrem eigenen Fachgebiet jahrzehntelang unfähig waren, einfachste Strukturen zu verstehen, plötzlich im HBP zu Spitzenleistungen fähig sein könnten.

          NTEs lassen sich als ein systematisch und strukturiert ablaufender Erinnerungsvorgang beschreiben, bei dem man bewusst erleben kann, wie das Gehirn auf einen einzelnen, bekannten Reiz reagiert. Dieser bewusst erlebbare Ablauf ist ein einzigartiger Zugang zur Arbeitsweise des Gehirns – und ausgerechnet diese Forschungsmöglichkeit wird bisher ignoriert.
          Ich habe hierzu das Buch ´Kinseher Richard, Pfusch, Betrug, Nahtod-Erfahrung´ veröffentlicht, in dem ich dieses wissenschaftliche Unvermögen thematisiere.
          Ich stelle – auf Grundlage des Buches von Dr. Moody – ein komplettes Erklärungsmodell für NTEs vor: als bewusst erlebbarer Erinnerungsvorgang.
          Dabei werden systematische, strukturelle Abläufe erkennbar, die wesentlich für das Verständnis der Arbeitsweise unseres Gehirns sind: z.B.
          Unser Gehirn arbeitet systematisch per Mustervergleich,
          Erfahrungen werden in der zeitlichen Gegenwartsform gemacht, gespeichert und reaktiviert, (REAKTIVIEREN ist wesentlich schneller als ein up-/download)
          wir haben bewusste Erinnerungen seit der Fetuszeit (in der gleichen Reihenfolge, wie sich die Sinne ab dem 5. Schwangerschaftsmonat entwickeln), (bisher gilt die Lehrmeinung ´infantile Amnesie´, wonach wir uns nicht bewusst an Erlebnisse vor dem 4.-2. Lebensjahr erinnern können – d.h. eine zentrale Lehrmeinung ist falsch)
          ´altes´ Wissen wird kontextabhängig in ´neues´ Wissen umgewandelt – dies erklärt, wieso wir uns über die ganze Lebenszeit identisch fühlen, obgleich wir uns dauernd verändern (Die Frage nach der Identität einer Person über die Lebenszeit ist ein wichtiges philosophisches Thema. / Und auch die Robotertechnik hat das Problem bisher nicht gelöst, wie ´alte´ Reize in ´neue´ umgewandelt werden.)
          usw. – diese Beispiele sollen erst einmal reichen, um zu zeigen, welche Erkenntnisse die bisherige Gehirn-/Gedächtnisforschung bisher ignoriert hat.

      • “Und wenn man solche Regeln entwickelt und verstanden hat, dann kann die Übertragung in Computermodelle erfolgen.”

        Nein, das kann sie auch dann nicht. Die Regeln müssen nicht nur vorschreiben, wie Reize verarbeitet werden, sondern sie schreiben auch die Integration der verschiedenen sensorischen Systeme über die “Stationen” Wahrnehmen, Erkennen, Verstehen vor. Außerdem erklärt sich mit ihnen die Fähigkeit und Art der Antizipation, die Art der Kreativität (statisch vs. dynamisch), die Art und Weise, in der Wissen gespeichert wird usw.
        .

        • @ Trice :

          Und wenn man solche Regeln entwickelt und verstanden hat, dann kann die Übertragung in Computermodelle erfolgen. [Herr Kinseher]

          Nein, das kann sie auch dann nicht

          Kann man, dafür sind Rechner und Eingabelogik ja entwickelt worden.

          Muss aber dann nicht sachnah erfolgen und zu Ergebnissen oder Output erfolgen, das allgemein weiter hilft, korrekt.

          MFG
          Dr. W (der im Abgang noch gerne auf die Unterschiede der IT-möglichen Welten und den anthropologisch erdachten verweist)

          • “Kann man, dafür sind Rechner und Eingabelogik ja entwickelt worden.”

            lieb, 🙂
            Da ist also etwas entwickelt worden, das etwas simulieren soll, von dem man nicht die geringste Ahnung hat, wie es funktioniert.

            Ist zufällig irgendeine Vorstellung vorhanden, wie diese Regeln eventuell aussehen könnten?

          • @ Trice :

            Ist zufällig irgendeine Vorstellung vorhanden, wie diese Regeln eventuell aussehen könnten?

            Ja, aber keine konkrete.

            >:->

            MFG
            Dr. W

  4. Das Geld fließt also zum großen Teil in Projekte, die viele Neurowissenschaftler für vollkommen aussichtslos halten.

    Hier erst einmal eine: +1.

    Ansonsten könnte darüber hinausgehend, dass nicht so vorgegangen werden kann, schon Mehrwert entstehen, gerade auch wissenschaftlicher, der sich nicht nur aus der Veranstaltung selbst ergibt, Kosten-Nutzen.-Rechnungen mal außen vorlassend, Personal will ja ohnehin beschäftigt werden.
    Sofern nicht zu oft wiederholt wird,
    MFG
    Dr. W

  5. @Trice: Im Rahmen der sogenannten ´Nahtod-Erfahrung´(NTE) kann man erkennen, wie das Gehirn einen einzelnen Reiz systematisch, strukturiert und bewusst wahrnehmbar verarbeitet. Gehirn- / Gedächtnisforscher und Geisteswissenschaftler haben es bis heute nicht geschafft, die NTEs als Erinnerungsvorgang zu erkennen und den Ablauf zu beschreiben. Daher meine Kritik am HBP; wenn Forschungsbereiche seit vier Jahrzehnten unfähig sind, eine relativ einfache Ablaufstruktur von Grundlagen zu verstehen und zu analysieren, dann darf man auch bei einem Milliardenprojekt keine vernünftigen Ergebnisse erwarten.

    Zum Thema ´Computermodell´: man muss zuerst eine begründete Theorie über beobachtete Phänomene entwickeln, und in konkreten, strukturierten Aussagen formulieren. Diese Ideen müssen dann mit anderen Forschungsergebnissen abgeglichen werden um sie zu bestätigen oder zu wiederlegen. Ein gutes Computermodell fängt daher erst einmal mit einfachen Aussagen an und sollte dann immer umfangreicher und allgemeingültiger werden. Auch hier ist immer wieder der Abgleich mit Forschungsergebnissen unterschiedlicher Bereiche notwendig

    Und hier noch mein Erklärungsmodell für NTEs in Kurzfassung:
    Als Reaktion auf einen unverständlichen Reiz verschiebt sich der Fokus der Aufmerksamkeit. Nun können mentale Ereignisse/Erlebnisse bewusst wahr genommen werden, die normalerweise unbewusst ablaufen. A) Dieser Reiz wird in hierarchischer Reihenfolge mit einzelnen Inhalten des episodischen Gedächtnisses verglichen – welche durch RE-aktivierung bewusst wahr genommen werden können; z.B. als Lebenslauf im Schnelldurchlauf. B) Manchmal wird eine virtuelle Simulation der als aktuell empfundenen Situation erstellt (= Außerkörperliches Erlebnis). Wenn das Gehirn seine Aufmerksamkeit einem anderen Reiz zuwendet, ist die NTE vorbei.
    So einfach lassen sich NTEs erklären! Und – mein Erklärungsmodell ist ausschließlich auf Grundlage von seit vier Jahrzehnten bekannten Strukturelementen aufgebaut, wie sie 1975 von Dr. Moody niedergeschrieben wurden.

  6. @Trice: Nachtrag zum NTE-Erklärungsmodell
    Dass das Gehirn als Reaktion auf einen neuen Reiz zunächst vorhandenes Wissen aus dem Gedächtnis reaktiviert, wurde erst kürzlich in einer wissenschaftlichen Arbeit bestätigt: DOI 10.1037/a0036781, http://www.scinexx.de/wissen-aktuell-18110-2014-10-13.html [Gehirn gaukelt scharfes Sehen vor].
    Dieses Beispiel belegt die Richtigkeit meines Erklärungsmodells, denn der strukturierte Ablauf von Reizverarbeitung sollte allgemeingültig sein.

  7. Sie machen denselben Fehler, den momentan alle begehen: Sie versuchen, von den Teilen zum Ganzen zu kommen. So funktioniert das aber nicht. Das menschliche Gehirn ist kein Puzzle, nicht mal eins in 3D.
    Gebraucht wird also erst einmal ein Gesamtkonzept der Funktionsweise des Gehirns – das Regelwerk, und nicht etwa haufenweise lokale Regeln für jedes einzelne Problemchen -, erst dann kann man darangehen, sich mit den Teilen zu beschäftigen.

    Im Übrigen besteht das eigentliche Problem nicht darin, ob oder dass das Gehirn ‘als Reaktion auf einen Reiz vorhandenes Wissen aus dem Gedächtnis reaktiviert’ (ich lass das mal so stehen), sondern wie es zu diesem Wissen kommt.
    Wenn man schon auf die Computermetapher bemüht, dann sollte man sich auch darüber im Klaren sein, dass man auch beim Computer nur Daten speichern, wieder aufrufen, assoziieren usw. kann, wann man sie zuvor angelegt hat.

    Also noch mal die Frage: Welchem Regelwerk unterliegt das Gehirn, um Wissenseinheiten anzulegen, die im Gedächtnis ‘gespeichert’ werden, um ‘reaktiviert’ werden zu können?

    • @Trice: unser Gehirn arbeitet mit nur drei Regeln:
      1) als Reaktion auf einen neuen Reiz wird vergleichbares Wissen aus dem Gedächntis reaktiviert (dies ermöglicht eine schnelle Reaktion). Dieses reaktivierte Wissen kann dabei kurzzeitig zur aktuellen Wirklichkeit werden.
      2) dann erfolgt der Plausibilitätsabgleich: neuer Reiz – reaktiviertes Wissen
      3) A) wenn der Vergleich plausibel ist, dann werden neuer Reiz und reaktiviertes Wissen zu der für uns empfundenen aktuellen Wirklichkeit – und dann geht es weiter mit 1)
      3) B) Wenn der Vergleich nicht plausibel ist, dann erhöht sich der Fokus der Aufmerksamkeit, mit dem dieser unverständliche Reiz verarbeitet wird – und dann geht es weiter mit 1); allerdings mit erhöhter Aufmerksamkeit.

      Hier sehen Sie, dass ´Denken´ ein simpler Mustervergleichsprozess ist. Diese Vorgehensweise ist allgemeingültig. Weil im Rahmen von NTEs diese Arbeitsweise nachvollzogen werden kann, hätte man schon vor vier Jahrzehnten wissen können, wie Denken funktioniert. Auch Kreativität lässt sich mit diesen drei Regeln beschreiben.
      (Zu 2): Die Arbeit DOI: 10.1126/science.1236425 – Deep cortical layers are activated directly by thalamus – zeigt, dass ein identischer Reiz zu zwei unterschiedlichen Schichten (Lamina) des Cortex geleitet wird. Dies könnte auf einen Vergleichsvorgang hindeuten.)

      Wenn Menschen von einem Erlebnis erzählen, dann ist dies zunächst ohne wissenschaftliche Aussagekraft. Wenn aber viele Menschen von Erlebnissen mit gleichartigen Inhalten berichten, so kann man annehmen, dass der beschriebene Ablauf eine gemeinsame, einheitliche Struktur hat. Strukturen sind einer wissenschaftlichen Analyse zugänglich – diese ist beim Thema NTE bis heute nicht erfolgt!
      Die Struktur vieler bekannter NTEs deutet darauf hin (= mein Erklärungsmodell), dass wir uns in hierarchischer Reihenfolge dabei bewusst an Erlebnisse erinnern können, wie sie ab dem 5. Schwangerschaftsmonat möglich sind – denn die Reihenfolge, wie sich die Sinne ab dieser Zeit entwickeln, ist bekannt: Fühlen (Haut) > Hören > Sehen. Die Gedächtnisforschung geht bis heute davon aus, dass bewusste Erinnerungen vor dem 4.-2.Lebensjahr nicht möglich sind (Infantile Amnesier). D.h. die Struktur von NTEs deutet darauf hin, dass eine offizielle Lehrmeinung falsch ist – d.h. man hat seit vier Jahrzehnten die Möglichkeit vertan, eine falsche Lehrmeinung zu korrigieren; weil man die Struktur von NTEs nicht analysierte.

      Ich hoffe, Ihre Frage zufriedenstellend beantwortet zu haben. Allerdings bin ich der Meinung, dass man zunächst Teilbereiche verstehen muss, bevor man zu einem Verständnis des Ganzen kommt.

      • Nachtrag: wenn diese empfundene Wirklichkeit (3) ) im Gedächtnis abgespeichert wird, dann hat man damit erworbenes Wissen.

      • “Ich hoffe, Ihre Frage zufriedenstellend beantwortet zu haben.”

        Nein, nicht wirklich, sorry.
        Eine Regel hat “Wenn .., dann..”-Charakter und ist eher unspezifisch. Die Regel für Additionen beispielweise schreibt vor, dass für jeden der beiden Summanden eine Zahl eingesetzt werden muss. Wird die Regel korrekt befolgt, ergibt sich die Summe aus beiden Summanden. Was nicht erlaubt ist: Man kann nicht sechs Äpfel zu fünf Fahrrädern hinzu addieren und hoffen, es käme etwas Gescheites dabei heraus.

        Die Regeln, nach denen das menschliche Gehirn arbeitet, sind ebenfalls “Wenn …, dann …”-Regeln (vielleicht ist es ja das, was Dr. W. gemeint hat, als er schrieb: er habe eine Vorstellung, aber keine konkrete), sie sind nur etwas komplizierter.

        “Allerdings bin ich der Meinung, dass man zunächst Teilbereiche verstehen muss, bevor man zu einem Verständnis des Ganzen kommt.”

        Verstehen muss man Teilbereiche nicht, aber man muss die Materie eines Teilbereichs kennen, der ein Problem darstellt, dessen Lösung man sucht.

        Und falls es von Belang sein sollte: Der Teilbereich, mit dem ich mich beschäftige, ist die sogenannte Aufmerksamkeitsdefizit- Hyperaktivitätsstörung (ADHS) als vermeintliche Störung der (menschlichen) Informationsverarbeitung. Das ist die Materie, die ich kenne und schon kannte, lange, bevor ich verstanden habe, wie diese Art der Informationsverarbeitung funktioniert.

        • Ich habe ein NTE-Erklärungsmodell und drei Regeln für die Reizverarbeitung hier vorgestellt – aber eines sollten Sie nicht vergessen: Ich stehe hier überhaupt nicht zur Diskussion!
          Solche Modelle vorzustellen ist fachlich das Aufgabengebiet der Gehirn-/ Gedächtnis-Forschung und der Geisteswissenschaften – aber diese Forschungsbereiche haben bis heute nicht geliefert.
          Von Forschungsbereichen, welche im HBP die Arbeitsweise unseres Gehirns verstehen und erklären wollen, sollte man zumindest einfache Grundkenntnisse über die Struktur von Erinnerungsvorgängen und der Reizverarbeitung erwarten können. Und wenn nicht – dann stellt sich die Frage, ob eine Milliarde Forschungsgelder für das HBP eine sinnvolle Ausgabe sind.

  8. Wie ich schon sagte: Alle begehen denselben Fehler. Und deshalb wird auch die Milliarde an Forschungsgeldern für das HBP jedenfalls nicht zu einem tragfähigen Gehirnmodell führen.

    Aber es gibt ja auch eine ganze Reihe kleinerer Ziele, die anvisiert werden und Erkenntnisgewinn bringen. So ist das Geld nicht völlig umsonst ausgegeben.

    (Nur aus Neugier: Was hat Sie auf den Gedanken gebracht, Sie könnten statt des HBP zur Diskussion stehen?)

    • Weder über die neuronalen Mechanismen der ADHS noch über die von Nahtoderfahrungen ist genug bekannt, dass sie für eine Simulation – oder die Evaluierung der Simulation von Nutzen sein könnten.

      Aber es gibt ja auch eine ganze Reihe kleinerer Ziele, die anvisiert werden und Erkenntnisgewinn bringen. So ist das Geld nicht völlig umsonst ausgegeben.

      Das hatten sich viele Neurowissenschaftler auch gedacht und sind deshalb sehr enttäuscht, dass die Mittel zum großen Teil in die Hard- und Software der Hirnsimulation fließen soll. Denn genau dieses Vorhaben halten sie für aussichtslos, und die Gelder sind damit verloren.

      • Wenn Sie diesen Text lesen und verstehen können – dann gehe ich davon aus, dass Sie jetzt gerade geistig normal sind; d.h. Ihr Gehirn arbeitet so wie immer = Normalzustand.
        Wer eine NTE hat ist zu diesem Zeitpunkt geistig genau so normal wie Sie jetzt – dass ist meine zentrale Grundannahme zum Verständnis von NTEs.
        D.h. beim NTE kann man selbt bewusst erleben, wie das Gehirn eines Menschen im Normalzustand einen einzelnen Reiz systematisch verarbeitet. Und dies ist auch der Grund wieso die Erforschung von NTEs eine so wichtige Bedeutung für das Verständnis der Arbeitsweise des Gehirns hat: Denn die dabei erkennbaren Regeln für das Verarbeiten eines Reizes, dürften allgemein gültig sein – und können somit direkt für Simulationsmodelle verwendet werden.

  9. Liebe Blogger,

    hier doch noch ein kurzer Beitrag von mir, obwohl ich mich eigentlich hier nicht mehr zu Wort melden wollte. Das Human Brain Project ist nach meiner Ansicht zunächst einmal begrüßenswert und es wäre ein Fehler, dieses Forschungsgebiet zu vernachlässigen. Die Erkenntnis der Arbeitsweise des Gehirns (vor allem des Menschen) ist wichtig in einer Zeit, da der Mensch sich über sich selbst klar werden sollte. Gründe gibt es viele: hausgemachte Klimakatastrophen, Wassermangel in weiten Landstrichen, Hunger und Krieg – wäre da ein Verstandniss der Funktionsweise des zentralen Denkorgans nicht unumgänglich. Nicht zu vergessen die vielen Millionen alternder Menschen, die an Alzheimer, Parkinson und Altersdemenz erkranken und auf Dauer die Gesundheitssysteme der Länder ruinieren (falls diese solche Systeme haben).
    Ich wäre dafür, in der Hirnforschung das materielle und das ideelle zu trennen. Als Beispiel diene das Schachspiel. Simple und ganz wenige Schachfiguren auf eine Schachbrett, versehen mir wenigen Regeln, wie die Figuren zu setzen sind. Das wäre das materielle.
    Aber die Regelwerke, wie ein Schachspiel zu gewinnen ist. sind ungleich komplizierter und füllen viele Bände. Das wäre das ideelle.
    Möglicherweise lässt sich die neuronale Schaltung des Gehirns relativ simpel erklären, jedoch sind die in dieser einfachen Schaltung möglichen Signalverarbeitungsvarianten ungleich komplizierter, denn sie hängen sowohl vom Input als auch von der neuronalen Schaltung ab. Und gewiss ist es so, dass der innere Zustand des Systems ebenfalls darüber entscheidet, welchen Output ein Input liefert. Der innere Zustand umfasst jedoch nicht nur die bereits abgespeicherten Komplexsignale, sondern unzählige Parameter wie Temperatur, Blutzuckerwerte, Blutdruck, aber auch vorangegangenen Input und vorangegangene innere Zustände. Höchst kompliziert also.
    Wenn meine Theorien über die neuronale Schaltung des Gehirn zutreffen, dann kann man beispielsweise die Funktion des Kleinhirns in einem einzigen Satz beschreiben. Gleiches gilt für den primären Cortex. Das Gehirn der Wirbeltiere verarbeitet neuronale Signale, indem es sie bestimmten mathematischen Transformationen unterzieht. Die Signaltransformation im Cerebellum kann in einem einzigen Satz beschrieben werden. Und die Signaltransformation in einer cortikalen Zellsäule ist ebenfalls elementar und simpel. Diese Behauptungen werde ich in meiner nächsten Monografie begründen und zur Diskussion stellen.
    Es ist wie mit den neuronalen Netzen: einfache materielle Struktur, aber eine höchste abspruchsvolle Funktionsweise.

    Andreas Heinrich Malczan