IBM und der “Menschenhirn-Chip”

BLOG: Gedankenwerkstatt

die Psychologie irrationalen Denkens
Gedankenwerkstatt

Eine Pressemitteilung von IBM ließ vor einigen Tagen aufhorchen.

„Heute [18.August 2011] haben IBM-Wissenschaftler eine neue Generation von experimentellen Computerchips enthüllt, die so ausgelegt sind, dass sie die Fähigkeiten des Gehirns für die Wahrnehmung, Handlung und Kognition nachbilden sollen.“

Einen „Menschenhirn-Chip“ nannte das die Süddeutsche Zeitung. Wie sieht so etwas technisch aus? Die Pressemitteilung bleibt leider etwas vage:

„IBM hat zwei funktionierende Prototypen erstellt. Beide sind in 45 nm SOI-CMOS-Techink gebaut und enthalten 256 Neuronen. Der eine Kern enthält 262,144 programmierbare Synapsen und der andere 65536 lernende Synapsen. Das IBM-Team hat erfolgreich einfache Anwendungen gezeigt wie Navigation, maschinelles Sehen, Mustererkennung, assoziativen Speicher und Klassifizierungen.“

Das alles ist nicht unbedingt sensationell. Die Süddeutsche Zeitung schreibt in ihrem Artikel zur Pressemitteilung:

„Computer, die mit dem neuen Chip ausgestattet sind, könnten ähnlich dem menschlichen Gehirn Erfahrungen sammeln und darauf Hypothesen bilden. IBM nennt verschiedene Anwendungsmöglichkeiten im Alltag: Mit Hilfe eines Handschuhs, in der solche Chips eingebaut sind, könnte einem Obsthändler sofort anhand von Aussehen, Geruch, Temperatur und Oberflächenstruktur angezeigt werden, welches Obst verdorben ist.“

Nun muss der Computer das aber keineswegs besser können als der Obsthändler. Denn genau wie der Kaufmann muss auch der Computer erst lernen, welche Kombination von Eigenschaften anzeigt, dass eine bestimmte Obstsorte für den Verkauf nicht mehr geeignet ist. Und das kann dauern. Selbst nach vielen Lektionen in Fruchterkennung muss der Computer dabei nicht besser abschneiden als ein erfahrener Mensch.

Die exakte Berechnung ist die Stärke des Computers, nicht aber die Erfahrung. Nun gibt es bereits lernende Computersysteme, die nach den Grundsätzen eines biologischen lernenden Nervensystems aufgebaut sind: die neuronalen Netze. Sie bestehen aus künstlichen Nervenzellen (Neuronen) die miteinander verbunden sind. Die Neuronen haben mehrere Eingänge und nur einen Ausgang. Über die Eingänge werden im einfachsten Fall digitale Signale (0 oder 1) angelegt, die entweder erregend oder hemmend wirken. Wenn die Summe der Eingangssignale einen bestimmten Schwellenwert überschreitet, schaltet der Ausgang auf 1 sonst auf 0. Die erregenden Signale erhöhen den Eingangspegel, die hemmenden verringern ihn.

Das System lernt, indem es neue Verbindungen zwischen den Neuronen bildet, die Gewichtung der Verbindungen ändert, den Schwellenwert anpasst oder Neuronen hinzufügt oder wegnimmt.

Allerdings hat sich das Training der Netzwerke als problematisch erwiesen. Deshalb kommen neuronale Netze zum Beispiel bei der maschinellen Spracherkennung derzeit kaum zu Einsatz.

Jetzt könnte man argumentieren, dass der Aufbau von Chips mit der Architektur eines neuronalen, nach biologischen Vorbildern gestalteten Netzwerks schon ein echter Fortschritt ist. Allerdings liegt IBM dabei einige Jahre zurück. Die Arbeitsgruppe von Kwabena Boahen an der Stanford University verwendet diesen Ansatz ebenfalls, ist aber deutlich weiter. Sie hat Chips hergestellt, die nicht 256, sondern 65536 Neuronen nachbilden, und sechzehn davon zu einem sogenannten Neurogrid-Computer zusammengebaut.Nur zum Vergleich: Ein menschliches Gehirn hat ca. 100 Milliarden Nervenzellen. Bei genauerer Betrachtung ist also IBMs Leistung wohl ein technischer Fortschritt, aber ganz sicher keine Sensation.

Nun hat allerdings die Dharmendra Modha, der Leiter der „Cognitive Computing Group“ von IBM im Almaden Valley (San Jose, Kalifornien) eine gewissen Vorliebe für vollmundige Ankündigungen. Zur Supercomputer-Konferenz im November 2009 gab die Gruppe eine Pressemitteilung heraus, in der unter anderem stand, dass IBM „deutliche Fortschritte“ bei der Schaffung eines Computersystems gemacht habe, das die Fähigkeit des Gehirns für die Empfindung, Wahrnehmung, Handlung, Interaktion und Kognition nachbilde. Außerdem solle es dem geringen Energieverbrauch und der geringen Größe des Gehirns nahekommen. Und mehr noch:

„In Zusammenarbeit mit Kollegen des Lawrence Berkeley National Lab hat Almaden die erste Beinahe-Echtzeit-Simulation eines Gehirns durchgeführt, das die Größenordnung eines Katzenkortex überschreitet. Es enthält mehr als eine Milliarde Spiking Neurons und 10 Billionen einzelne lernende Synapsen.“

Spiking Neurons“ sind künstliche Neuronen, die wie echte Nervenzellen kurze Impulse abgeben, wenn ein bestimmter Level der Eingangserregung (durch geeignete Differenzialgleichungen vorgegeben) erreicht ist. Die Simulation ahmt das Verhalten echter Nervenzellen besser nach als ein einfaches neuronales Netz. Die schon erwähnten Neurogrid-Chips der Arbeitsgruppe von Boahen arbeiten ebenfalls nach diesem Prinzip.

Hatte die Cognitive Computer Group wirklich ein Katzengehirn mit fast normaler Geschwindigkeit und mit einem geringen Energieverbrauch nachgebaut? „Die Katze ist aus dem Sack“, überschrieb die Gruppe stolz ihren Bericht. Wenn man allerdings genau liest, was sie erreicht haben, dann relativiert sich die stolze Ankündigung erheblich.

  • Die Simulation läuft auf einem Blue Gene/P Supercomputer mit 147456 CPUs und 144 Terabyte Hauptspeicher. Das ist ein tonnenschwerer, megawattfressender Koloss. Weder vom Gewicht noch vom Energieverbrauch kommt er einem biologischen Gehirns im Entferntesten nahe.

  • „Annähernd Echtzeit“ steht für einen Verzögerungsfaktor von 643, eine Sekunde der Simulation braucht mehr als 10 Minuten in der Wirklichkeit.

  • Die künstlichen Neuronen sind gegenüber der biologischen Wirklichkeit sehr vereinfacht. In ihrer Veröffentlichung bezeichnet die Gruppe sie als „biologisch inspiriert“.

  • Im Kortex der Katze gibt es zwar ungefähr so viele Nervenzellen, wie die Simulation Grundelemente hat, aber der Rechner hat keine der Strukturen eines Katzenhirns simuliert. Das System simuliert also kein Katzengehirn.

Henry Markram, der Leiter des konkurrierenden Blue Brain Projects an der Universität Lausanne in der Schweiz schrieb daraufhin einen empörten Brief an Bernard Meyerson, den technischen Direktor von IBM. Ein Betrug an der Öffentlichkeit sei das, wetterte er darin. Ganz unrecht hat er nicht, und so sollte man auch die aktuelle Pressemitteilung mit einiger Vorsicht genießen.

Es geht übrigens bei diesen Arbeiten auch um Millionenbeträge des amerikanischen Verteidigungsministeriums. Die DARPA (Defense Advanced Research Projects Agency) hat das IBM-Projekt mit 5 Millionen US-$ gefördert und schießt laut IBM-Pressemitteilung noch einmal 21 Millionen US-$ nach.

Das Blue Brain Project hat nichts bekommen. Derzeit bemüht sich Henry Markram um Gelder aus dem FET-Flagship Programm der Europäischen Union. Er hat dafür das Human Brain Project aus der Taufe gehoben, das ein menschliches Gehirn komplett im Computer nachbilden soll. Einige Hundert Millionen Euro möchte er dafür einsetzen. Wie ich bereits im vorletzten Jahr ausgeführt habe, halte ich seinen Ansatz aber nicht für sinnvoll.

Wenn jemand genaueres wissen will: In meinem neuen Buch „Klüger als wir“, das Ende September erscheint, setze ich mich ausführlich und kritisch mit dem Thema übermenschlicher Intelligenz auseinander.

Avatar-Foto

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

6 Kommentare

  1. Aspiration übersteigt Wissen

    Interessant dass ganze Forschungsgruppen und Grosskonzerne wie IBM Hoaxforschung betreiben oder mindestens ihre Forschung mit Amitionen versehen, die nur als Hoax bezeichnet werden können, wenn man sie mit den Resultaten vergleicht. Nur weil das gebildete Publikum heute grosse Erwartungen in die Hirnforschung steckt, behaupten einige schon, man könne dem Gehirn beim Denken zusehen und andere wiederum wollen ein ganzes Säugerhirn gar schon nachgebildet haben. Sogar Markam, den man wohl nicht als Scharlatan bezeichnen kann, hat keine Papers veröffentlicht, in denen er die Grundlagen seiner Arbeit der Fachöffentlichkeit vorgestellt hat.

  2. @Martin Holzherr

    IBM betreibt eher keine Hoaxforschung, aber die Cognitive Computer Group neigt doch sehr zum Übertreiben. Dabei ist schwer zu sagen, ob sie damit die DARPA als Geldgeber beeindrucken will, oder ob es eher daran liegt, dass Dharmendra Modha ein begnadeter Selbstdarsteller ist. Wie Sie schon ganz richtig sagen, hat Henry Markram es bisher auch nicht viel besser gemacht. Auch seine Gruppe verbreitet mehr Visionen als Ergebnisse.

  3. HTM statt / mit Chip?

    Danke für die Aufklärung, solche Behauptungen sind wohl immer mit Vorsicht zu genießen.

    Ich bin vor Kurzem auf ein Projekt namens Hierarchical Temporal Memory (kurz HTM) von Numenta.com gestoßen. In diesem Projekt wird die Thematik nicht von der Hardware-Seite aus angegangen, wie bei IBM mit dem Chip, sondern es wird auf Software-Lösungen gesetzt. Dabei wird aber nicht der Versuch unternommen, ein Gehirn zu simulieren, wie in dem von Ihnen erwähnten Blue Brain Project, sondern es sollen Lernprozesse und Datenstrukturen von KI signifikant verbessert werden.

    Was halten Sie von diesem Ansatz?

    P.S.: Der Gründer des Projekts heißt Jeff Hawkins (auch auf YouTube vertreten).

  4. Synapsen

    Interessanter Beitrag!

    Ich kann in dem Zusammenhang auch noch den News&Views aus Nature von letzter Woche empfehlen: 10.1038/476403a. Da geht es um künstliche Synapsen für gehirnähnliche Chips. Wie IBM die Neuronen verknüpft hat, ist offenbar nicht mehr state-of-the-art.

  5. @M. Falkowski

    JEff Hawkins hat ein Buch geschrieben (On Intelligence), in dem er eine neue Theorie der Intelligenz vertritt. Danach entsteht Intelligenz aus der Fähigkeit, Szenen und Abfolgen davon zu speichern und daraus Vorhersagen über die Zukunft abzuleiten. Das Gehirn von Säugetieren, so sagt er, nutzt diese Fähigkeit auf mehreren hierarchisch gegliederten Ebenen. Er benutzt dafür die Bezeichnung Hierarchical Temporal Memory (HTM).
    Die Theorie hat sich nicht durchgesetzt, aber Jeff Hawkins hat immerhin versucht, mit seiner Firma Numenta eine Software auf dieser Basis zu generieren. Dem Web-Auftritt nach hält sich der Erfolg auch sechs Jahre nach Gründung des Unternehmens allerdings noch in einem überschaubaren Rahmen. Auch wenn der Ansatz von Jeff Hawkins sicherlich interessant ist, halte ich ihn doch für etwas sehr schematisch. Inzwischen mehren sich die Indizien, dass die Verarbeitung der Daten im Gehirn nicht so streng hierarchisch erfolgt, wie Hawkins es annimmt.