Gehirn-Computer-Schnittstellen, mehr Realität als Science Fiction
Es gibt immer wieder medizinische Senationen, die ich einerseits total spannend, andereseits aber auch irgendwie gruselig finde, wie z.B. der Mann, der seinen Kopf transplantieren lassen möchte. Das klingt schon ziemlich nach Science Fiction. Heute habe ich im New England Journal of Medicine einen ähnlich spannend/gruseligen Artikel gelesen. Dabei ging es um die Behandlung einer Patientin mit Locked-in Syndrom. Die Betroffenen sind bei Bewusstsein, sind körperlich allerdings derart stark gelähmt, dass sie sich weder bewegen, noch sprechen können. Bei der Vorstellung allein stellen sich bei mir schon die Nackenhaare auf. Umso besser, dass die berichtende Forschergruppe um Nick Ramsey aus Utrecht nach einer Methode gesucht haben, um den Betroffenen trotzdem eine Form der Kommunikation zu ermöglichen. Häufig werden dazu Eye Tracker verwendet, durch die mittels Augenbewegungen über einen Computer Wörter ausgewählt werden können. Wenn das auch nicht mehr möglich ist, muss man sich auf Blinzeln o.ä. begrenzen, was die Kommunikationsfähigkeit weiter einschränkt. Eine andere Möglichkeit sind Gehirn-Computer-Schnittstellen. Die Idee dahinter ist, dass wenn man z.B. den Arm heben möchte, dieser mentale Akt zu einem korrespondierendem Signal in bestimmten Bereichen des Gehirns führt. Dieses Signal ist elektrischer Natur und eine der großen Schwierigkeiten dabei ist es, dieses Signal vom Hintergundrauschen des Gehirns herauszufiltern. Dieses Signal wird dann über die Gehirn-Computer-Schnittstelle in eine entsprechende Aktion übersetzt, die eben auch Kommunikation möglich machen kann. Die Gehirnaktivität wird dabei meist über EEG gemessen. Wie gut die Übersetzung ist, hängt daher maßgeblich von dessen Qualität ab. Dabei wird an der Kopfoberfläche gemessen, aber ein Gehirn-Implantat ist das eigentliche Ziel. Das gibt es tatsächlich schon und man war sogar schon in Einzelfällen in der Lage paralysierte bzw. Roboter-Beine zu bewegen. Trotzdem ist es nicht einfach Geräte für den unabhängigen Kommunikationsgebrauch, am besten zu Hause, zu entwickeln. Aber daran arbeiten die Wissenschaftler aus den Niederlanden. Und genau das haben sie in dieser Woche auch vorgestellt; eine komplett implantierte Gehirn-Computer-Schnittstelle mit kombinierter Entschlüsselungssoftware für eine unabhängige Kommunikation zur selbstständigen Nutzung zu Hause.
Die 58-jährige Patientin leidet an einer fortgeschrittenen ALS (wir alle kennen Stephen Hawking), die noch über Augenbewegungen kommunizieren konnte. Das Implantat wurde im Oktober 2015 eingebracht und trägt es bis heute. Sie ist die erste Patienten in diesem Versuchsprogramm, zwei weitere Patienten sind mittlerweile leider an den Folgen der ALS verstorben. Die beteiligte Firma stellte alle Bauteile übrigens kostenfrei zur Verfügung.
Die Elektroden werden also ins Gehirn implantiert und das Signal wird über im Körper verlaufenden Kabel an den ebenfalls implantierten Transmitter übertragen. Der Transmitter sitzt auf Höhe der Schlüsselbeine. Außerhalb des Körpers ist über dem Transmitter eine Antenne angebracht, über die das Signal schließlich an ein Tablet übertragen wird. Die Elektroden wurden so angebracht, dass Aktivitäten der Gehirnregion aufgzeichnet werden sollte, die für Handbewegungen vernatwortlich ist. Die Patienten konnte bereits an Tag 6 nach der Operation entlassen werden. In den nächsten 28 Wochen wurden dann die Algorithmen und Parameter für die Übersetzung der Signale angepasst, danach konnte die Patientin endlich eigenständig trainieren. Sie erhielt zu Hause jede Woche zwei Trainigseinheiten à 2 Stunden. Damit das Ganze funktioniert, muss die Patientin lernen die Regionen des Gehirns zu aktivieren, auf denen die Elektroden angebracht sind, indem sie mental versucht ihre Hand zu heben. Dazu übte sie, einen Curser über den Bildschirm von oben nach unten zu bewegen. Nachdem das gut ging, lernte sie im nächsten Schritt die Größe und den Zeitpunkt des erzeugten Signals zu beeinflussen, indem sie zu bestimmten Zeitpunkten einen Ball auf dem Bildschirm auf und ab bewegen sollte. Die nächste Aufgaben bestand dann im Erlernen von Gehirn-Klicks um bestimmte Gegenstände aus einer Reihe auszuwählen. Also Aktionen analog zu den Klicks einer Computermaus. Die Tests verliefen übrigens ziemlich gut, die Klick-Aufgabe erfüllte sie mit fast 90% Genauigkeit, sehr viel besser bin ich mit meiner Maus sicher auch nicht. Der Algorithmus für die Klicks musste allerdings mehrere Monate lang justiert werden, bis die Übersetzung richtig gut funktionierte. Dass das möglich ist, finde ich ziemlich abgefahren. Sie muss dazu in der Lage sein, die Maus in eine bestimmte Richtung zu bewegen und dann den Gehirn-Klick so lange zurück zu halten, bis sie den richtigen Gegenstand ausgewählt hat. Keine Ahnung wie lange das gedauert hat, aber ich schätze das war ein verdammt guter Tag, als es zum ersten Mal geklappt hat. Und genau so konnte die Patientin dann schließlich auch buchstabieren bzw. Sätze aus vorgefertigten Wortgruppen bauen. Eine Stufe höher wäre dann vielleicht Angry Birds oder sowas. Aber mitzuteilen was man möchte, ist wohl schon mal durchaus erstrebenswert. Ab Tag 197 konnte sie das Gerät komplett ohne Hilfe benutzen. Besonders hilft das Gerät dabei, wenn die Belichtungsverhältnisse eine Anwendung des Eye Trackings nur schwer möglich war, vor allem außer Haus. Mit der Leistung des Geräts war sie so zufrieden wie mit dem Eye Tracker, könnte in Zukunft also eine gute Alternative darstellen, insbesondere wenn Augenbewegungen nicht mehr möglich sind. Ein Video der Patientin gibt es hier zu sehen. Eine spannende Neuerung, die viel mehr Realität als Science Fiction ist.
Merken
Ja wir verstehen die Signale, die das Hirn an die Peripherie (die Muskeln) sendet immer besser und können sie in Befehle an Geräte oder nicht mehr mit dem Gehirn verbundene Muskeln umsetzen. Dies zeigt auch der Artikel Artificial Spinal Cord Wirelessly Restores Walking in Paralyzed Monkeys. Es scheint nur noch eine Frage der Zeit bis ein normal (oder in wichtigen Teilen) funktionierendes Gehirn und ein elektronisches Zwischenglied genügt um sich bei Querschnittslähmung wieder bewegen oder bei Locked-In Syndrom die Kommunikation wiederherzustellen.
(Vielleicht ein wenig ketzerisch angemerkt, der Schreiber dieser Zeilen lässt sich hier gerne ergänzen.)
Wie Stephan Hawking genau kommuniziert, ist (einigen) nicht ganz klar, vgl. hiermit :
-> https://www.youtube.com/watch?v=UErbwiJH1dI
Es müsste so sein, dass er so in mühevoller (Klein-)Arbeit Aussagen, Sätze (die dann Inhalte-Einheiten werden können) zusammenstellt, um sie dann (auch mit der oder einer Hand) auswählen zu können, der beschriebenen Ergonomie (das Fachwort) folgend, vgl. mit :
-> https://www.youtube.com/watch?v=tjmjBDOq9Rc
Beim zweiten Vid wird klar, dass Hawking abruft, eben vorbereitete Inhalte-Einheiten, hoffentlich – ansonsten wäre es sittlich zweifelhafte Show.
Dies kann ihm möglich sein, wenn er wie im Erst-Webverweis vorgeht, er kann dann vorbereitete Bausteine seiner Rede zusammenrufen.
Blöd halt Folgendes: A) Warum lässt er nicht einfach seine vorbereitete Nachricht abspielen? B) Warum wird diese (gottverdammte) Stimmen-Animation genutzt?
—
Der Schreiber dieser Zeilen behandelt alle, auch Behinderte, ihm möglich(st) fair, sieht hier aber grundsätzliche Probleme.
Das sogenannte User-Interface meinend.
Er kann insofern oft nur Show und teilweise sogar Intention feststellen, Agenda, wenn bspw. so etwas kommt:
-> http://www.zeit.de/politik/ausland/2013-05/Hawkings-Israel-Konferenz
Wobei hier angenommen wird, dass Hawking sein Input, über das Web frei bestimmen kann, eben mühevolle (Klein-)Arbeit die Aufrufe von Ressourcen meinend.
Was bei anderen nicht der Fall sein muss.
—
Ansonsten, diese Idee mit dem im dankenswerterweise WebLog-Artikel beschriebenen User-Interface ist schon eine ethisch gefährliche Sache.
Vgl. mit – ‘Die Tests verliefen übrigens ziemlich gut, die Klick-Aufgabe erfüllte sie mit fast 90% Genauigkeit, sehr viel besser bin ich mit meiner Maus sicher auch nicht.’ [Artikeltext] – denn 90% sind schon verdammt mies und zudem lag eine Vorwahl vor.
Der Schreiber dieser Zeilen kann sich nicht vorstellen, dass, außer als in ca. 15-minütiger (Klein-)Arbeit ein Satz gebildet werden könnte, der halbwegs der Intention entspricht.
Das angelegte Vid, vgl. mit ‘viel mehr Realität als Science Fiction
[Artikeltext] überzeugte nicht :
-> https://www.youtube.com/watch?v=nH3xF2oCtTI
MFG
Dr. Webbaer
Die Patientin nutzte ein Tablett mit gängiger Worterkennung, so dass sie am Ende eine Buchstabiergeschwindigkeit von 33 s/Buchstabe erreichte. Selbst in 15 Minuten hat man da noch keinen richtigen Satz zusammen. Worin genau sehen Sie denn die ethischen Bedenken?
Im Fall von Herrn Hawking kann ich mir vorstellen, dass das selbstständige Abspielen ihm eine gewisse Autonomie beschert, die er nicht hätte wenn jemand anderes für ihn den Knopf drückt. Was die Stimme angeht, ist es wohl ein running gag, der Teil der Teil des Erlebnisses Hawking bleiben wird. Aber das kann nur Mutmaßung bleiben.
Howdy, Frau Davenport,
Ihr Kommentatorenfreund hat ein wenig nachgedacht und ist nun wieder etwas optimistischer, was den Einsatz bestimmter Technologie betrifft, vielen Dsank für Ihre Reaktion!, allerdings bleibt er im geschilderten Fall “depri”, hauptsächlich wegen dieser Aussage im dankenswerterweise bereit gestellten WebLog-Artikel:
Wenn die Augen, die ja doch sehr gehirn-nah sind – Sind Augen eigentlich Gehirn? – nicht mehr funktionieren, wird es sehr schwierig noch Input aufzunehmen – wenn dann per Ohr, von Alternativen wie (irgendwo) vibrierende Sensoren hält der Schreiber dieser Zeilen wenig, finden Sie nicht?
—
Sozusagen unethisch wird es, wenn ein funktionierendes Gehirn per Gehirn-Sensoren dem Patienten Abfragen erlaubt, die dann wiederum über diese Gehirn-Sensoren beantwortet werden, oder?
Hawking und ‘running gag’, genau so müsste es sein, diese Möglichkeit ist hier wohl entgangen,
MFG + weiterhin viel Erfolg,
Dr. Webbaer
Pingback:Gehirn-Computer-Schnittstellen, mehr Realität als Science Fiction – Selbsthilfegruppe (SHG) Lebig