Gestatten: mein Arzt, der Roboter

Credit: Alex Knight / unsplash / CC0

Maschinen verdrängen immer mehr Menschen von ihren Arbeitsplätzen. Bisher waren Ärzte davon kaum betroffen. Doch die neue Technik des „deep learnings“ lässt computergestützte Systeme mit hoher Treffsicherheit Diagnosen stellen. Werden Roboter eines Tages Ärzte ersetzen können?

Maschinen im Alltag

Computer, die Menschen beim Schachspiel besiegen oder Roboter, mit denen wir uns unterhalten können – Wissenschaftler versuchen seit vielen Jahren den komplexen menschlichen Geist künstlich nachzubauen. Und immer wieder hört man von Erfolgen auf dem Gebiet der „künstlichen Intelligenz“, die versucht menschliche Wahrnehmungen und menschliches Handeln mittels Maschinen nachzubilden. 2016 siegte Googles „Alpha Go“ gegen den stärksten Spieler des komplexen Brettspiels Go.

Im selben Jahr verkündete Microsoft, dass ihr entwickelter Computer Spracherkennung genauso gut hinbekommt wie ein Mensch. In den Produktionsstraßen der Automobilindustrien ersetzen Roboter schon lange eine Vielzahl menschlicher Handgriffe. 2012 landete das Fahrzeug „Curiosity“ auf dem Mars und bewegt sich dort seitdem automatisch, um Steine und andere Materialien zu analysieren und die Erkenntnisse zur Erde zu funken. Intelligente Computer sind aus unserem Alltag nicht mehr wegzudenken. Wann werden sie auch die Medizin revolutionieren?

Was ist ein intelligenter Computer?

Künstliche Intelligenz verfolgt eigentlich eine sehr einfache Idee. Bestimmte Aspekte des menschlichen Denkens sollen auf Computer übertragen werden, um eine „denkende“ Maschine zu erschaffen. Anstatt dem Computer zu sagen, wie er ein bestimmtes Problem lösen muss, soll er das durch „machine-learning“ mithilfe von Datenauswertung selbst erlernen. Das erscheint erstmal fast unmöglich angesichts der Tatsache, dass das menschliche Denken und Lernen selbst kaum verstanden ist. Bis heute kann man nicht einmal annähernd den menschlichen Verstand als Ganzes mit Computern nachvollziehen. Die Forschung rund um Künstliche Intelligenz konzentriert sich deswegen mehr auf einzelne Teilbereiche, um die Arbeit des Menschen zu erleichtern.

Wann spricht man also von intelligenten Maschinen? Die Intelligenz von Computern ist etwas schwierig zu erfassendes. 1950 entwickelte der britische Mathematiker Alan Turing eine Idee, wie man feststellen kann, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. In dem nach ihm benannten Turing-Test kommuniziert ein Mensch über eine Tastatur und einen Bildschirm, aber ohne Sicht- oder Hörkontakt, mit zwei ihm unbekannten Gesprächspartnern. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine und beide versuchen den Tester davon zu überzeugen, dass sie denkende Menschen sind.

Kann der Mensch nach der Unterhaltung nicht klar sagen, welcher von beiden die Maschine ist, hat der Computer den Turing-Test bestanden. Er gilt dann als genauso intelligent wie ein Mensch. Turing vermutete damals, dass es bis zum Jahr 2000 gelingen würde eine solche Maschine herzustellen, doch die Komplexität menschlicher Intelligenz wurde unterschätzt. Bis heute gibt es keinen Computer, der den Turing-Test nach allen Maßstäben besteht. Doch es gibt viele Beispiele von Maschinen, die dem sehr nahekommen. So konnte beispielsweise eine von amerikanischen Forschern erschaffene künstliche Intelligenz, die eigenständig Rezensionen verfasste, von menschlichen Testpersonen nicht von denen menschlich verfasster Rezensionen unterschieden werden.

Können Maschinen den Menschen ersetzen?

Einer der Gründerväter des sogenannten „deep learnings“, das sich mit Optimierungsmethoden künstlicher Intelligenz beschäftigt, ist der britische Informatiker und Kognitionspsychologe Prof. Geoffrey Hinton. Er ist einer der angesehensten und meistzitierten Forscher auf diesem Gebiet. Schon als junger Doktorand beschäftigte sich Hinton mit neuronalen Systemen für die Erklärung und Nachbildung von Intelligenz, die Grundlage für moderne Roboter sind. Der Experte gab letztes Jahr auf der „Machine Learning and Market for Intelligence Conference“ eine ziemlich präzise Schätzung für das Ende des Radiologie-Facharztes ab: „Wenn man als Radiologe arbeitet, dann ist man wie ein Koyote, der über eine Klippe stürzt. Er sieht nicht nach unten und realisiert deshalb nicht, dass er längst den Boden unten seinen Füßen verloren hat. Ich sage Ihnen: Man sollte jetzt aufhören Radiologen auszubilden. Es ist offensichtlich, dass innerhalb von fünf Jahren „deep learning“ bessere Arbeit leisten wird als Radiologen es können.“

Eine ziemlich gewagte These, die – würde sie tatsächlich zutreffen – eine ganze Facharztrichtung, mit einem Schlag überflüssig machen würde. Radiologen beschäftigen sich überwiegend mit der Auswertung von MRT- oder CT-Bildern. Hinton sagt, Computer ließen sich trainieren die Bilder ähnlich intelligent zu betrachten. Er geht davon aus, dass Maschinen in den kommenden Jahren die Fachärzte übertreffen werden. Auch ein amerikanisches Forscherteam prognostizierte kürzlich, dass fast die Hälfte aller heute beschäftigten Radiologen in den nächsten zehn bis zwanzig Jahren von Computern und Robotern abgelöst werden.

Künstliche Intelligenz in der Medizin

Könnte das tatsächlich zutreffen? In der Chirurgie existieren bereits Roboter, die Operateure bei Eingriffen unterstützen. So ist beispielsweise der Da-Vinci-Roboter ein unverzichtbarer Assistent bei minimal-invasiven urologischen und gynäkologischen Eingriffen an vielen Kliniken. Mithilfe des Roboters können Chirurgen wie an einer Spielekonsole die Arme des Roboters mittels eines Joysticks steuern. In Echtzeit werden die Handbewegungen des Operateurs auf die Roboterarme übertragen, was eine millimetergenaue Steuerung der feinen Instrumente erlaubt. Unwillkürliche Bewegungen wie Händezittern werden ausgeglichen. Der Da-Vinci-Roboter kann jedoch nicht programmiert werden und keine eigenständigen Bewegungen ausführen, ist also noch kein “autonomer” Roboter.

Vor ein paar Jahren stellte man auch große Erwartungen an den Operationsroboter „Robo-Doc“, der Hüftoperationen akkurater ausführen sollte. Zunächst waren die Chirurgen begeistert und glaubten ihr Roboter-Kollege bekäme den Eingriff gut hin. Doch dann zeigte sich, dass die operierten Patienten nach der OP mehr Probleme als vorher hatten. „[…] Für den Eingriff musste die Hüfte der Patienten so überstreckt werden, dass sie Nervenschäden davontrugen“, erklärt Hartwig Bauer, langjähriger Generalsekretär der Deutschen Gesellschaft für Chirurgie.

Die Folge: die Patienten litten unter Schmerzen, großen blauen Flecken und einem watscheligen Gang. „Roboter-Hinken hieß das, wenn wir jemanden damit durch die Klinik humpeln sahen”, sagt Bauer. Der Robo-Doc ist ein Beispiel dafür, dass Künstliche Intelligenz erst ausgereift sein muss, bevor der Einsatz am Menschen Vorteile bringt. Die Maschine wurde in den 90er Jahren als technologisch hochwertig und fortschrittlich angepriesen und von Kliniken als perfektes Marketinginstrument angesehen. Kaum eine Hüft-Operation fand ohne sie statt. Erst als immer mehr Patienten Klage einreichten und die Berichterstattung kritischer wurde, wurde der Robo-Doc entsorgt. Bauer beteuert: „Inzwischen stehen die Roboter in den Kliniken im Keller.”

Roboter für Handwerk und Wissen

Die Chirurgie wird zwar immer technischer, doch die Entwicklung hin zu voll automatisierten Operationen wird noch lange Zeit in Anspruch nehmen. Bis ein Roboter wirklich selbständig wie ein menschlicher Chirurg arbeiten kann werden noch viele Jahrzehnte vergehen, vor allem, da während einer OP oft wichtige Entscheidungen getroffen werden müssen, die Maschinen nicht treffen können.

In der Zahnmedizin gibt es allerdings schon erste Roboter, die einfache Operationen ausführen können. Sie können Zahnimplantate unter Aufsicht der Ärzte autonom in den menschlichen Kiefer einbringen. China ist Vorreiter bei der Technik und will damit den Mangel an Zahnärzten in den Griff bekommen. Doch auch hier ist die Technik noch nicht voll ausgereift. Die menschlichen Ärzte können momentan die Aufgabe noch sehr viel schneller erledigen als der Roboter. Sie brauchen gerade einmal fünf Minuten, während die Maschine eine Stunde benötigt. Zudem lässt sich der Roboter auch nur bei sehr einfachen Zahnstellungen und gutem Knochenangebot am Patienten einsetzen. In komplexeren Situationen wird noch lange der echte Zahnarzt bohren müssen.

Künstliche Intelligenz hat in den kommenden Jahren mehr Potenzial in der diagnostischen Medizin. Dabei denkt man vermutlich erstmal an Ärzte wie Dr. House, die mit viel Wissen und Geschick die richtige Diagnose eines rätselhaften Falls lösen müssen. Tatsächlich ist das aber nicht die Art von Medizin, die die meisten Ärzte betreiben. Nur ein sehr kleiner Teil der Medizin beschäftigt sich damit. Schon vor Jahrzehnten dachten die Menschen, dass ein medizinischer Experte sich hauptsächlich durch sein umfangreiches Wissen auszeichnet. Also versuchten Computerwissenschaftler dieses Wissen als Basis der Medizin zu autonomisieren.

Der erste Computer, der menschliche Ärzte darin besiegen konnte, war die künstliche Intelligenz MYCIN, die Ende der 70er Jahre in Stanford entwickelt wurde. Sie war ein wissensbasiertes System, das die wahrscheinlichste Ursache einer Infektion und die korrekte Behandlung des Patienten festlegen konnte. Dabei agierte sie innerhalb eines festgelegten Schemas aus 600 Regeln, die man ihr vorgab. Im Prinzip befolgte die Maschine einfach nur die Leitlinien für die Therapie von bestimmten Krankheiten. MYCIN arbeitete recht gut, sie konnte öfter als menschliche Spezialisten für infektiöse Erkrankungen die richtige Behandlung auswählen. Allerdings wurde der Computer nie in der Praxis eingesetzt, denn es stellte sich als zu zeitaufwendig heraus ihm manuell alle Daten für seine Entscheidungsgrundlage zu füttern. Außerdem war die IT-Infrastruktur in den 70er-Jahren zu schlecht, um ihn flächendeckend einzusetzen. Doch warum gibt es solche Systeme heute nicht?

Das Bauchgefühl

Um das zu verstehen wirft man am besten einmal einen Blick darauf was passiert, wenn man mit Husten zum Arzt geht. Der Arzt stellt einem wahrscheinlich einige Fragen, hört die Lunge ab, misst die Temperatur und tastet den Puls. Vielleicht entnimmt er auch eine Blutprobe oder sendet eine Speichelprobe ins Labor. Im Ernstfall kann er eine Röntgenaufnahme der Lunge veranlassen, um herauszufinden was uns fehlt und was die beste Behandlung ist. Und wie lange dauert es bis er seine Entscheidung fällt, ob er dem Patienten ein Antibiotikum verschreibt? Wahrscheinlich nur wenige Sekunden.

Viele Ärzte nehmen das nicht einmal als bewusste Entscheidung wahr. Es passiert einfach automatisch. Menschen mit langjähriger Erfahrung denken nicht mehr bewusst über bestimmte Entscheidungen nach, sie fällen sie auf der Grundlage bestimmter Mustererkennungen innerhalb von Sekunden. Das ist ein Phänomen, das nicht nur Ärzte betrifft. Auch im Sport, der Musik oder dem Schachspielen unterscheiden sich so die Profis vom Laien.

Man könnte auch sagen: Medizin ist nicht nur eine Wissenschaft, sondern auch eine Kunst. Diese „künstlerischen“ Bereiche der Medizin lassen sich nicht besonders gut für einen Computer kodieren und in Regeln aufschreiben. In der Medizin ist das Bauchgefühl nämlich genauso wichtig wie reines Wissen. Oftmals müssen Ärzte von Leitlinien abweichen, was sie auch dürfen, da die standardisierte Therapie auf den einen Patienten individuell nicht anwendbar ist. Man kann nicht in Regeln fassen, wenn man ein „schlechtes Gefühl“ bei einem Patienten hat oder einem die eigentlich vorgeschriebene Behandlung aufgrund bestimmter Umstände nicht mehr sinnvoll erscheint. So fühlt sich Mustererkennung für einen Arzt an: ohne bewusstes Nachdenken und in kürzester Zeit vergleicht sein Gehirn den vor ihm stehenden Patienten mit seiner bisherigen Erfahrung und lässt die beste Übereinstimmung seine Gedanken bestimmen.

Vertrauen in Mensch oder Maschine?

Ärztliche Entscheidungen beruhen also nicht nur auf reinem medizinischen Fachwissen, sondern erfordern viele Tätigkeiten, die ein Computer heutzutage noch nicht nachahmen kann. Ärzte müssen den Patienten sehen. Sie müssen ihn wahrnehmen, ihm zuhören, ihn anschauen, anfassen und untersuchen. Sie müssen bestimmte Situationen einschätzen. Sie müssen empathisch sein und ethische schwierige Entscheidungen treffen – all das können Maschinen nicht. Aber genau diese Aufgaben machen einen Großteil der Medizin aus.

Ein Computer kann erkennen, wenn bestimmte Laborwerte außerhalb der Norm liegen. Aber nur ein Mensch kann in Zusammenschau mit allen anderen Fakten interpretieren, ob dies ein medizinisches Eingreifen erfordert oder tolerierbar ist. Dieses Dilemma diskutiert auch der kanadische Rechtsethiker Ian Kerr in einem Beitrag für den “Ottawa Citizen”. Der von IBM entwickelte Supercomputer „Watson“ kann eingesetzt werden, um bedeutende medizinische Informationen aus Literatur und riesigen unstrukturierten Datensätzen auszuwerten. Auf dieser Grundlage kann er für Patienten Diagnosen stellen und anschließend die korrekte Behandlungsmethode auswählen.

Ian Kerr beschrieb folgendes Gedankenexperiment: Angenommen Sie bekämen von Computer Dr. Watson die Diagnose Verdacht auf Leukämie. Der menschliche Arzt aber ist anderer Meinung, sein Bauchgefühl sagt ihm, dass die Diagnose nicht passt. Der Mediziner sagt Ihnen Watson habe mit einer Wahrscheinlichkeit von 90 Prozent Recht, er selbst liege nur mit einer Wahrscheinlichkeit von 50 Prozent richtig. Wem vertrauen Sie ihr Leben an? Mensch oder Maschine?

Das Krankenhaus möchte, dass der Arzt der Empfehlung von Watson folgt, um eventuellen Klagen vorzubeugen. Objektiv betrachtet ist das auch die bessere Entscheidung, denn Watson hat eine höhere Trefferquote als menschliche Ärzte. Aber würden Sie intuitiv nicht lieber dem menschlichen Arzt und seinem Bauchgefühl vertrauen? Das Dilemma liegt im Vertrauensverlust, der daraus resultiert, dass medizinische Entscheidungen an Maschinen delegiert werden. Vertrauen ist das Fundament der Arzt-Patienten Beziehung. Vertraut man seinem Arzt nicht, lässt man sich nicht von ihm behandeln, mag er auch der beste Experte mit dem größten Fachwissen auf seinem Gebiet sein.

Hat die Maschine Recht, da sie einen viel umfangreicheren Blick auf Daten und Auswertungen hat? Hat der Arzt bei seiner Einschätzung nicht ein wichtiges Detail vergessen, das der Computer in seiner Analyse berücksichtigt hat? Die Frage ist auch wie die Superroboter programmiert wurden. Nach ökonomischen Gesichtspunkten, um möglichst viele Patienten zu behandeln und möglichst gewinnorientiert zu arbeiten? Oder nach sozialen, humanitären Kriterien, die nichts als das Wohl des Menschen im Sinn haben? Man darf nicht die Gefahr außer Acht lassen, dass die Automatisierung die weitere Ökonomisierung des Gesundheitssystems vorantreibt und eventuell vor der ethisch richtigen Entscheidung stehen könnte.

„Deep learning“ schlägt den Menschen

Schon heute können Maschinen bestimmte Aufgaben der Ärzte übernehmen. Zumindest solche, die auf optischer Wahrnehmung beruhen. Dabei machen sich Forscher das sogenannte „deep learning“ zunutze. Es lehrt Maschinen zu lernen, indem es sie in die Lage versetzt, selbstständig ihre Fähigkeiten zu verbessern. Ältere Computer wie MYCIN treffen ihre Entscheidungen aufgrund bestimmter algorithmischer Regeln, die Menschen ihnen vorgeben und die ein sehr starres Konstrukt darstellen.

Im Gegensatz dazu funktioniert „deep learning“ mit einem großen Set an Daten, aus dem es bestimmte Merkmale herauspickt und Zusammenhänge bzw. Muster erkennen kann. Je mehr Daten es zugespielt bekommt, desto besser wird es trainiert und desto besser kann es Beziehungen zwischen den Daten erkennen. Auf der Basis vorhandener Informationen kann das System das Erlernte außerdem immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Es lernt quasi aus den eigenen Fehlern und wird mit jedem Misserfolg noch besser.

Die Arbeitsweise kann man sich so vorstellen: Man nehme mal an man müsse Bilder einer Katze von denen eines Hundes unterscheiden. Das ist eine sehr einfache Aufgabe für uns Menschen – selbst ein Kleinkind kann das schon. Aber kein Mensch kann die Anweisungen wie das genau geht für einen Computer aufschreiben. Alle Fotos enthalten Tiere mit Fell in unterschiedlichsten Positionen, doch es lässt sich kein offensichtlicher Unterschied als Regel für die Grundlage eines Computerprogramms zur Differenzierung formulieren.

Das Maschinenlernen löst dieses Problem, indem vermieden wird, dass ein Mensch eine Entscheidungsregel aufstellen muss, um die beiden Tierarten voneinander zu trennen. Stattdessen füttert man den Computer mit Hunderten Bildern von Hunden und Katzen und sagt ihm welches Bild welches Tier zeigt. Das System lernt dann eigenständig Hunde und Katzen auseinanderzuhalten, in dem es bestimmte Merkmale auf den Bildern erkennt und diese Muster immer einer Tierart zuordnen kann.

Die Technik des „deep learning“ ist also nützlich für Aufgaben, die mit Mustererkennung auf Fotos zu tun haben. Dies lässt sich auch in der Medizin anwenden, nämlich auf Gebieten, in denen Bilder betrachtet werden müssen beispielsweise in den Fachrichtungen Radiologie, Augenheilkunde, Pathologie oder Dermatologie. Das Problem eine bestimmte Krebsart optisch von einer anderen zu unterscheiden lässt sich auf ähnliche Weise von der Maschine lösen wie die Hunde- und Katzenbilder auseinander zu halten.

Der Computer kann dadurch wie ein Arzt denken und auf dieser Grundlage bestimmte Behandlungen vorschlagen. Der Computerwissenschafts-Professor Anton van den Hengel von der Adelaide Universität in Australien erklärt: „In Situationen, in denen die einzige erforderliche Information, um eine Entscheidung zu treffen, auf einem optischen Signal beruht, kann maschinelles Lernen [den Menschen] um Haaresbreite schlagen“.

Wo „deep learning“ eingesetzt werden kann

So wie bei der Diagnose einer häufigen Augenerkrankung bei zuckerkranken Menschen, der diabetischen Retinopathie. Diese Erkrankung ist die häufigste Ursache für Erblindung von Menschen im Alter von 20 bis 65 Jahren und wird durch Schädigungen an kleinen Blutgefäßen im Augenhintergrund verursacht. Sie wird diagnostiziert, indem Augenärzte den Augenhintergrund und seine Blutgefäße betrachten. Eine Aufgabe, die also auf der reinen Beurteilung von optischen Bildern beruht.

Ende 2016 stellten Wissenschaftler einen Computer-Algorithmus vor, der die diabetische Retinopathie auf Augenhintergrund-Fotografien mit hoher Sicherheit erkennen kann. Die Forscher trainierten eine Maschine mit „deep learning“, indem sie ihr 130.000 Fotos des Augenhintergrunds gaben, die zuvor von Augenärzten als gesund oder krank eingestuft wurden. Anschließend wurde sie an einem neuen Set aus Patientenfotos getestet. Das Erstaunliche: Der Computer konnte eine genauso hohe Treffsicherheit in der Diagnose aufweisen wie die Augenärzte. Die Studie erregte großes Aufsehen und lässt erahnen, dass solche Computer in Zukunft gut im Rahmen von Vorsorgeuntersuchungen für Augenerkrankungen eingesetzt werden könnten.

Doch auch in der Dermatologie könnte „deep learning“ zukünftig verwendet werden. Beispielsweise bei der Diagnose von Hautkrebs. Eine Gruppe von Forschern aus Stanford veröffentlichte Anfang dieses Jahres eine Studie im Fachblatt Nature. Sie lehrten einen Computer verdächtige Hauterscheinungen zu erkennen, die eine Biopsie benötigen, um das Vorliegen von Hautkrebs abzuklären.

Dabei wurden knapp 130.000 Bilder mit 2000 verschiedenen Hauterkrankungen verwendet, um die Maschine zu trainieren. Das Ergebnis: der Computer arbeitete diesmal sogar besser als die Hautärzte. Er konnte mehr Fälle von Hautkrebs erkennen und lieferte gleichzeitig eine geringere Rate an falsch-positiven Fällen. Dies eröffnet völlig neue Perspektiven in der Prävention von Hautkrebs. So könnte es in der Zukunft möglich sein eine verdächtige Hautstelle mit einer Handyapp zu fotografieren und von der Künstlichen Intelligenz bestimmen zu lassen, ob eine Abklärung beim Arzt nötig ist. Das Team der Forscher aus Stanford arbeitet schon daran diese Idee in die Praxis umzusetzen.

Werden Ärzte überflüssig?

Werden also Hautärzte, Augenärzte oder Radiologen in Zukunft arbeitslos? Oder als eine Art Cyborg ein tristes Leben als PC-Aufsicht verbringen, um Algorithmen zu beaufsichtigen und nur im Zweifelsfall einzugreifen wie Ziad Obermeyer von der Harvard Medical School vorhersagt? Das kann man stark bezweifeln. Das Betrachten von Bildern ist zwar ein großer Teil ihrer medizinischen Tätigkeit, doch nicht der alleinige Brotverdienst. Hautärzte müssen Biopsien entnehmen oder Hautkrebs operieren. Augenärzte operieren am Auge oder verschreiben wichtige Medikamente. Radiologen braucht man nicht nur für die Diagnostik, sie führen auch interventionelle Eingriffe am Patienten durch.

Indem Computer immer besser Erkrankungen auf Bildern erkennen können, werden immer mehr Patienten diagnostiziert und brauchen immer mehr Behandlung. Der Bedarf an diesen Fachärzten könnte also zukünftig sogar zunehmen. Langfristig wird sich aber das Aufgabenfeld der einzelnen Facharztrichtungen wandeln. Den Medizinern wird weniger diagnostische Tätigkeit abverlangt, dafür mehr Therapie und Beschäftigung mit den Patienten.

Das „Menschliche“ wird nämlich keine Maschine so schnell ersetzen können. „Computer können einzelne ärztliche Tätigkeiten übernehmen, vor allem im Bereich der Diagnostik. Für die Therapie sind aber nach wie vor Menschen mit Skills wie Empathie und Kommunikation gefragt“, erklärt Prof. David Matusiewicz, Direktor des ifgs Institut für Gesundheit und Soziales. Zustimmung erhält er von Kinderarzt Markus Müschenich: „ Die Ärzte, die sich nur über Wissen definieren, werden überflüssig. Die Rolle des Arztes wird viel interessanter. Weil das Vertrauen ist eigentlich das, warum man Arzt wird und nicht weil man Lehrbücher auswendig lernen will.“

Bei allem Optimismus rund um Künstliche Intelligenz sollte man immer bedenken, dass auch Big-Data-Algorithmen Grenzen haben. Selbst die leistungsfähigsten Computer bleiben an den Bereich des Berechenbaren gebunden. Und nicht alles lässt sich berechnen, nicht für jedes Problem eine künstlich intelligente Lösung finden. Schon der russische Mathematiker Alexander Michailowitsch Ljapunow hat 1892 nachgewiesen, dass bestimmte physikalische Abhängigkeiten die Welt instabil und unberechenbar machen. Man denke nur an die Wettervorhersage.

Menschen sollten sich nicht alleine auf Computer verlassen. Ärzte sollten nicht das Wissen und Denken reduzieren und dadurch ihren ärztlichen Sachverstand verlieren. Die Unterstützung durch Maschinen im Alltag ist sicherlich ein erheblicher Fortschritt. Aber man muss aufpassen, dass das ärztliche Können und Hinterfragen von Diagnosen oder Therapien erhalten bleibt. Die ärztliche Intelligenz ist zwar beschränkt, die künstliche aber auch.

Anmerkung: liebe Leser, dieser Beitrag erschien zuerst auf meinem DocCheck Blog.

Avatar-Foto

Veröffentlicht von

Dr. med. Marlene Heckl arbeitet als approbierte Ärztin und hat an der Technischen Universität München und Ludwig-Maximilians-Universität studiert und promoviert. Seit 2012 schreibt die Preisträgerin des "Georg-von-Holtzbrinck Preis für Wissenschaftsjournalismus" für Ihren Blog "Marlenes Medizinkiste" und veröffentlicht Science-Videos auf Youtube und modernen social-media Plattformen, für die sie bereits mehrfach ausgezeichnet wurde. Für Spektrum der Wissenschaft, Die Zeit, Thieme, Science Notes, DocCheck u.a. befasst sie sich mit aktuellen medizinisch-wissenschaftlichen Themen, die ihr am Herzen liegen. Kontakt: medizinkiste@protonmail.com

3 Kommentare

  1. Gute Darstellung der Unterschiede zwischen alter künstlicher Intelligenz (Expertensysteme, letzlich auch Watson) und der neuen künstlichen Intelligenz basierend auf mehrschichtigen neuronalen Netzen, ein Gebiet des maschinellen Lernens, das man deep learning nennt. Doch deep learning ist nicht auf das Auswerten von Bildern beschränkt, obwohl es stimmt, dass sogenannte convolutional neural networks, die (unter anderem) Bilder auswerten, die frappierendsten Erfolge des deep learnings sind.
    Nein, viel allgemeiner als Bildverarbeitung verarbeitet deep learning vielmehr fast beliebigen Input so, dass es den am besten passenden Ouput aus einem bekannten Set von „wahren“ Input/Outputpaaren findet. Beispiel: wenn deep learning die im obigen Beispiel zum „Bauchgefühl“ von einem Art erhobenen Daten wie auskultatorischer Befund, Anamnese, Lungenbefund, Temperatur, Puls, Blut- und Speichelbefund kennt und wenn das deep learning-Programm mit tausenden von Testdaten trainiert wurde, die zu einem Befundset die Krankheit angeben, dann ist das deep learning-Programm schliesslich (mit genügend Training) besser in der Diagnose/dem weiteren Vorgehen als der Arzt. Deep Learning Systeme haben gerade ein besseres Bauchgefühl als Menschen, das Bauchgefühl ist gerade ihre Stärke. Menschen schneiden da viel schlechter ab, weil Menschen kaum je hunderttausende von Fällen übersehen, das neuronale Netz aber genau mit 100‘000 Fällen oder mehr trainiert wurde. Zudem sind Menschen in Sachen wie Statistik und Korrelationswahrscheinlichkeiten einem Computer grundsätzlich unterlegen. Dennoch kann heute ein Arzt besser abschneiden als ein deep learning System, vor allem, weil das deep learning System den Patienten ja nie sieht, sondern nur Daten sieht, die typischerweise von Menschen erhoben wurden und wo auch ein Mensch entschieden hat, was überhaupt untersucht wird. Die Stärke von deep learning Systemen ist das Finden von „tiefen“ Zusammenhängen zwischen Daten und Kategorisierungen, Einordnungen. Die Schwäche von deep learning Systemen ist dagegen ihre Unfähigkeit zu logischem Denken, zu Schlussfolgerungen und zu Common Sense. Während es für einen Arzt beispielsweise auch ohne Training sofort klar ist, dass es ein Problem sein kann, wenn die Patientin alle ihre Schlaftabletten auf einmal geschluckt hat, ist das für ein deep learning System nicht von vornherein klar. Das „weiss“ es erst nach entsprechendem Training. Mit andern Worten, dass deep learning System weiss nichts über unsere Welt und kann keinerlei Schlussfolgerungen ziehen – ausser es wurde für einen bestimmten Zusammenhang trainiert.
    Man kann mit Sicherheit sagen, dass Künstliche Intelligenz aus den obengenannten Gründen vorläufig Allgemeinärzte nicht ersetzen kann. Gewisse Spezialdisziplinen können aber tatsächlich unters Messer kommen, vor allem Spezialdisziplinen, die von vornherein nur mit Daten und nicht mit Patienten zu tun haben. Die Auswertung von radiologischen Bildern könnte tatsächlich früher automtisiert sein als wir heute denken.

    • Ergänzung: trotz frappierenden Erfolgen von deep learning Systemen in der Medizin, wie etwa, dass sie häufiger die richtige Diagnose Pneumonie aus einem Thoraxröntgenbild stellen können als selbst Radiologen haben diese Systeme auch frappierende Schwächen. Das liegt einfach daran, dass deep learning Systeme immer mit einer bestimmten Domäne arbeiten (beispielsweise Röntgenbildern oder ein fest definiertes Set von Patientendaten), sie aber (heute) nicht in der Lage sind Querbezüge zu anderen Bereichen/Domänen herzustellen – vor allem dann nicht, wenn ein Querbezug nur über Schlussfolgerungen oder Analogien möglich ist. Ein deep learning System kann deshalb keine Synopsis, keine Gesamtschau des Falls machen, wenn man unter Synopsis versteht, dass man alles was man über den Patienten weiss und was man über seinen Fall vermutet und schon gedacht hat, auf einen Punkt bringen will. Hier versagen deep learning Systeme kläglich – letzlich, weil sie nicht denken können und sie nichts über unser Leben als Menschen auf dieser Welt verinnerlicht haben. Das gilt nicht nur für medizinische Anwendungen, sondern generell. Das deep learning Programm, das den Go-Weltmeister geschlagen hat, kann nicht nur nicht Schach spielen, es hat nicht einmal eine Ahnung, was Schach überhaupt ist. Es ist sogar noch schlimmer. Heutige deep learning Systeme können nicht dazulernen, ihr Wissen für eine bestimmte Domäne also erweitern. Vielmehr müssen sie mit dem erweiterten Datensatz noch einmal die ganze Trainingsphase durchmachen. Die im obigen Artikel gemachte Aussage:

      Auf der Basis vorhandener Informationen kann das System das Erlernte außerdem immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Es lernt quasi aus den eigenen Fehlern und wird mit jedem Misserfolg noch besser.

      stimmt deshalb nur bedingt, sie gilt nämlich nur in der Trainingsphase. In der Phase der Anwendung des Gelernten (der sogenannten Inferenzphase) lernen heutige deep learning Systeme nichts mehr dazu, wobei es aber exoperimentelle Systeme gibt, die mit gewissen Kniffs auch dies schaffen.

  2. „Deep learning“ kann wie oben beschrieben, oft besser klassifizieren als ein Arzt, also beispielsweise mit grösserer Sicherheit sagen, ob ein Lungenröntgenbild eine Pneumonie zeigt oder nicht.
    Allerdings kann ein typischer “Deep learning”-System nicht sagen, warum eine Pneumonie vorliegt. Das allerdings ist für die Kommunikation mit Menschen von entscheidender Bedeutung, denn wenn jede Begründung für ein Urteil fehlt, dann fehlt das Vertrauen in denjenigen, der urteilt. Es fehlt also das Vertrauen in die Maschine. Es gibt mehrere Versuche, solchen “Deep Learning”-Systemen beizubringen, ihre Urteile zu begründen. Häufig wird das mit Bildern, Pfeilen etc. gemacht. Doch noch besser scheint eine sprachliche Begründung wie bei menschlichen Radiologen anzukommen und das Vertrauen in die Urteilsfähigkeit des Systems zu erhöhen. Der arxiv-Artikel Producing radiologist-quality reports for interpretable artificial intelligence berichtet über ein solches sprachlich begründendes System, welches Hüftgelenksfrakturen einstuft.
    Während ein menschlicher Radiologe beispielsweise die Beschreibung “There appears to be a subtle intertrochanteric L hip fracture” abgibt, liefert das “deep learning”-System folgenden Satz: “There is a moderately displaced intertrochanteric fracture of the left neck of femur.”

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +