KI erkennt asymptomatische Covid-19-Verläufe – am Husten

MIT-Forscher haben eine Künstliche Intelligenz trainiert, die am erzwungenen Husten von Menschen mit einem asymptomatischen Covid-19-Verlauf erkennen kann, ob diese Menschen SARS-Cov-2-positiv seien. Bei einem asymptomatischen Verlauf zeigen Infizierte eben keine Symptome. Doch die KI kann an ihrem Husten trotzdem das Virus erkennen, und das bei “sichtbar” Erkrankten mit 98,5 % richtig. Die asymptomatisch Infizierten kann die Maschine mit 100 % richtig bestimmen, doch etwa 17 % der nicht Infizierten werden leider falsch positiv bestimmt.

Bild von Gerd Altmann auf Pixabay

Somit zeigen auch Infizierte mit für uns unsichtbaren Symptomen der Krankheit Merkmale, die eine Maschine an ihrem Husten ausmachen kann. Irgendwas macht das Virus mit uns schon, auch wenn wir keine äußeren Symptome aufweisen.

Die KI wurde mit Tausenden Hustenaufnahmen trainiert, die den MIT-Wissenschaftlern eingeschickt worden waren. Sollte eine solche App bald breit einsetzbar sein, kann jeder Mensch vor dem Gang in die Schule oder in die Arbeit oder zu einer Veranstaltung diese App in seinem Smartphone erzwungen anhusten, und die KI sagt ihm dann:

“Du bist kein SARS-Cov-2-Träger und kannst gern den KI-Vortrag von diesem Tschechen Konecny besuchen, ohne Angst haben zu müssen, andere Leute anzustecken.”

Und wir Bühnenleute könnten unsere Brötchen weiter verdienen, ohne Angst haben zu müssen, dass die ganzen mühsam klar gemachten Veranstaltungen wieder mal davon galoppieren.

Titelbild: Ausschnitt eines Bildes von Pete Linforth auf Pixabay.

Avatar-Foto

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Künstliche-Intelligenz-Forschung schreiben. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Zur Zeit bin ich Fachdozent für Künstliche Intelligenz an der SRH Fernhochshule und der Spiegelakademie, KI-Keynote-Speaker, Schriftsteller, Bühnenliterat und Wissenschaftskommunikator. Auf YouTube kümmere ich mich um die Videoreihe unserer SRH Fernhochschule "K.I. Krimis" über ungelöste Probleme und Rätsel der Künstlichen Intelligenz.
 
U. a. bin ich zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erschien bei Digital Publishers.
 
Mein Sachbuch über Künstliche Intelligenz "Ist das intelligent oder kann das weg?" erschien im Oktober 2020.
 
Im Tessloff-Verlag erscheinen meine von Marek Blaha wunderschön illustrierten Kinderkrimis "Datendetektive" mit viel Bezug zu KI, Robotern und digitalen Welten.
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-).
 
Jaromir

22 Kommentare

  1. Wir alle verraten über die Art zu atmen, den Geruch des Atems und von Körperflüssigkeiten oder über die Art wie wir sprechen sehr viel über uns und die Krankheiten, die uns gerade befallen haben – und auch über vieles mehr. Das zeigen schon Studien mit Hunden, über die man folgendes liest:

    In einer finnischen Studie haben Hunde gelernt, den markanten Geruch der COVID-19-Infektion zu erkennen. So könnten die Tiere in Zukunft Infizierte in Pflegeheimen oder an Flughäfen ausmachen.
    ….
    Bestimmte Krankheiten scheinen eine spezifische Geruchssignatur zu haben, die darauf trainierte Hunde mit erstaunlicher Genauigkeit erschnüffeln können, so Barrett. “Brustkrebs zum Beispiel können die Hunde laut einer Studie mit einer Wahrscheinlichkeit von 93 Prozent erkennen. Außerdem Lungenkrebs mit einer Wahrscheinlichkeit von 97 Prozent.”
    Aber auch Hautkrebs, Darmkrebs, Eierstockkrebs oder Prostatakrebs könnten Hunde sehr zuverlässig identifizieren. “Gerade in den letzten Jahren ist da die Trefferquote enorm angestiegen, die in den Anfangszeiten des Trainings noch nicht so gut war”, sagt Barrett.
    Trefferquote entscheidend
    Neben Krebs können die Hunde auch Parkinson erkennen. Ein Parkinson-Patient riecht anders, sogar schon Jahre, bevor er die Krankheit hat.

    Die hier erwähnte KI-Applikation, die Covid-19 am Husten erkennt, war ursprünglich dazu trainiert worden Alzheimer zu erkennen (Zitat, übersetzt von DeepL):

    Mit ihrem neuen KI-Rahmenwerk speiste das Team Audioaufnahmen ein, auch von Alzheimer-Patienten, und stellte fest, dass es die Alzheimer-Proben besser identifizieren konnte als bestehende Modelle. Die Ergebnisse zeigten, dass Stimmbandstärke, Empfindungsvermögen, Lungen- und Atemleistung sowie Muskelabbau zusammengenommen wirksame Biomarker für die Diagnose der Krankheit darstellen.

    Ausblick: Heute werden Videoaufnahmen auf öffentlichem Boden teilweise bereits automatisch ausgewertet und das unter Einsatz von Programmen künstlicher Intelligenz. In naher Zukunft könnte man sich vorstellen, dass eine Kombination von Video, Audio und Geruchsdetektoren einen quasi „feinstofflichen“ Fingerabdruck eines Passanten erstellen kann – einen Fingerabdruck, der sehr vieles verrät, von Krankheiten bis zu Stimmungen und Persönlichkeitsmerkmalen.

    Vision: Stellen sie sich vor ein Bekannter besucht sie abends und er schaut beim Hauseingang in die Einlass-Kamera und spricht sein „Hallo“ ins Mikrofon wobei sein Atem von einem hyperempfindlichen Sensor aufgefangen und analysiert wird. Wenn er schliesslich eingelassen wird, sind diese Spuren, die er hinterlassen oder abgegeben hat, schon alle von multiplen KI-Applikationen analysiert worden, so dass sie ihn nun situationsgemäss empfangen können. Beispielsweise mit einem doppelten Scotch. „Ich glaub, du könntest das jetzt gut gebrauchen, mein Freund“ könnten sie ihn dann empfangen. Und ja. Sie wüssten jetzt sehr viel über ihren Freund und über das was er gerade durchgemacht hat und noch durchmachen wird und sie werden vielleicht denken: der arme Kerl

    • Martin Holzherr: “Heute werden Videoaufnahmen auf öffentlichem Boden teilweise bereits automatisch ausgewertet und das unter Einsatz von Programmen künstlicher Intelligenz. In naher Zukunft könnte man sich vorstellen, dass eine Kombination von Video, Audio und Geruchsdetektoren einen quasi „feinstofflichen“ Fingerabdruck eines Passanten erstellen kann – einen Fingerabdruck, der sehr vieles verrät, von Krankheiten bis zu Stimmungen und Persönlichkeitsmerkmalen.”

      Jaromir: Das würde aber massiv gegen den Schutz unserer persönlichen Daten verstoßen. 🙂 Sie haben aber recht: Die Grenzen der Anwendung der neuronalen Mustererkennung liegen nur in unserer Phantasie (frei nach Kaz Sato :-)).

  2. Das ist spannend. Was kann aus erzwungenem Husten herausgelesen werden?
    Es sagt auch etwas über die spezifische Wirkung einer Covid-19 Infektion auf den Hals-Nasen-Rachen Raum, einschließlich der Stimmbänder, bis hinunter zur Lunge aus. Da Covid-19 auch Nerven und Gehirn angreift, häufig ist ja von aussetzendem Geruchs- und Geschmackssinn die Rede, wäre nicht auszuschließen, dass sich auch die “Koordination” des erzwungenen Hustens durch den Einfluss der Infektion verändert.
    In diesem Fall könnte sich ein für Corona spezifisches Muster eventuell auch in gesprochenen Sätzen der Versuchspersonen finden lassen.

    • Das ist eine gute Idee, finde ich. Ich habe mir da weiter keine Gedanken gemacht. Auch die Art des Hustens muss aber vom Gehirn gesteuert werden. Den Gedanken der spezifischen Muster im Gesprochenen aufgrund der Infektion finde ich gar nicht so abwegig. Danke für den interessanten Hinweis!

      • Vielen Dank, für das freundliche, und prompte Feedback. Ich verfolge ihren interessanten Blog mit großem Interesse.

  3. Falls die Erkennungsquote wirklich 98,5% ist, hätte sich das logistische Problem der Schnelltests ja erledigt. Man erweitere die Corona- App um ein Spracheingabenmodul und schicke den erzwungenen Husten direkt in die mit KI ausgestattete Cloud. Oder so ähnlich.

    • Ja! Dran habe ich auch gedacht. Nur verstand ich nicht, warum die Erkennung von den asymptomatischen Infizierten noch besser ist als die der wirklich Erkrankten – 100 %. Vielleicht ist es aber nur ein Zufall, dass hier die Statistik so passte. 1,5 % ist kein großer Unterschied.

  4. Aus dem Abstract der Studie: “For asymptomatic subjects it achieves sensitivity of 100% with a specificity of 83.2%.”

    D.h. rund 17% aller Nicht-infizierten werden fälschlich positiv getestet, sodass bei (selbst aktuell) deutlich unter 1% COVID-19-Infizierten in der deutschen Bevölkerung eine von der von der KI als infiziert bewertete Person mit sehr hoher Wahrscheinlich (> 94%ig) tatsächlich nicht infiziert ist.

    • Sorry, es sollte am Ende natürlich heißen:

      “…eine von der KI als infiziert bewertete Person mit sehr hoher Wahrscheinlichkeit (> 94%ig) tatsächlich nicht infiziert ist.”

      (Leider funktioniert bei mir die Vorschau nicht…)

      • Künstliche Intelligenz als Orakel und Enthüller versteckter Warheiten
        KIs, die aus scheinbar unspezifischen Daten erstaunliche Schlüsse ziehen wie es die die Diagnose von Alzheimer oder Covid-19 ist, machen immer wieder Schlagzeilen. Es gibt aber auch Menschen, die auf bestimmten Gebieten wo die meisten versagen, herausragen. So versagen fast alle Konjunkturexperten oder fast alle, die politische oder technische Entwicklungen vorhersagen – ausser die sogenannten Superforecaster mit denen sich beispielsweise das Good Judgement Project beschäftigt hat.

        Letztlich steckt hinter dem Phänomen des Decodierers, des Zeichenlesers, der in Daten, die eigentlich allen zugänglichen sind, etwas zu lesen versteht, was anderen verschlossen bleibt, nichts Magisches, sondern nur eine überdurchschnittliche Fähigkeit zum Trennen von Spreu und Weizen, zum Herausfiltern der wirklichen Botschaft aus dem Datenmüll, der uns umgibt.

        Künstliche neuronale Netze scheinen wie die Superforecaster in der Lage zu sein, Daten auf vernünftige Weise zu vervollständigen und so fortzusetzen, dass sie sinnvolle Voraussagen für die unmittelbare Zukunft machen. Der MIT-Review Artikel AI has cracked a key mathematical puzzle for understanding our world gibt ein weiteres Beispiel dafür. Es berichtet von einem KI-Programm, das die Lösungsfunktion von partiellen Differentialgleichungen auf erstaunlich gute Art und Weise „erahnt“. Im Artikel wird auch gut erklärt, was der Output eines KNNs eigentlich darstellt (Zitat, übersetzt von DeepL):

        Das erste, was hier zu verstehen ist, ist, dass neuronale Netze grundsätzlich Funktionsapproximatoren sind. (Wie bitte?) Wenn sie an einem Datensatz aus gepaarten Ein- und Ausgängen trainieren, berechnen sie eigentlich die Funktion oder eine Reihe von mathematischen Operationen, die die eine in die andere transponieren. Denken Sie darüber nach, einen Katzen-Detektor zu bauen. Sie trainieren das neuronale Netz, indem Sie es mit vielen Bildern von Katzen und Dingen, die keine Katzen sind (die Eingänge), füttern und jede Gruppe mit einer 1 bzw. 0 kennzeichnen (die Ausgänge). Das neuronale Netz sucht dann nach der besten Funktion, die jedes Bild einer Katze in eine 1 und jedes Bild von allem anderen in eine 0 umwandeln kann. So kann es ein neues Bild betrachten und Ihnen sagen, ob es sich um eine Katze handelt oder nicht. Es verwendet die gefundene Funktion, um seine Antwort zu berechnen – und wenn es gut trainiert hat, wird es die meiste Zeit richtig liegen.

        Praktischerweise ist dieser Prozess der Funktionsannäherung genau das, was wir brauchen, um eine partielle Differentialgleichung zu lösen. Letztendlich versuchen wir, eine Funktion zu finden, die, sagen wir, die Bewegung von Luftteilchen über physikalischen Raum und Zeit am besten beschreibt.

        • Nach dem universellen Approxiamtionstheorem von George Cybenko UAT (1989) kann ein künstliches neuronales Netz (KNN) mit nur einer verdeckten Schicht mit einer endlichen Anzahl von Neuronen jede stetige Funktion approximieren: Wenn es also einen funktionellen Zusammenhang zwischen den Daten eines Datensatzes gibt, kann ein KNN diese finden – vorausgesetzt der Datensatz ist groß genug.

          Zuerst sollte man sich aber vergegenwärtigen: Das universelle Approximationstheorem zeigt, dass KNN grandios Muster und Merkmale des Datensatzes innerhalb seines Trainingsbereichs erfassen. Das heißt: Ein KNN-Modell, das NUR mit Bildern von Katzen und Hunden auf ihre Klassifizierung hin trainiert wurde, kann nicht plötzlich Meerschweinchen erkennen. Wenn man die Daten eines Meerschweinchen-Bildes in dieses KNN speist, würde das Modell das Meerschweinchen entweder als einen Hund oder eine Katze bestimmen. Das hat mit Intelligenz nichts zu tun. Trotzdem leisten uns KNN in den Bereichen, auf denen sie trainiert wurden, großartige Dienste, die wir Menschen oder unsere regelbasierte Programme nicht leisten können: Wir sind nun mal nicht in der Lage, so wie KNN Muster in Abermillionen von Daten (Zahlen) zu erfassen.

          Obwohl nach dem UAT schon eine verdeckten Schicht von Neuronen ein gutes Näherungsverfahren für alle stetigen Funktionen darstellt, reicht ein solches Modell nicht, um komplexe Probleme der realen Welt zu behandeln. Hier müssen tief lernende neuronale Netze her, mit mehr verdeckten (tiefen) Schichten: Zum Beispiel kann eine neuronale Schicht Abhängigkeiten zwischen den einzelnen Pixeln eines Katzenbildes erschließen, doch um abstraktere Zusammenhänge des Bildobjekts zu verarbeiten, müssen weitere Schichten dazu kommen: Die erste Schicht setzt die Pixel zu einfachen Strichen in bestimmten Richtungen zusammen, die zweite Schicht baut aus diesen Strichen etwas abstraktere Formen wie Kurven und kompliziertere Linien, diese werden in der dritten Schicht zu Mustern auf dem Katzenfell, Schnurrhaaren, Pfoten usw. zusammengesetzt, bis in der letzten Schicht eine Katze herauskommt – ein tief lernendes neuronales Netz lernt bei seinem Training hierarchische Repräsentationen der Merkmale der verarbeiteten Objekte zu erschließen. Je tiefer die Schicht, umso komplexer (abstrakter) sind diese Merkmale.

          • @Jaromir Konecny zu KNNs als trainierbare Funktionen/Funktionsapproximatoren. KNNs sind so erfolgreich, weil ihr Output (also der Funktionswert, den sie liefern) im Training optimiert/verbessert werden kann und das allein aufgrund des Fehlers/der Abweichung vom erwarteten Wert wobei eine Korrektur der Gewichtungen/Parameter des KNNs automatisch an den richtigen Stellen entlang des Pfades vom Input zum Output erfolgt, so dass mit fortgesetztem Training ein lokales Optimum erreicht wird.
            Der Deep-Mind-Artikel FermiNet: Quantum Physics and Chemistry from First Principles zeigt eine unerwartete Anwendung von KNNs als trainierbate Funktionsapproximatoren: in Ferminet (dem Netzt für das Finden der Wellenfunktion von Systemen von gebundenen Elektronen) wird durch Training die richtige Funktion für die quantenmechanische Wellenfunktion gefunden. Beispielsweise die richtige Wellenfunktion für Bindungselektronen in einem Molekül. Dazu liest man im eben verlinkten Text:

            FermiNetze sind universelle Funktionsapproximatoren, zumindest im Grenzfall, in der die Schichten des neuronalen Netzes breit genug werden. Das bedeutet, dass diese Netze, wenn wir sie richtig trainieren können, in der Lage sein sollten, die nahezu exakte Lösung der Schrödinger-Gleichung zu approximieren. Wir passen das FermiNet an, indem wir die Energie des Systems minimieren. Um das genau zu tun, müssten wir die Wellenfunktion bei allen möglichen Konfigurationen von Elektronen auswerten, also müssen wir es stattdessen näherungsweise tun.

            Der Artikel berichtet, dass Ferminet bessere Resultate für die Elektronenverteilung in schwierigen Situationen findet als andere bisherige Ansätze und dass die KNN-Funktionsapproximation besser funktioniere als eine Linearkombination von Basisfunktionen zu optimieren.

            Fazit: KNNs sind erstaunlich gute, trainierbare Funktionsapproximatoren gerade in komplexen, nicht linearen Situationen. Sie können etwas so schwieriges wie die „richtige“ Chemie erraten.

            Ausblick: die richtige Chemie (im übertragenen Sinne) ist sehr oft wichtig. Mit der „richtigen“ Chemie lässt sich vielleicht sogar die ganze Welt verstehen und modellieren.

  5. Ja, das sind wirklich großartige Neuigkeiten. KI ist jetzt die Zukunft. Wir hoffen, dass sich dies in naher Zukunft weiter verbessern wird.

  6. Das ganze habe ich für eine Art Aprilscherz gehalten, als ich das hier gelesen habe, oder für einen Marketinggag. Ein Virus mit sehr unterschiedlicher Symptomatik, von Husten über Schnupfen bis Geschmacksbeeinträchtigung, die eben nicht bei allen Infizierten auftreten, soll bei allen (!), also sogar bei denen ohne jede Symptomatik, das künstliche Husten beeinflussen? Und eine KI soll das dann auch wieder zu 100 % erkennen können!?

    Das erste halte ich für medizinisch ausgeschlossen, das zweite für technisch, bei allem Respekt für das, was KI mittlerweile leisten kann.

    Weil jetzt laut Spiegel die Grünen fordern, die Bundesregierung sollte in diese Richtung aktiv werden und zum MIT Kontakt aufnehmen, meine Frage: hat sich das bisher tatsächlich noch immer nicht aufgeklärt? Oder konnten zwischenzeitlich die Ergebnisse in irgendeiner Form auch nur annähernd reproduziert werden?

  7. Hier einmal die Anteile der COVID-19 relevanten oder häufig genannten Symptome:

    Husten 41%
    Fieber 31%
    Schnupfen 25%
    Halsschmerzen 21%
    Pneumonie 2%
    Geruchs- oder Geschmacksverlust 21%

    Quelle: Situationsbericht des RKI vom 17.11.2020 (pdf).

    Damit sollte klar sein, dass das Virus individuell offensichtlich sehr unterschiedliche Auswirkungen hat.

    Könnte es zwar plausibel sein, dass sich künstliches Husten etwas anders anhört, wenn eine der Symptomatiken auftritt, wird allerdings für die Husten-App ja vorausgesetzt, dass das sogar schon bei allen asymptomatischen Fällen geschieht. Es soll etwas geben, dass das Virus auslöst, was Änderungen an der Lunge, den Stimmbändern oder wo auch immer bewirkt, was zu charakteristischen Lautverschiebungen bei künstlichem Husten führt.

    Leider fehlt eine Erklärkomponente bei Neuronalen Netzen, die für uns Menschen nachvollziehbar machen könnte, was denn dieses Charakteristikum überhaupt ist, so dass wir auch nicht gezielt nach Ursachen forschen könnten, Entzündungen von Nerven, Muskeln oder ähnlichem (ohne ausgeprägte Symptomatik).

    Nehmen wir um des Arguments willen an, es gäbe eine solche Charakteristik. Da wäre doch zumindest zu erwarten, dass aufgrund der Unterschiedlichkeit von uns Menschen diese in verschiedenen Ausprägungen auftritt. Manchmal halt auch sehr schwach. Die indirekte Wirkung des Virus wird durch technische Beschränkungen bei der Aufnahme des Hustens sicher noch weiter verstärkt. Und trotzdem soll die Husten-App zu fast 100 % das Charakteristikum erkennen. Das ist einfach zu schön, um wahr zu sein.

    Dort werden keine FakeNews verbreitet

    Auch mir erscheinen die Quellen vertrauenswürdig. Ich möchte hier nicht spekulieren und erst recht nichts unterstellen. Meine Skepsis bleibt.

    • Joker: “Auch mir erscheinen die Quellen vertrauenswürdig. Ich möchte hier nicht spekulieren und erst recht nichts unterstellen. Meine Skepsis bleibt.”

      Jaromir: Vor 30 Jahren sagte mir ein Zen-Meister: “Skepsis ist immer gut!” 🙂

      Ich finde es richtig, wie Sie herangehen. Das meine ich ernst.

      Das Virus hat tatsächlich sehr unterschiedliche Auswirkungen. Diese Auswirkungen sind jedoch wahrscheinlich durch den jeweiligen Infizierten gegeben. Man sieht ja auch, dass bestimmte Vorerkrankungen bestimmte heftige Symptome nach sich ziehen. Die App analysiert aber nur ein Symptom – das Husten. Wenn es typische Merkmale des Hustens eines Infizierten gibt, würde ein geeignetes künstliches neuronales Netz diese Merkmale finden. Auch Merkmale, die menschliche Experten nicht wahrnehmen können. Da SARS-Cov-2 vor allem die Lunge angreift, finde ich die Idee gar nicht so abwegig, dass es im Husten solche spezifischen feinen Muster gibt. Auch bei den asymptomatischen Fällen. Die sind nur für uns sichtbar asymptomatisch. Was jedoch genau biochemisch in diesen Menschen vorgeht, wissen wir nicht. Was zum Beispiel im Körper alles beeinflusst wird, wenn die Immunabwehr gegen das Virus mobilisiert.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +