KI im Weltraum und ihre irdischen Perspektiven


Der Zufall wollte es, dass in der bayerischen Metropole vor kurzem gleich zwei ganz unterschiedliche Konferenzen über Künstliche Intelligenz stattfanden: Zuerst einmal die 3.500 Teilnehmer lockende Veranstaltung des Marktführers für Visual Computing, NVIDIA, im Münchner Messegelände: die sogenannte GPU Technology Conference, ein jährlich stattfindender internationaler Mammut-Treffpunkt der KI-Szene, jedes Jahr an einem anderen Ort des Globus. Demgegenüber fand das von IBM, TÜV Süd und dem Munich Network organisierte Event im repräsentativen Watson-Center mit seinen weniger als 200 Experten in geradezu intimem Rahmen statt. Für mich hat die Präsenz auf beiden komplementären Experten-Treffen einiges an Lernwert erbracht, die ich hier in zwei Reportagen auch zum Besten gebe. Erstmals habe ich etwas genauer nachvollziehen können (zugegebenermaßen auf sehr hoher Abstraktionsebene), was KI ist und – vor allem – was Begriffe wie Machine Learning, neurale Netze und Deep Learing unterscheidet, Begriffe, die heute in der breiten öffentlichen Diskussion eher kunterbunt durcheinander purzeln.

Zuerst einmal: KI ist nicht gleich KI, sondern ein Überbegriff, der zwei ganz unterschiedliche Ansätze enthält. Das Machine Learning steht noch ganz in der Tradition klassischer Programmierkunst – gemeint: Zwar werden auch im Machine Learning Systeme mit großen Mengen von Inputdaten gefüttert – das, was wir heute Big Data nennen. Identische Algorithmen können also abhängig von unterschiedlichen Dateninputs durchaus zu anderen Lerneffekten und damit auch zu abweichenden Problemlösungen führen – typisch für die KI generell. Aber: Ist eine Software erst einmal fertig, das System also in Betrieb genommen, dann führt der gleiche neue Dateninput stets zum identischen Ergebnis der Problemlösung. Das macht auch Sinn. Für die Industrie der aufstrebenden Version 4.0 beispielsweise ist es zweifellos vorteilhaft, denn die Routinen von Industrierobotern sollen schnell und vor allem präzise ausgeführt werden und sich nicht im Lauf der Zeit durch weiteres Lernen unkontrolliert oder gar kreativ verändern. Also: Alles bleibt beim Machine Learning ganz deterministisch. Erst mit neuronalen Netzen, also jener KI, die mit sogenannten Deep-Learning-Algorithmen operiert und eine ganz andere Art der Programmierung erfordert, wird Künstliche Intelligenz zu dem, was die meisten beim Schlagwort KI im Kopf haben: zu einem offenen System, das auch im Betrieb stets weiter lernen kann. Für Anwendungen in der Medizin ist das beispielsweise extrem hilfreich, denn die Fütterung mit laufend neu entstehenden Daten führt dazu, dass solche Systeme aus dem ständig wogenden Datenmeer – beispielsweise von Tumoren – immer schneller und auch immer besser „Erkenntnisse“ gewinnen können, die dem menschlichen Experten entgehen. Allerdings, dass das so funktioniert, dazu ist nicht nur ein spezieller, immer noch digital arbeitender Algorithmus erforderlich, sondern auch eine ganz andere Architektur, die dem dreidimensionalen neuronalen Netz eines Gehirns nachempfunden ist.

Wie beim Machine Learning werden auch beim Deep Learning alle Daten in Bezug zueinander gesetzt, und diese Relationen aufgrund ihrer gefundenen Wahrscheinlichkeit gewichtet. Aber im neuronalen Netz können beispielsweise Gewichtungen, die sich im Lauf der Zeit als extrem seltene Sonderfälle herausgestellt haben, auch wieder „vergessen“ werden. Doch das ist nicht der einzige Unterschied vom Machine zum Deep Learning. Die KI-Systeme lernen auch im laufenden Betrieb weiter, jeder neue Dateninput kann das vorhandene Weltmodell und so auch die Entscheidungsfindung beeinflussen.

Das Anlernen von Systemen ist im Deep Learning heute noch sehr schwierig und hat nach Aussage der Experten viel Trial and Error zur Grundlage. Auch der Dateninput stellt Entwickler vor große – und vor allem zeitraubende – Herausforderungen. Denn die Systeme müssen mit sogenannten strukturierten Daten trainiert werden – und die in extrem großer Zahl, alle klar definiert und meist aufwändig manuell aufbereitet, mit dem, was der Fachmann klassifizierte Bilder nennt. So sitzen heute beispielsweise in Indien zahllose Supporter, die nichts anderes tun, als Bilder für die KI unterschiedlicher Bauherren – gemeint: Weltkonzerne – in erforderlicher Weise zu strukturieren. Um sich eine Größenvorstellung zu machen: Die Experten sprechen beispielsweise davon, dass ein KI-System, das Hunde von Katzen unterscheiden kann, in der Regel mit Bildern in der Größenordnung von hunderttausenden oder einer Million gefüttert werden muss. Dieser Prozess der Erkennung von relevanten Strukturmerkmalen wird Parametrisierung genannt. Anhand der Algorithmen entwickelt das System daraus ein sogenanntes „Weltmodell“ – in diesem Fall also das spezielle Weltmodell für die Unterscheidung von Hunden und Katzen, mehr nicht. Erst nach diesem aufwendigen Training kann das System mit 90-prozentiger Sicherheit entscheiden, ob ein beliebiges wahrgenommenes Objekt ein Hund oder eine Katze ist. Das Ergebnis dieses Lernvorganges wäre dann beispielsweise ein neuronales Netz, das in der Lage ist, eine elektrische Katzenklappe zu steuern und nur Katzen, vielleicht sogar nur der eigenen Katze Zugang zu gewähren, die Klappe für andere Tiere jedoch nicht zu öffnen. Im Lauf des Betriebs würde die Wahrscheinlichkeit, mit der das System die Klappe falsch bedient, weiter gegen Null tendieren.

Der neueste Trend: Inzwischen werden neuronale Netze sogar schon mit neuronalen Netzen verbunden, die für Spezialaufgaben ausgelegt sind, beispielsweise der, aus der Parametrisierung von Inputdaten eines anderen neuronalen Netzes eine große Zahl von fiktiv variierten Bildern bestimmter Objekte zu erzeugen. So lässt sich das Training beschleunigen – und die manuelle Arbeit eindämmen, die nach Industrieaussage rund 80 Prozent des Aufwandes für ein funktionsfähiges neuronales Netz darstellen kann. Im benannten Beispiel produziert das angeschlossene neuronale Netz anhand der gelernten Merkmale eine Vielzahl von digital variierten Katzen- oder Hundebildern und stimmt diese permanent mit den vom anderen Netzwerk erlernten Bildmustern ab und lernt dadurch selbst für die Generierung der Bilder. So kann damit auch die Gewichtung der Bilder dieser zwei kooperierenden neuronalen Netze direkt beeinflussbar. Man nennt solche Verbindungen, in denen sich neuronale Netze selbst trainieren, GANs für Generative Adverserial Networks. High-end mit Perspektive: Nicht mehr der Mensch, sondern ein neuronales Netz prüft die Qualität eines neuronalen Netzes.

Wohin das führen wird, ist immer offensichtlicher: Mit den neuronalen Netzen haben wir nicht nur den vorhersehbaren Determinismus der Handlungen von KI-Systemen hinter uns gelassen, sondern auch das Tor für Systeme geöffnet, die sich zunehmend der Kontrolle durch den Menschen entziehen. Noch steckt all das in den Kinderschuhen. Die Forschung hat viele Fragen zu klären, darunter, was das beispielsweise künftig auch für die Haftung bedeutet, sogar die ethische Problematik rückt nun in den Vordergrund. Das Thema wirft auch weitere Konflikte auf. Wenn ein Weltmodell mit ganz unterschiedlichem Dateninput lernt, sind es dann zwei verschiedene Systeme – und ab welchem Zeitpunkt ist der „Übergang“ zu definieren? Kein Gelehrter hat heute darauf eine allgemein akzeptierte Antwort, von irgendwelchen Regulierungen juristischer Art noch ganz zu schweigen. Für Juristen tut sich jedenfalls mit neuronalen Netzen eine ganz neue und noch unübersehbare Spielwiese wissenschaftlicher Debattierfelder auf. Und der altehrwürdige TÜV Süd will sogar bei der Zertifizierung solcher KI-Systeme, die auch solche rechtlichen Fragen mit einschließt, sein heutiges Terrain in bisher unbekannte Weiten ausdehnen. Wie genau das gehen soll, ist derzeit noch ziemlich offen. Für den TÜV mit seiner 150-jährigen Geschichte eine ganz neue Herausforderung, die schon etwas von Pioniergeist hat!

Mehr zu all dem in meinen beiden Reportagen, die hier eingebunden sind.

Die Sprechertexte für die Sendungen gibt es wie immer bei HYPERRAUM.TV – für die Reportage über die NVIDIA-Konferenz hier – und über die IBM/TÜV Süd/Munich-Network-Konferenz hier.

Veröffentlicht von

Ich habe viele Jahre journalistisch im Bereich Wissenschaft und Technologie gearbeitet, später dann mit meiner kleinen Beratungsfirma als Medienexpertin. 2010 erfüllte ich mir meinen großen Traum und gründete den Spartensender HYPERRAUM.TV, für den ich eine medienrechtliche Rundfunklizenz erteilt bekam. Seither mache ich als One-Woman-Show mit meinem „alternativen TV-Sender“ gewollt nicht massentaugliches Fernseh-Programm. Als gelernte Wissenschaftshistorikern habe ich mich gänzlich der Zukunft verschrieben: Denn die Vergangenheit können wir nur erkennen, die Zukunft aber ist für uns gestaltbar. Wir sollten versuchen, nicht blind in sie hinein zu stolpern!

9 Kommentare Schreibe einen Kommentar

  1. Machine Learning umfasst gemäss Wikipedia alle Formen lernender Software, also auch Deep Learning. Deep Learning ist nur gerade die neueste Ausprägung von Machine Learning (Zitat Wikipedia, übersetzt von DeepL) Machine Learning (ML) ist die Untersuchung von Algorithmen und mathematischen Modellen, mit denen Computersysteme ihre Leistung bei einer bestimmten Aufgabe schrittweise verbessern.
    Artificial Intelligence wiederum will wie der Name schon sagt, intelligente Agenten schaffen, die selbständig Probleme lösen können und die dazu auch lernen wobei sie dabei wohl,Techniken des Machine Learning in Anspruch nehmen. Intelligenz umfasst aber wohl mehr als nur Lernvorgänge, denn sonst wäre jemand nur so intelligent wie ergelernt hat, was aber nicht unseren Erfahrungen enspricht. Hier nun die Wikipedia-Definition von Artificial Intelligence (übersetzt von DeepL): In der Informatik wird KI-Forschung definiert als die Erforschung von “intelligenten Agenten”: jedes Gerät, das seine Umgebung wahrnimmt und Maßnahmen ergreift, die seine Chancen auf eine erfolgreiche Zielerreichung maximieren[1] Umgangssprachlich wird der Begriff “künstliche Intelligenz” verwendet, wenn eine Maschine “kognitive” Funktionen nachahmt, die Menschen mit anderen menschlichen Köpfen verbinden, wie “Lernen” und “Problemlösen”[2].
    Deep Learning wiederum ist eine Methode, die Eingabedaten über mehrere Zwischenstufen (also tief) in eine höhere, abstraktere Form bringt, und mit der End-to-Learning möglich ist, was bedeutet, dass die Antwort des Deep Learning Systems auf ein Katzenbild beispielsweise folgende sein könnte: „Milch trinkende Katze“. Was in den Zwischenschichten eines Deep Learning Netzes genau geschieht muss man nicht wissen um das System zu trainieren, dafür genügt ein genügend grosses Datenset genügend grosser Qualität. Im allgemeinen weiss man das auch nicht genau und es ist schwierig zu bestimmen. Deep Learning, Drei Dinge, die Sie wissen sollten Kann ich jedem empfehlen, der möglichst viel,in möglichst kurzer Zeit über Deep Learning wissen möchte.

  2. Korrektur zu obigem Kommentar, Es muss heissen: Deep Learning wiederum ist eine Methode, die Eingabedaten über mehrere Zwischenstufen (also tief) in eine höhere, abstraktere Form bringt, und mit der End-to-End- Learning möglich ist, und nicht End-to-Learning, wie ich geschrieben habe. End-to-End-Learning bedeutet, dass wir ein System haben das am einen Ende Eingabedaten hat und am andern Ende Ausgabedaten und es braucht keinen manuellen Eingriff in die Zwischenschichten um das gewünschte Ergebnis zu erhalten Früher war das völlig anders. In früheren Systemen haben die Zwischenschichten Features wie Kanten extrahiert und der menschliche Programmierer musste dann mit diesen Kanten etwas anstellen.

  3. Im zweiten Video kommen vor allem Anwender des Deep Learning zum Einsatz und Anwendungsmöglichkeiten, aber auch Probleme, die mit diesen Anwendungen verbunden sind, gibt es viele. Sogar Prof. Dr. Damian Borth, KI-Forscher der Universität St. Gallen tritt als angewandter Forscher auf und spricht von Problemen der Datenauswahl und der Manipulation mit Schaddaten (Schadsoftware ist nicht mehr nötig, Schaddaten, Fake-Daten genügen um das System versagen zu lassen).

    Warum dieser Anwendungs-Hype? Ganz einfach, weil mit Deep Learning mit entsprechender Hardwarebeschleunigung (denn DeepLearning frisst Computerleistung) nun ein ganzer Berg von Problemen gelöst werden kann, deren Lösung vorher Menschen vorbehalten war oder die man überhaupt nicht angehen konnte.
    Den eigentlichen KI-Forschern ist aber bewusst, dass Deep Learning erst ein erster Schritt ist auf dem Weg zu menschenähnlichem Verhalten beim Lösen komplexer Probleme. Dazu gehört beispielsweise die Fähigkeit, Entscheidungen begründen zu können, aber auch die Fähigkeit aus Daten zu lernen ohne dass die Daten mit Lösungsmarken gekennzeichnet sind. Menschen erkennen beispielsweise ohne weiteres, dass etwas eine Frucht ist, selbst wenn sie den Namen der Frucht nicht kennen. Maschinen dagegen können das bis heute nicht, womit ihnen fast alle Daten, die es gibt, verschlossen bleiben.
    Joshua Bengio, einer der drei Begründer des DeepLearning sagt zur Weiterentwicklung von Deep Learning und zu KI im allgemeinen im Artikel What’s next for AI unter anderem folgendes:
    – Lernen aus unmarkierten Daten und ohne menschliche Hilfestellung wäre grossartig, denn es gibt heute unendlich viel Daten, aber kaum Daten, deren Bedeutung hinterlegt ist.
    – Sprache verstehen und erzeugen zu können würde das Arbeiten mit Computern auf eine ganz neue Basis stellen
    – Das Erkennen und Formulieren von Konzepten durch AI wäre grossartig, doch das liegt wohl noch in ferner Zukunft.

    Heute wird das Bild in der Öffentlichkeit einerseits durch spektakuläre Forschungsleistungen beispielsweise durch Lösungen der privaten Forschungsfirma DeepMind geprägt (wie AlphaGo/AlphaZero), andererseits durch die immer breitere Anwendung von Deep Learning-Techniken beispielsweise in Sprach- und Fahrassistenten oder bei der Suche in Suchmaschinen. Doch das vermittelt insgesamt ein zu optimistisches Bild, denn die Systeme können in Wirklichkeit viel weniger als es scheint. Wenn man die Entwicklung des Deep Learning als Masstab nimmt, kann es noch mehrere Jahrzehnte dauern, bis wir Systeme haben, die wirklich menschenähnlich agieren, denn die Anfänge von Deep Learning gehen auf die späten 1980er Jahre zurück.

  4. Lady, forever young mit KI und zelltypspezifisch pseudoviralen Nanobots. Könnten wir längst haben, weil nahezu Alle anspruchsvoll studieren können. Wir haben neuronale Plastizität und dümpeln stattdessen mittelalterlich vor uns hin. NI endlich global verbessern, was auch KI aufblühen lässt.

  5. Der ganze KI- und Deep Learning Hype erzeugt einTohuwabohu an nur halb verstandenen Begriffen, die auch Anleihen bei der Science Fiction oder/und beim apokalyptischem Denken machen. Dies schreibt auch Susanne Päch (Zitat): Erstmals habe ich etwas genauer nachvollziehen können (zugegebenermaßen auf sehr hoher Abstraktionsebene), was KI ist und – vor allem – was Begriffe wie Machine Learning, neurale Netze und Deep Learing unterscheidet, Begriffe, die heute in der breiten öffentlichen Diskussion eher kunterbunt durcheinander purzeln.
    In starkem Gegensatz dazu stehen die teilweise sehr klaren Gedanken von KI-Pionieren wie Joshua Bengio, von dessen Forschungsseite ich hier zitieren möchte (übersetzt von DeepL):
    Mein langfristiges Ziel ist es, die Mechanismen zu verstehen, die zu Intelligenz führen; das Verständnis der zugrunde liegenden Prinzipien würde künstliche Intelligenz liefern, und ich glaube, dass Lernalgorithmen für diese Aufgabe unerlässlich sind.
    Algorithmen des maschinellen Lernens versuchen, Maschinen die Fähigkeit zu verleihen, operatives Wissen anhand von Beispielen zu erfassen, z.B. damit eine Maschine in neuen Fällen richtig klassifizieren oder vorhersagen kann. Die Forschung zum maschinellen Lernen war in den letzten zwei Jahrzehnten äußerst erfolgreich und wird heute in vielen Bereichen von Wissenschaft und Technologie eingesetzt, darunter einige bekannte Beispiele wie Web-Suchmaschinen, natürliche Sprachübersetzung, Spracherkennung, Machine Vision und Data-Mining. Dennoch scheinen Maschinen in vielerlei Hinsicht immer noch nicht einmal die Intelligenz auf Säugetierebene zu erreichen. Eine der verbleibenden Grenzen des maschinellen Lernens besteht darin, die Daten zu verstehen, d.h. die zugrunde liegenden Variationsfaktoren zu entwirren. Dies erfordert das Erlernen komplizierter und sehr unterschiedlicher Funktionen, wie sie notwendig sind, um Aufgaben der maschinellen Bildverarbeitung oder der Verarbeitung natürlicher Sprache auf einem mit Menschen vergleichbaren Niveau (auch mit einem Zweijährigen) durchzuführen.

  6. Vor Jahren erzeugte ich am PC mit PHP rekursive functions, die sich je nach Parametern selbst ergänzen und eigene functions erzeugen, die wiederum von völlig anderen functions genutzt werden. Dann ließ ich die Finger weg: es gab Festplattenkrebs, lach. Konsequentes Vergessen wäre erforderlich gewesen. Als witzigen Kommentar schrieb ich damals u.a. “rekursiv files mit functions einbauen und ergänzen, wenig Genutztes überschreiben, verbessern oder löschen, Verknüpfungskomplexität laufend vereinfachend optimieren – Abstraktionspool operativ explizieren, parallel-sequenzielle neuronale Subalgorithmen prognostisch flexibilisieren – sich verändernde Verbindungen – teils eher statisch”.

  7. Symptome des KI- und Deep Learning Hypes gibt es sogar in der KI-Szene selbst. So wird – wie Susanne Päch oben detailliert beschreibt – selbst in der Szene zwischen Machine Learning und Deep Learning unterschieden – obwohl eigentlich klar ist dass Deep Learning einfach die neueste Machine Learning – Methode ist. Die folgende Unterscheidung (Zitat Susanne Päch):
    Das Machine Learning steht noch ganz in der Tradition klassischer Programmierkunst … Die KI-Systeme [KI==DeepLearning] dagegen lernen auch im laufenden Betrieb weiter, jeder neue Dateninput kann das vorhandene Weltmodell und so auch die Entscheidungsfindung beeinflussen.
    dient vor allem dazu Deep Learning auf einer neuen Evolutionsstufe anzusiedeln – der Stufe der selbstständig lernenden Software. Doch in der Realität vermeidet man dieses Dazulernen während des laufenden Betriebs meistens, gerade bei sicherheitskritischen Anwendungen wie dem selbstfahrenden Auto, denn letztlich haftet bei einem Unfall nicht das selbstlernende Auto, sondern der Hersteller – und der kann sich bei Fehlverhalten des Autos nicht damit herausreden, das Auto habe einfach einen schlechten Charakter, wahrscheinlich abgefärbt vom schlechten Charakter des Autobesitzers.

    Die Idee hinter der Unterscheidung zwischen Machine Learning und Deep Learning ist letztlich vergleichbar mit der Unterscheidung zwischen den Propheten vor Jesus (einfach Eintagsfliegen, noch im alttestamentarischen Denken behaftet) und dem neuen Propheten Jesus, der eine neue Ära begründet und ein neues Kapitel in der Menschheitsgeschichte aufschlägt. Die alten Propheten, das ist das klassische Machine Learning, der Erlöser aber, das ist Deep Learning. Ja, so ist es. Meiner Meinung nach geht es beim KI- und Deep Learning Hype auch um ein religiöses Phänomen. Es wundert deshalb nicht, dass auch Luzifer nicht weit entfernt ist – in Form der sich im schlimmsten Fall stelbständig machenden Deep Learning Software nämlich, die eine Singularität einleitet, in der die Menschenwelt dann ebenso hoffnungslos veraltet ist, wie die klassiche Machine Learning Software heute.

  8. Der AI-Hype wird sicher bald mal abklingen und vielleicht im Tal der Desillusionierung enden, vor allem dann, wenn sich herausstellt, das Deep Learning Software nicht die Zuverlässigkeit erreicht, die beispielsweise für das autonome Fahren nötig ist. Tatsächlich kann man ein Computer-Vision-System, das allein auf Deep Learning beruht, heute auf geradezu gefährlich einfache Art täuschen und es zu völligen Fehlwarnehmungen verleiten. Das schliesst autonomes Fahren nicht aus, weil nur wenige Aspekte des autonomen Fahrens zwingend Deep Learning benötigen (beispielsweise die Interpretation der Gesten eines Verkehrspolizisten), doch ein wegen Sicherheitsgründen nur beschränkt möglicher Einsatz von Deep Learning beim autonomen Fahren würde den KI-Apologeten sicherlich einen Dämpfer verpassen.
    Es wird auch immer deutlicher, dass Deep Learning allein keine künstlich intelligenten Systeme ermöglicht, die wirklich verstehen, was um sie herum passiert. Auch das wird im Artikel What Happens if AI Doesn’t Live Up to the Hype? angesprochen.
    Doch etwas scheint sicher: Einen völligen KI-Winter, in dem die Investitionen in AI für längere Zeit eingestellt werden, wird es nicht geben: Dazu gibt es zuviele sinnvollle Anwendungsmöglichkeiten von Deep Learning oder wie Yann LeCun (Entwickler der Bildverarbeitung basierend auf Deep Learning) sagt (übersetzt von DeepL): “Es gibt im Moment eine riesige Industrie rund um die aktuelle Technologie des maschinellen Lernens und das geht nicht weg”

  9. @Martin Holzherr

    Der AI-Hype wird sicher bald mal abklingen und vielleicht im Tal der Desillusionierung enden, vor allem dann, wenn sich herausstellt, das Deep Learning Software nicht die Zuverlässigkeit erreicht, die beispielsweise für das autonome Fahren nötig ist.

    In der Tat, es wird interessant sein, ob die Prognosen der deutschen Autobauer einhalten können, die ja nun – meiner Meinung nach auch, um vom Diesel-Debakel abzulenken – voll auf den AI-Zug aufgesprungen sind. Habe heute dazu ein sehr interessantes Gespräch mit dem KI-Experten Sepp Hochreiter geführt, dazu mehr in Kürze.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +