Mit Künstlicher Intelligenz an die Weltspitze – Die Sicht der deutschen Bundesregierung

Vor etwas mehr als zwei Jahren wurde die breite Öffentlichkeit vom Sieg des Google-Computers AlphaGo über den Go-Weltmeister Lee Sedol überrascht. Blitzartig wurde vielen klar, wie weit die Lernalgorithmen der Künstlichen Intelligenz (KI) bereits sind. Denn beim Go-Spiel kommt es auf Intuition und Kreativität weitaus mehr an als auf stures Rechnen. Entsprechend ist AlphaGo nicht nur ein schneller Rechner, sondern besteht vielmehr aus einer unvorstellbar grossen Zahl von lernenden – man ist versucht zu sagen: lebendigen – neuronalen Verbindungen, die Lern- und Denkprozesse des menschlichen Gehirns direkt nachahmen. Der Computer wurde mit unzähligen historischen Go-Partien gefüttert und lernte aus diesen ganz neue Strategien des Spiels, die selbst Experten noch nie gesehen  hatten. Damit war klar: Die der heutigen KI zugrunde liegenden Lern-und Optimierungsverfahren (das so genannte „deep learning“) ermöglichen eine massive maschinelle Intelligenzsteigerung in die Breite. Zukünftige Computer werden nicht mehr nur ausschliesslich den bestimmten Zweck bewältigen, für den sie konstruiert wurden, z.B. Schach spielen oder Datenbanken durchstöbern, sondern auf einem sehr viel ausgedehnteren Gebiet einsatzfähig sein.

Wie schnell diese Entwicklung verläuft, zeigt die Weiterentwicklung von AlphaGo. Nur 18 Monate nach AlphaGos Sieg über den besten menschlichen Spieler hatte Google bereits eine neue Version einer Go spielenden künstlichen Intelligenz geschaffen. AlphaGo Zero brauchte nun gar nicht mehr mit alten Spielen gefüttert zu werden, um seine Spielstärke zu erreichen. Wie der bekannte Dr. B. aus Stefan Zweigs Schachnovelle liessen ihn seine Entwickler nur noch gegen sich selbst spielen und so lernen. Bereits nach drei Tagen, in denen er 4.9 Mio. Partien gegen sich selbst spielte, hatte AlphaGo Zero eine Fertigkeit im Go-Spiel erreicht, die ihn seinen noch auf realen Partien ausgebildeten Vorgänger AlphaGo in 100 Spielen mit 100 zu Null besiegen liess. Einer der Erschaffer von AlphaGo und AlphaGo Zero, Demis Hassabis, sprach im Anschluss davon, dass eine KI wie AlphaGo Zero so mächtig sei, weil sie “nicht mehr durch die Grenzen des menschlichen Wissens beschränkt” sei. Damit wird immer klarer:  Die Forschung auf dem Gebiet der künstlichen Intelligenz strebt eine maschinelle Intelligenz an, die menschliche Intelligenz auf breiter Basis zu übertreffen vermag.

Was die meisten Menschen allerdings noch gar nicht auf ihrem Radarschirm haben: KI ist längst Teil unseres Alltags. Computer mit KI-Software optimieren heute den Energieverbrauch in Industrieanlagen, erstellen Krebsdiagnosen, schreiben auf Knopfdruck sekundenschnell journalistische Texte, beraten Bankkunden bei ihrer optimalen Anlagestrategie und helfen Juristen bei der Bearbeitung komplexer Rechtsfälle. Sie lesen Kundenbriefe und E-Mails von Verbrauchern und erkennen dabei den Grad der Verärgerung der Absender, und Computer unterhalten sich in Call-Centern am Telefon wie menschliche Mitarbeiter. KI schreibt sogar gesamte Plots für Filme, komponiert Sinfonien und Opern und malt im Stil von echten Meistern. Und KI-gesteuertes „Kognitives Kochen“ könnte der nächste grosse kulinarische Trend werden.

Und all dies macht die KI nicht schlechter als menschliche Experten: So schneiden KI-Algorithmen zur Mustererkennung bei der Diagnose von Hautkrebs bereits so gut ab wie Hautärzte. Und KI gesteuerte Maschinen sind auch handfertig: Der OP-Roboter „Smart Tissue Autonomous Robot (STAR)“ übertrumpft bei chirurgischen Eingriffen an Schweinen in puncto Präzision schon menschliche Chirurgen.

Die Bedeutung von KI für unsere Zukunft  hat nun auch die deutsche Bundesregierung erkannt. Auch wenn dies reichlich spät geschah, gebührt ihr dafür Lob. Die Geschichtsschreibung in 10 Jahren wird kaum noch das Drama um die Person des Fussballers Mesut Özils kennen oder die Politik-Folklore eines Horst Seehofers, welche die Republik seit einigen Wochen in Atem halten. In 50 Jahren wird Merkels Flüchtlingspolitik aus dem Jahr 2015 vergessen und in 100 Jahren vielleicht Angela Merkel selbst nur noch Historikern bekannt sein. Aber mit sehr hoher Wahrscheinlichkeit werden Schüler im Jahr 2118 im Geschichtsunterricht lernen, dass die 2010er und 2020er Jahre den epochemachenden Durchbruch der KI in unser Alltagsleben sahen. In Anbetracht dieser Entwicklung erscheint der Ausspruch der Bundesforschungsministerin Anja Karliczek doch ein wenig flach: „Künstliche Intelligenz hält Einzug in unseren Alltag und wir wollen, dass diese Technik den Menschen hilft“.

Wer den Bericht Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz liest, wird von wohligen Worten nur so überflutet. Da steht zum Beispiel, dass „sowohl Forschung und Entwicklung als auch Anwendung von KI in Deutschland und Europa auf ein weltweit führendes Niveau“ gebracht werden sollen. Des Weiteren soll „KI Made in Germany“ zum weltweit anerkannten Gütesiegel werden. Oder: Wirtschaftliche Wertschöpfung aus der Anwendung von KI soll „zum Nutzen der Bürgerinnen und Bürger in den Fokus der Bemühungen gestellt werden“, und „KI-basierte Geschäftsmodelle“ sollen in Deutschland entwickelt und zu neuen Exportschlagern gemacht werden. Auch von Sicherheit, Privatsphäre, Risikominimierung, Fokussierung auf den Menschen, sozialer Teilhabe und sogar „ethischen und rechtlichen Grenzen der Nutzung künstlicher Intelligenz“ ist die Rede. Doch all dies bleibt sehr vage.

Der Bericht erkennt klar an, dass Deutschland und Europa beim Thema KI ins Hintertreffen geraten ist. Andere Staaten wie die USA und China haben ihr besonderes Potenzial längst erkannt und eigene nationale KI-Strategien und -Programme entwickelt. Es wurde also Zeit für eine solche Initiative der Bundesregierung. Leider beschränkt sich der Bericht insgesamt grösstenteils auf hehre Worten ohne viel konkreten Inhalt. Es wimmelt geradezu von Phrasen wie “Innovation fördern”, “Vernetzung herstellen”, “Talente anziehen”, „neue Geschäftsmodelle entwickeln“, „Kompetenzzentren ausbauen“, usw. Nur wer genau liest, entdeckt den einen oder anderen konkreten Plan. So sollen ein TechGrowth-Fund eingerichtet, das Programm EXIST für Existenzgründungen aufgestockt und neue KI-Lehrstühle gefördert werden.

Im Allgemeinen betrachtet der Bericht das Gebiet KI mehr als ein Ingenieursthema als eine wissenschaftliche Disziplin, die grundlegendere Fragen aufwirft. Das ist schade, doch entspricht dies dem bekannten eingeschränkten Wissenschaftsverständnis der Bundesbildungsministerin Anja Anja Karliczek: Wissenschaft und Forschung haben der Wirtschaft zuzuarbeiten. Universitäten und Wissenschaftseinrichtungen werden als blosse Zulieferer der Unternehmen gesehen, aus denen vor allem technologische Innovationen generiert werden müssen.

Entsprechend geht der Bericht der Bundesregierung gar nicht weiter auf mögliche weitaus dramatischere und gefährliche Auswirkungen der KI ein. Der Begriff „Gefahr“ taucht darin überhaupt nicht auf. Zwar spricht man von einer „menschenzentrierten Entwicklung und Nutzung von KI-Anwendungen“, vom Ziel eines „hohen Niveaus an IT-Sicherheit, damit Manipulation, Missbrauch und Risiken für die öffentliche Sicherheit dieser sensitiven Technologie bestmöglich verhindert werden“ oder auch ganz allgemein von „Transparenz schaffen“. Doch all das klingt wirklichkeitsfremd. Hier fehlt der Mut zur klaren Aussage. So mancher echter KI-Experte scheut vor solchen nicht zurück. Der KI-Pionier Stuart Russel zeichnet das drastische Bild von uns Menschen in einem Auto, welches auf eine Klippe zufährt und wir dabei hoffen, dass der Benzintank leer ist, bevor wir in den Abgrund stürzen. Wie Elon Musk behauptet auch Russel, dass KI für den Menschen so gefährlich werden kann wie Nuklearwaffen. Experten betteln daher teils förmlich um staatliche Rahmengesetze und Regulierungen. Dahinter steckt ihre ernste Sorge, dass politische Entscheidungsträger die technologischen Entwicklungen verschlafen, sie nicht ernst genug nehmen oder, wie in den allermeisten Fällen, sie überhaupt nicht verstehen. Genau dies verdeutlicht leider auch der neue Bericht der Bunderegierung auf geradezu exemplarische Weise: Der wissenschaftlich-technologische Fortschritt besitzt unterdessen eine derart rasante und komplexe Entwicklungsdynamik, dass er sich dem Vorstellungs- und Gestaltungsraum der allermeisten politischen und gesellschaftlichen Entscheidungsträger entzieht.

Man merkt schnell, dass das Papier von Politik-Beamten geschrieben wurde und nicht von KI-Experten und -Wissenschaftlern. Ein klein wenig Hoffnung macht nichtsdestotrotz, dass der Bundestag Ende Juni parallel eine Enquete-Kommission “Künstliche Intelligenz” eingesetzt hat, um die mit der KI-Technologie verknüpften Chancen, Potenziale und Risiken mit echten Experten zu diskutieren. Auch soll auf der Basis des Berichtes das Thema auf Expertenworkshops und Fachforen weiter diskutiert werden und dann auf dem Digitalgipfel am 3. und 4. Dezember 2018 eine detailliertere Strategie vorgestellt werden. Immerhin ist dann keine Fussball-WM, und mit Rücktritten prominenter Nationalspieler ist nicht zu rechnen. Und wer weiss, vielleicht hat Deutschland bis dahin auch einen anständigen Innenminister. Hoffen wir, dass die weitergehende Diskussion auch nur annähernd die Aufmerksamkeit erhält, die das Thema verdient.

Veröffentlicht von

wwww.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

18 Kommentare Schreibe einen Kommentar

  1. Das Deutsche Forschungszentrums für künstliche Intelligenz hat immerhin 880 Mitarbeiter und auch das Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (IAIS) beschäftigt sich mit Machine Learning. Gegenüber den USA und China ist dennoch eine grosse Kluft festzustellen, vor allem weil in den USA und auch schon in China auch an Hardwarelösungen für viel schnellere neuronale Netze herumexperimentiert wird. Deutschland fehlt also die Breite, weil Deutschland bereits die Chipentwicklung verpasst hat. Zudem gibt es in den USA neben den Internetgiganten Google, Facebook und Apple eine grosse Zahl von privaten Firmen, die im Gebiet tätig sind und vielversprechende KI-Firmen weltweit wurden zudem von beispielsweise Google aufgekauft (dazu gehört die ursprünglich britische Firma DeepMind). Deutschland kommt also etwas spät – und wer zu spät kommt, den bestraft das Leben.

  2. In der Zukunft werden nicht mehr Menschen an der Front kämpfen, es werden Drohnen und Roboter ausgerüstet mit KI sein. diese Waffen lassen sich reproduzieren und sind billiger als der Mensch. Es gibt jetzt schon Drohnen, die sich ihr Ziel selbst suchen. Der einfachste weg an dieser Entwicklung zu partipizieren wäre sich in solche Unternehmen einzukaufen.

  3. Zitat: Wie Elon Musk behauptet auch Russel, dass KI für den Menschen so gefährlich werden kann wie Nuklearwaffen. Experten betteln daher teils förmlich um staatliche Rahmengesetze und Regulierungen.
    1) Fast jede fortgeschrittene Technologie kann sogar ohne weiteres weit gefährlicher werden als Nuklearwaffen, dann nämlich, wenn diese Technologie nicht nur wenigen sondern vielen – beispielsweise jedem Experten auf dem betreffenden Gebiet – zur Verfügung steht. Der britische königliche Astronomer Martin Rees gibt als Beispiel die Vision seines Freundes Freeman Dyson, bald schon könne jeder mit einem Hobbyset seinen eigenen Organismus aufgrund eines selbstgebastelten Genoms zusammenbasteln. Wenn es wirklich soweit ist, werden die 7 biblischen Plagen Kinderkrams sein im Vergleich zu dem was dann kommt. Martin Rees glaubt deshalb, dass das 21. Jahrhundert sowieso das letzte Jahrhundert der Menschheit sei. Wenn eine künstliche Intelligenz die Macht übernimmt wäre das in Martin Rees sogar der bestmögliche Ausgang, denn dann bliebe mindestens ein Produkt des Menschen übrig.
    2) Experten betteln daher teils förmlich um staatliche Rahmengesetze und Regulierungen. Wie will man etwas regulieren, was man überhaupt nicht kennt. Nur schon die Annahme, gerade die künstliche Intelligenz sei das gefährlichste was der Mensch je schaffen wird, ist nicht sehr überzeugend. Sie basiert wohl einfach auf der Annnahme, dass das was den Menschen über die Tierwelt erhebt – seine grosse allgemeine Intelligenz nämlich – dürfe niemals in einem künstlichen geschaffenen Wesen realisiert werden, weil es dann dem Menschen überlegen sei. In unzähligen Science-Fiction Filmen wurde das schon durchexerziert. Für mich ist aber ist Arnold Schwarzenegger (Terminator) nicht der gefährlichste Mensch oder das gefährlichste Wesen, das es je gegeben hat oder geben wird.

  4. Die grösste Gefahr für eine Menschheit, die das 21. Jahrhundert überlebt, sind nicht hyperintelligente Maschinen, sondern hyperkontrollierende Regime wie in China. Es könnte nämlich sein, dass solche Regime wie in China, die die Gesellschaft und das Privatleben immer mehr unter Kontrolle bringen und überwachen, absolut nötig werden um der Gefahr zu begegnen, die von den steigenden technischen Möglichkeiten selbst kleiner Gruppen oder einzelner Forscher ausgeht.
    Am Ende des 21. Jahrhunderts könnte die Menschheit entgegen den Annahmen von Martin Rees also immer noch existeren – nur würde dann jeder Gedanke jedes Individuums von der überwachenden Gesellschaft mitgehört um sicherzugehen, dass niemand auf dumme Ideen kommt.

  5. “Man merkt schnell, dass das Papier von Politik-Beamten geschrieben wurde und nicht von KI-Experten und -Wissenschaftlern. ”
    Zum Glück, die reinen Experten neigen gerne dazu, die politischen Fragen zu übersehen. Unser Problem ist eher, daß sich zu wenige Politker einfach mal selber in was reinarbeiten, Expertenberatung inklusive. Perfektes Verständnis ist dabei nicht erforderlich, ein guter Überblick hingegen schon.

  6. Alpha Go/Alpha Go Zero sind Forschungsprodukte der Firma DeepMind, die wiederum Google gehört. Firmen wie Google, Baidu, Tencent, Apple, IBM, Facebook und die von ihnen aufgekauften spezialisierten AI-Firmen sind heute zugleich Zentrum der AI-Forschung als auch direkte AI-Anwender. Es gibt zwar auch universitäre Zentren, wo AI-Themen im Zentrum stehen, beispielsweise in Kanada (eines der frühen AI-Zentren), Grossbritannien, Deutschland, den USA und China. Die Öffentlichkeit erfährt aber am meisten über AI-Forschung und ihre Anwendungen über die zuerst erwähnten IT-Firmen und Ableger dieser Grossfirmen (wie Deep Mind). AI ist zudem kein reines Softwarefeld, sondern vielmehr ist es Hardware getrieben und hardware-limiert. Erst die GPUs der Firma NVIDIA (Pascal-,Volta-,Tesla) haben das Potenzial der bereits seit den 1990er Jahren (oder noch früher) exisiterenden Deep-Learning-Systeme basierend auf mehrschichtigen neuronalen Netzwerken aufgezeigt und diese Systeme echtzeitfähig gemacht. Vorher liefen Trainingsläufe viele Wochen und Anwendungen waren ein Thema für die Zukunft.
    Damit wird schnell klar, dass die Ausgangslage für ein Land wie Deutschland alles andere als ideal ist. Denn in Deutschland gibt es allenfalls Ableger von Google, Facebook, Apple etc, aber keine vergleichbaren deutschen Firmen, die nebenbei noch AI-Forschung betreiben und die ihre eigene Software mit immer mächtigeren AI-Tools aufpeppen. Auch auf AI-Hardware spezialisierte Firmen oder überhaupt Hardwarefirmen, die AI auch im Blickfeld haben wie ARM (Advanced Risk Machine, Grossbritannien), gibt es in Deutschland meines Wissens nicht.
    Die nationale AI-Strategie Deutschlands muss also bei der universitären Forschung und ihrem Transfer in die Industrie ansetzen und/oder sie beschränkt sich auf Regulierungen und Gesetze, die dann für alle und vor allem für die zu Beginn aufgelisteten Grossfirmen und ihre europäischen und deutschen Ableger gelten.

  7. Um Ziele bei der Entwicklung künstlicher Intelligenz setzen zu können, braucht es eine Sicht darauf, was künstliche Intelligenz ihrem Wesen nach ist und welche Entwicklungsgenerationen sie durchläuft. A DARPA-Perspective on Artificial Intelligence macht genau dies.
    Elemente künstlicher Intelligenz sind dort:
    1)Wahrnehmung, 2) Lernen, 3) Verallgemeinern, 4) Schlussfolgerungs- und Denkprozesse basierend auf 1) bis 3)
    In der ersten Generation der künstlichen Intelligenz wurde vor allem Expertenwissen digitalisiert, womit Schlussfolgerung und Denprozesse dominierten. Die 2Generstion arbeitet mit statistischer Auswertung grosser Datenmengen und der Klassifizierung der darin auftretenden Entitäten. Wahrnehmung und Lernen sind die Stärken dieser Deep Learning Systeme, Verallgemeinern und Schlussfolgern ist aber nicht ihre Stärke und sie sind generell unzuverlässig im Einzelfall. Die dritte Generation von AI-Systemen wird durch konzeptuelle Adaption an eine Umgebung und ihre Veränderungen gekennzeichnet sein und diese Systeme werden erklärende Modelle heranziehen um die Welt zu verstehen. Beispiel: das System erkennt eine Katze in einem Bild weil die Karze im Bild Attribute besitzt, die zu einer Katze gehören.

  8. Zitat: Blitzartig wurde vielen klar, wie weit die Lernalgorithmen der Künstlichen Intelligenz (KI) bereits sind. Denn beim Go-Spiel kommt es auf Intuition und Kreativität weitaus mehr an als auf stures Rechnen.
    Das ist natürlich nichts anders als geschicktes Marketing DeepMinds und Googles. Genau so soll die Öffentlichkeit reagieren. Sie soll google Software als kreativ, intuitiv und als dem Menschen letztlich gar überlegen wahrnehmen. Dabei sind AlphaGo/AlphaGoZero nichts anderes als Algorithmen, die rein deterministisch auf ein einprogrammiertes Ziel hinarbeiten ohne dass sie sich später daran erinnern könnten, ohne dass sie dabei irgend etwas empfänden oder erlebten. Wenn am Schluss irgendein Roboterarm in die Höhe schiesst um den Sieg zu feiern, so kann man sicher sein, dass das von einem Menschen einprogrammiert wurde. Das sagt also nichts über den inneren Zustand der AlphaZero Maschine aus, denn da wo beim Menschen ein innerer Zustand, eine Gefühlswelt und so etwas wie ein Geist wäre, da ist bei AlphaZero nichts, also Zero (passend zum Namen AlphaZero).

    Sicher ist AlphaGoZero ein sehr allgemeiner mächtiger Algorithmus, welcher Monte-Carlo-Spielbäume mit Deep Reinforcement Learning kombiniert und welchem eine grosse Zukunft bevorsteht beispielsweise in der chemischen Synthese (Retrosynthesis, wobei aus einem Zielmolekül und bekannten Teilreaktionen (aus der Literatur) ein Synthesepfad entwickelt wird). Doch mit Prozessen wie sie im menschlichen Hirn ablaufen, hat dieser Algorithmus mit grosser Wahrscheinlichkeit wenig zu tun. Und es ist auch eine Illusion, dieser Algorithmus sei nun in irgendeiner Weise klug und könne bald Donald Trump oder Angela Merkel ablösen.

    Was aber lernen wir aus dem, was uns da von google und Co präsentiert wird. Was sollen wir mitnehmen? Wohl einfach, dass google und Co schon für uns sorgen werden (auch wenn wir es gar nicht wollen) und dass googl&Co für die Zukunft gewappnet sind und wenn es sein muss durchaus die Weltherrschaft ergreifen können. Doch davor müssen wir uns nicht fürchten, denn google ist “gut” und will nur das beste für uns alle (natürlich auch für sich selbst).

  9. Zitat: Damit wird immer klarer: Die Forschung auf dem Gebiet der künstlichen Intelligenz strebt eine maschinelle Intelligenz an, die menschliche Intelligenz auf breiter Basis zu übertreffen vermag.

    Nur dass die Realität gestern und heute weit von den Versprechungen entfernt ist und sich zudem beeindruckende Demos lange nicht überall in beeindruckende Alltagsleistungen übersetzen.
    Ein gutes Beispiel dafür ist IBM Watson, welches auf spektaktuläre Weise solch vertrackte Quiz wie Jeopardy! gewann und dann als medizinisches Expertensystem einen Siegeszug antreten sollte und zwar zeuerst einmal als Krebsspezialist. Doch gerade wurde IBM Watson vom M.D. Anderson Cancer Center nach 4-jähriger Entwicklung (in der es nicht über ein Pilotsystem hinauskam) und 39 Millionen Dollar Ausgaben insgesamt (Kauf und “Ausbildung” des System) aufgegeben, wobei der ursprünglich Vertrag mit IBM gerade mal von 2.4 Millionen Dollar sprach. Der Forbes-Artikel Is IBM Watson A ‘Joke’ gibt Einblick in die Probleme (übersetzt von DeepL):
    Watson benötigt viele Monate mühsamer Schulung, da Experten riesige Mengen an gut organisierten Daten in die Plattform einspeisen müssen, um daraus nützliche Schlüsse ziehen zu können. Und dann kann sie nur auf der Grundlage des Datenkorpus , auf dem sie trainiert wurde, Schlussfolgerungen ziehen.

    Die “gut organisierte” Anforderung ist für Watson eine besondere Herausforderung, da unvorbereitete Datensätze in der Regel unzureichend sind. Daher müssen Watson-Kunden Teams von Fachberatern einstellen, um die Datensätze aufzubereiten – ein zeitaufwändiger und außerordentlich kostspieliger Prozess.

    Watson kann auch keine Verbindungen zwischen verschiedenen Korpora herstellen und ist daher nicht in der Lage, selbst grundlegende Erkenntnisse außerhalb jedes Korpus zu gewinnen. Zum Beispiel wird das Training von Watson in der Onkologie keinen Einblick in Herzerkrankungen geben – ein Misserfolg, der seinen Einsatz im klinischen Umfeld drastisch einschränkt.

    Doch andererseits hat IBM Watson heute echte Konkurrenz durch neuere Systeme und diese neueren, teilweise auf Deep Learning beruhenden System haben die oben beschriebenen Schwächen wie die Notwendigkeit der manuellen Aufbereitung des Literaturwissens und die fehlende Übertragbarkeit von einmal Gelerntem auf andere Systeme nicht mehr so ausgeprägt. Heutige Deep Learning-Systeme sind also State-of-the-Art-Systemen der Nullerjahre (2000 bis 2010) wie Watson bereits deutlich überlegen oder wie man in Forbes liest (übersetzt von DeepL): “Führende maschinelle Lernlösungen, sowohl allgemein als auch gesundheitsspezifisch, entwickeln sich rasant und dürften sowohl von Start-ups und etablierten Technologieunternehmen als auch von innovativen Gesundheitssystemen kommen. Viele dieser Lösungen (Google, Facebook FB, OpenAI) sind offen und für jedermann zugänglich.”

    Übrigens ist AI-Hype nichts neues. Selbst habe ich von IBM vor 15 Jahren einmal ein Angebot für eine Diktiersoftware erhalten, die mit einer Erkennungsrate von 95% beworben wurde, die aber im praktischen Einsatz unbrauchbar war. Dennoch: trotz all dem alten und neuen AI-Hype und den wiederholt übertriebenen Versprechungen, gibt es spürbare Fortschritte im AI-Bereich und was vor 15 Jahren über allen Klee als praktikable AI-Lösung gelobt wurde, das ist 15 Jahre später wirklich einsetzbar.

  10. Und wer weiss, vielleicht hat Deutschland bis dahin auch einen anständigen Innenminister.

    Tja, da ist sie wieder : unnötige kommentarische Niederung bei einem Thema, das allgemein von Interesse ist und nicht parteipolitisch, bundesdeutsch parteipolitisch, bearbeitet werden muss.

    Tja, wer weiß, wie der “multikulturelle Laden” in der BRD alsbald von Bots bearbeitet werden muss, weil das autochthone Personal zahlenmäßig sparsam geworden ist?

    Ergänzend hierzu angemerkt, Zitat, aus dem dankenswerterweise bereit gestelltem WebLog-Artikel, dem nicht inhaltlich sonderlich gegengesprochen werden soll :

    Der Begriff „Gefahr“ taucht darin überhaupt nicht auf.

    Luhmann und andere wussten zwischen Gefahr und Risiko fein zu unterscheiden, es liegt im gemeinten Zusammenhang Risiko vor.

  11. Ganz genau, Herr Holzherr :

    Die grösste Gefahr für eine Menschheit, die das 21. Jahrhundert überlebt, sind nicht hyperintelligente Maschinen, sondern hyperkontrollierende Regime wie in China. Es könnte nämlich sein, dass solche Regime wie in China, die die Gesellschaft und das Privatleben immer mehr unter Kontrolle bringen und überwachen, absolut nötig werden um der Gefahr zu begegnen, die von den steigenden technischen Möglichkeiten selbst kleiner Gruppen oder einzelner Forscher ausgeht.

    China ist ein gutes Beispiel, das aufzeigt wohin chromatische Entwicklung gehen kann, um den Laden sozusagen beisammen zu halten, es gibt nicht “den Chinesen”, sondern China ist ein Vielvölkerstaat, der aus Sicht der Herrschenden zuvörderst zusammengehalten werden muss, Russland wäre ein weiteres Beispiel.

    Allerdings sind auch Teile Europas auf dem Wege durch ungünstige, sich nicht assimilierende Immigration einen ähnlichen Zustand wahlfrei herbei zu schaffen.

    Übrig bleibt dann aus Sicht der Staatenlenker, die gerne auch demokratisch gewählt werden dürfen, der Überwachungsstaat; Herr Dr. Jaeger rappelt sich sozusagen einen ab, um dies klarzustellen, auch wenn er die Ursache diesbezüglicher Bemühung nicht gerne zu nennen scheint.

    Wenn Sie mal genau hinschauen, Herr Holzherr, werden Sie womöglich bemerken, wie sich auch die mediale Landschaft bundesdeutsch zunehmend ändert und sie zu einer Haltungs- und sittlichen Lehrveranstaltung wird.
    Aus nackter Not, denn eigentlich hat die Aufklärung das Hervorkommen der Individuen promoviert, nicht die Herde oder Horde.

    Herr Dr. Jaeger ist aus diesseitiger Sicht korrekt in vielen seiner Analysen, ist abär auch ein “Schlappie”, denn er zeichnet sich selbst, ganz unnötigerweise, als Meinungströte sozusagen, gelegentlich, aus.
    Herr Dr. Jaeger (wir beachten die Vermeidung deutscher Umlaute, sähr gut, wie Dr. Webbaer findet!) darf besser werden, alle dürfen besser werden.

    MFG
    Dr. Webbaer

  12. “Die größte Gefahr für die Menschheit sind nicht hyperintelligente Machinen sondern hyperkontrollierende Regime wie in China…”
    Eigentlich hat sich in der Geschichte der Menschheit immer das wirtschaftlich stärkste System bzw. die ihn tragende Ideologie durchgesetzt. Die ideologischen Träumer des Sozialismus in der Sowjetunion wie in der DDR wurden vom wirtschaftlich stärkeren Westen “totgerüstet”. China bzw. die dieses Land tragende Ideologie befindet sich sozusagen im wirtschaftlichen Konkurenzkampf mit den westlichen wirtschaftlichen und gesellschaftlichen Werten. Vielleicht gehört solchen ” Systemen ” die Zukunft auf dieser Erde ? Je besser ich die Menschen kontrollieren kann, um so besser kann ich als Staat agieren und reagieren … Künstliche Intelligenz als Mittel zur Machterhaltung. Ein Überwachungsstaat ist in dem Sinne durch seine zentralistische Autorität(Diktatur) wahrscheinlich “flexibler” ? Wahrscheinlich befinden wir uns zur Zeit -wieder einmal- im Wettstreit verschiedener Gesellschaftsmodelle. Letztendlich entscheidet wohl das wirtschaftlich erfolgreichere…

  13. China entwickelt sich einerseits im freiheitlichen Sinne, andererseits im Sinne eines zentralistischen autoritär bleibenden Überwachungsstaates.
    Es wird interessant zu beobachten sein, wie es auf die “Herausforderung Trump” reagiert, wobei der aktuelle US-Präsident eine Sprache spricht, die es versteht. (“Rocket-Man” anscheinend ebenfalls.)
    Der Überwachungsstaat wird womöglich eine Notwendigkeit in zunehmend heterogenen Gesellschaftssystemen, in denen sich Personengruppen nicht grün sind, gar nicht grün sind, die dann mehr den Charakter von Imperien annehmen, denn von Nationalstaaten.
    Wird dieser womöglich schlicht notwendige Überwachungsstaat brauchbar demokratisch regiert, ließe es sich hier womöglich auf individueller Basis arrangieren, wobei schön dies nicht wäre, nicht sein könnte, so dass immer einige ausscheren würden und eher homogene Staatengebilde anstrebten, die aus ihrer Sicht mehr Sinn machten.

    Auf die EU bezogen wäre womöglich eher ein Europa der Vaterländer zu präferieren, als ein multikulturelles Gebilde, das gar unter Zuhilfenahme des Imports des Islam Diversität zu verwalten hat, dann auch zu massiver Überwachung greift bis greifen muss, die Gesichtserkennung, wenn sie breit softwaremäßig angewendet wird, ist zum Beispiel keine Kleinigkeit; ansonsten rät Dr. Webbaer den Ausführungen des werten hiesigen Inhaltegebers zu dieser Problematik zu folgen.
    Europa ist ja ein herrlich schönes diverses Gebilde auf wenig Platz, so anderswo auf diesem Planeten nicht vorzufinden, das nicht, gar um seine Kompetitivität zu erhöhen, irgendwie personell “veredelt” werden muss.

    MFG
    Dr. Webbaer

  14. @Golzower (Zitat): Wahrscheinlich befinden wir uns zur Zeit -wieder einmal- im Wettstreit verschiedener Gesellschaftsmodelle. Letztendlich entscheidet wohl das wirtschaftlich erfolgreichere…
    Zustimmung, denn es gilt: Je grösser die Wirtschaftskraft eines Landes/Blockes, desto grösser auch die potenzielle militärische Stärke und desto mehr andere Länder hängen letztlich vom Gorilla (dem Land mit der grössten Wirtschaftskraft) ab.
    Sozialistische/Kommunistische Systeme/Diktatorische Systeme konnten bis jetzt wirtschaftlich nie mit freiheitlichen mithalten, weil in solchen Systemen sich die Produktivkräfte zuwenig entfalten konnten, denn bis heute werden die Produktivkräfte gerade in fortgeschrittenen Systemen stark von Einzelnen bestimmt, die neue Firmen und Technologien gründen. Ein System, welches die Privaten zurückdrängt, muss deshalb wirtschaftlich versagen – besonders in innovativen Sektoren.
    Auch für China gilt das obige. Doch China verhält sich anders als andere nicht-freiheitliche Systeme. China pflegt seit Deng Xiaoping einen Wirtschaftskapitalismus bei gleichzeitigem Regierungskommunismus. Und das funktioniert sogar sehr gut. Der chinesische Staat nutzt seine Macht nun für Projekte wie die neue Seidenstrasse (One Belt, One Road), welches Asien und Afrika mit chinesisch erstellter Infrastruktur entwickeln will, ein Projekt, welches, wenn erfolgreich, sowohl die chinesische Wirtschaft als auch die Staatsmacht stärkt. China hat zudem einen boomenden Internet- und Kommunikationsbereich mit Firmen wie Baidu, Tencent, Alibaba, die sich sehr ähnlich wie ihre US-Geschwister verhalten und die unter anderem auch riesige Investitionen in Zukunftstechnologien wie Artificial Intelligence investieren.
    Welche Rolle wird nun Künstliche Intelligenz in der zukünftigen Machtbalance spielen? Falls Künstliche Intelligenz aus sich heraus Produktivkräfte entwickelt ohne dass es dazu Menschen braucht, dann könnte tatsächlich das Land mit der am weitesten entwickelten Künstlichen Intelligenz zum dominierenden werden. Und tatsächlich hat Putin genau das gesagt wie man etwas im Artikel Putin says the nation that leads in AI ‘will be the ruler of the world’ liest.

    Grundsätzlich ist das möglich, grundsätzlich könnte AI Menschen überflüssig machen und zum ökonomischen und damit auch militärischen Machtfaktor werden. Nur sind wir heute davon noch weiter entfernt als viele meinen, denn wir stecken noch mitten in der AI-Forschung.

  15. Wenn Sie im Google Data Explorer mal die Weltbank-Daten hochkommen lassen, Herr Holzherr, und zwar zum BIP pro Kopf, Dr. Webbaer versucht dies freundlicherweise einmal so, kann aber nicht für die korrekte Abbildung dieser Daten überall garantieren (ansonsten mal selbst den o.g. Explorer bemühen), dann schaut es so aus :

    -> http://www.google.com/publicdata/explore?ds=d5bncppjof8f9_&met_y=ny_gdp_pcap_cd&hl=de&dl=de#!ctype=l&strail=false&bcs=d&nselm=h&met_y=ny_gdp_pcap_cd&scale_y=lin&ind_y=false&rdim=region&idim=country:USA:CHN:RUS&ifdim=region&hl=de&dl=de&ind=false (derartige Parametrisierung derartiger Requests gelingen erfahrungsgemäß nicht überall reproduzierbar, deshalb die obige Einleitung zu diesem guten Stück)


    Ansonsten natürlich volle Zustimmung hierzu – ‘Sozialistische/Kommunistische Systeme/Diktatorische Systeme konnten bis jetzt wirtschaftlich nie mit freiheitlichen mithalten, weil in solchen Systemen sich die Produktivkräfte zuwenig entfalten konnten, denn bis heute werden die Produktivkräfte gerade in fortgeschrittenen Systemen stark von Einzelnen bestimmt, die neue Firmen und Technologien gründen.
    – zu China und Russland vielleicht noch die kleine Anmerkung, dass die Statistiken den Herrschaftssystemen geschuldet nicht stimmen müssen.
    Gerade China gilt hier als recht “trocken”, was das “Bereitschlagen” von Statistik meint.

    “AI” ist eine Technologie, die nicht bestimmend sein muss, wenn sie gelingt, wenn es ansonsten nicht passt, dass dies Putin womöglich anders sieht, wie womöglich auch unsere chinesischen Freunde, überrascht Dr. Webbaer nicht.

    So wie hier die “AI” verstanden wird, macht sie Erkenntnissubjekte nicht überflüssig, weil die “AI” vglw. dull zu bleiben hat, zumindest einstweilen, womit die nächsten Jahrhunderte gemeint sind.
    Gute Nachrichten aus dem Hause “AI” kennen einige seit mehr als 50 Jahren, allerdings scheint sie doch sehr stark daran gebunden :

    -> https://de.wikipedia.org/wiki/Mooresches_Gesetz

    …wobei dann doch Algorithmen aufzusetzen wären, die aus dem guten Gerät etwas herauszuholen in der Lage sind. – Endgültig selbst lernende Algorithmen halten einige für unmöglich, jedenfalls im Zusammenhang mit den Interessen des hier gemeinten Primaten. Abär auch ohne diesem müssen sie nicht selbstig sozusagen extra-fit werden, anderes anzunehmen bliebe nackte Spekulation.


    Soll heißen, die Informationstechnologie mit Anwendungen wird die gesellschaftlichen Zusammenhänge massiv verändern, aber nicht klar absehbarerweise, wie.

    MFG + schönes Wochenende schon einmal,
    Dr. Webbaer

  16. Yup, der Parametrisierung dieser Abfrage ist hier Vorschub geleistet worden, gerne mal händisch sozusagen nach “BIP pro Kopf” und “USA, China und Russland” abfragen…

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +