Künstliche Intelligenz: Gefahr überschätzt?

Die Entwicklung künstlicher Super-Intelligenzen könnten schon bald unser Ende bedeuten. Viele prominente Forscher und IT-Unternehmer, darunter Stephen Hawking und Elon Musk, haben mehrfach vor dieser Gefahr gewarnt.1 Eine Studie der Stanford Universität vom September 2016 sieht das allerdings ganz anders.

Der Mathematiker und Science-Fiction-Autor Vernor Vinge schrieb im Jahre 1993:

„Binnen dreißig Jahren werden wir die technischen Mittel haben, um übermenschliche Intelligenzen zu erschaffen. Kurz danach wird das Zeitalter der Menschheit beendet werden.“2

Heute sieht es eher so aus, als ob seine düstere Prognose etwas voreilig war. Zwar werden bis 2030 autonom fahrende Autos unsere Straßen bevölkern, aber ihre Intelligenz ist auf ein sehr enges Gebiet begrenzt und erreicht nicht annähernd menschliches Niveau. Heutige Schachprogramme besiegen mit Leichtigkeit die gesamte Weltelite der Schachgroßmeister, aber niemand hat Angst davor, dass sie deshalb den Menschen die Macht über die Erde entreißen könnten.

Das einzigartige Loch in der Zukunft

Aber wer weiß, was für Überraschungen die nahe Zukunft für uns bereithält. Einige Forscher, wie zum Beispiel der Philosoph Nick Bostrom oder der Informatiker und Erfinder Ray Kurzweil sehen bereits eine technologische Singularität aufziehen. Sie glauben, dass künstliche Intelligenzen uns die Herrschaft über den Planeten abnehmen werden, sobald sie deutlich besser und schneller denken als die Menschen. Die weitere Entwicklung der Menschheit wird dann unvorhersehbar, weil nicht mehr wir, sondern die neuen, noch unerfundenen Denkmaschinen die Richtung angeben. Unsere Zukunft läuft also auf ein schwarzes Loch zu, eine sogenannte Singularität.

Der Begriff stammt aus der Astronomie. Ein massereicher Stern kann am Ende seines Lebens in sich zusammenstürzen und von seiner eigenen Schwerkraft zu einem winzigen Punkt zusammengequetscht werden, dem schwarzen Loch. Wegen der mit den normalen physikalischen Gesetzen nicht mehr erfassbaren Parameter im Inneren dieses kosmischen Ausnahmezustands spricht man auch von einer Singularität. Sie ist von einer Grenzfläche umgeben, dem Ereignishorizont. Was immer diese Grenzfläche passiert, ist von außen nicht mehr sichtbar.

Von diesem Phänomen haben sich die KI-Untergangspropheten den Namen ausgeborgt. Im Grunde setzen sie die Machtübernahme der intelligenten Maschinen mit dem Ereignishorizont eines schwarzen Lochs gleich – eine ziemlich schiefe Metapher. Und vermutlich sind ihre Befürchtungen deutlich übertrieben.

Keine Macht den Maschinen

Wenn man dem im September 2016 veröffentlichten Bericht „Artificial Intelligence and Life in 2030“ der Stanford University glauben darf, müssen wir uns bis 2030 keine Sorgen machen, dass unsere Computer sich zu den neuen Herren der Erde aufschwingen. Der Report untersucht die Auswirkungen von KI-Systemen auf das Leben in nordamerikanischen Städten von etwa 2015 bis 2030. Militärische Anwendungen bleiben deshalb unberücksichtigt. Die Autoren haben folgende Bereiche untersucht:

Transport, Heim und Haus (z. B. Staubsauger-Roboter), Gesundheitswesen, Bildung, Unterstützung von Kommunen mit geringem Steueraufkommen, öffentliche Sicherheit, Beschäftigung und Arbeitsplätze, Unterhaltung.

Ausgehend von den Erfahrungen der letzten 15 Jahre diskutiert der Report Ansätze und Veränderungen für die Zeit bis 2030.

Die Autoren erwarten, dass die KI eine zunehmende Rolle in allen diesen Bereichen spielen wird, und zwar „mit möglicherweise grundlegend positiven Auswirkungen auf Wirtschaft und Gesellschaft.“

Grundlegende Gefahren für unsere Dominanz müssen wir nicht fürchten. Im Executive Summary schreiben die Autoren ganz deutlich:

Im Gegensatz zu den fantasievolleren Voraussagen in der Laienpresse, hat die Studiengruppe keinen Anlass zu der Besorgnis gefunden, dass KI eine unmittelbare Bedrohung der Menschheit ist. Bisher sind keine Maschinen mit selbst-verstärkenden Langzeitzielen und -Absichten entwickelt worden, und sie werden wahrscheinlich auch in der nahen Zukunft nicht entwickelt werden.3

Die Liste der Forscher, die diese Prognose erarbeitet hat, umfasst einige der prominentesten Namen in der KI-Forschung, darunter den Informatikprofessor Peter Stone von Universität Texas und den Sachbuchautor und Unternehmer Rodney Brooks. Auftraggeber der Studie ist die an der Stanford University angesiedelte Arbeitsgruppe AI100, oder mit vollem Namen „One Hundred Year Study on Artificial Intelligence“.

Der Hundertjahresplan

Die Gruppe soll in den nächsten einhundert Jahren die Entwicklung der künstlichen Intelligenz kritisch begleiten. Sie will untersuchen und vorhersagen, wie sich das Eindringen der künstlichen Intelligenz in den Alltag auf alle Aspekte des Lebens der Menschen auswirken wird.iv

Die Idee und das Gründungskapital stammen vom Informatiker Eric Horvitz, seines Zeichens Leiter von Microsoft Research in Redmond. Es gelang ihm, den Stanford-Professor Russ Altman von seinem Konzept zu überzeugen. Die beiden rekrutierten fünf weitere Wissenschaftler für die Leitung der Initiative. Diese sieben bilden seit 2014 das „ständige Komitee“ der Gruppe. Es initiiert in regelmäßigen Abständen Berichte zu aktuellen Entwicklungen im Bereich der KI und stellt dafür jeweils eine Arbeitsgruppe („Study Panel“) zusammen. Der aktuelle Report ist der erste, den die Gruppe veröffentlicht hat, und viele weitere sollen folgen.

Warum ist die Gruppe an der Stanford University angesiedelt? Russ Altman gibt dafür einen einleuchtenden Grund an.

Wenn Sie auf so lange Sicht planen, 30, 50 oder 70 Jahre, ist nicht ganz klar, was künstliche Intelligenz dann ausmachen wird, oder wie man sie untersuchen soll. Aber Sie können ziemlich sicher sein, dass es Stanford noch gibt und dass die Universität an allen wichtigen Vorhaben beteiligt sein wird.v

Manche Wissenschaftler blicken eben auch heute noch ausgesprochen optimistisch in die Zukunft.

 

Titelbild: NASA, Image-ID: ARC-2004-ACD04-0241-003, gekachelt.

Anmerkungen

[1] Mehr als 8000 Menschen haben den offenen Brief „Research Priorities for Robust and Beneficial Artificial Intelligence“ des Future of Life Institutes unterschrieben, darunter Elon Musk, Steve Wosniak und Stephen Hawking.

[3] Im Original: „Contrary to the more fantastic predictions for AI in the popular press, the Study Panel found no cause for concern that AI is an imminent threat to humankind. No machines with self-sustaining long-term goals and intent have been developed, nor are they likely to be developed in the near future. Instead, increasingly useful applications of AI, with potentially profound positive impacts on our society and economy are likely to emerge between now and 2030, the period this report considers.“

[5] Im Original: „If your goal is to create a process that looks ahead 30 to 50 to 70 years, it’s not altogether clear what artificial intelligence will mean, or how you would study it,“ Altman said.“But it’s a pretty good bet that Stanford will be around, and that whatever is important at the time, the university will be involved in it.“

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

72 Kommentare Schreibe einen Kommentar

  1. Die Geschichte der Künstlichen Intelligenz ist eine Geschichte der Überschätzung dessen was schon bald möglich sein wird und eine Geschichte des Unwissens, in welche Richtung es gehen soll. Der Optimisimus war schon bei den Pionieren fast unbegrenzt, die Resultate aber waren bis vor kurzem meist enttäuschend.
    Als Gegenströmung zu den AI-Optimisten gab und gibt es die Gruppe, die eine starke künstliche Intelligenz (stark= Maschine weiss was sie tut) aus grundsäztlichen Gründen für unmöglich hält. Dazu gehört John Searle, der das Chinese Room Argument erfunden hat.
    Der momentane Hype in der Künstlichen Intelligenz basiert auf den unerwarteten Erfolgen des Deep Learning in der Mustererkennung. Dazu wurden die schon lange bekannten neuronalen Netze hierarchisch geschichtet. Geplant war dieser Erfolg nicht. Er ist der Hartnäckigkeit der Forscher auf diesem Gebiet zu verdanken.
    Somit sind die heutigen Erfolge der künstlichen Intelligenz vor allem der Serendipität zu verdanken, also zufälligen Entdeckungen und nicht tiefgründigen Theorien über das Bewusstsein oder einer überzeugenden „Theory of Mind“. Das könnte sich aber ändern, wenn die Hirnforscher verstehen lernen wie das tierische und menschliche Hirn arbeitet. Wie die Seh- oder Hörrinde arbeitet verstehen sie schon weitgehend. Doch es fehlt immer noch das Verständnis für die höheren Leistungen und Funktionen.
    Eine Voraussage wann eine Maschine echte Autonomie erreichen wird, ist heute nicht möglich. Wettbewerbe wie die DARPA Robotics Challenge zeigen aber, dass heutige humanoide Roboter sogar mit Grundfunktionen Mühe haben, wie etwa damit, das Gleichgewicht zu halten (der Siegroboter beispielsweise fiel um als er nach erfolgreichem Parcours der Menge zuwinken wollte).
    Wenn man die Fortschritte anderer technologischer Gebiete wie etwa das Gebiet der Batterieentwicklung zum Vergleich heranzieht, kann es noch lange dauern bis ein neuer Meilenstein in der Robotik erreicht ist. Denn die Lithiumionenbatterie, die heute die Batterietechnologie dominiert, wurde bereits 1991 kommerzialisiert und seither nur verbessert und nicht durch etwas besseres abgelöst, obwohl sehr viel Forschung betrieben wurde. Als Gegenargument könnte man einwenden, dass es hier um Digitaltechnik und Software geht und in diesem Bereich sehr viel Fortschritte zu verzeichnen sind. Doch das stimmt nur bedingt, denn die Softwareentwicklung über selbstgeschriebene Programme wird kaum autonome Roboter hervorbringen. Dazu braucht es Lern- und Erkenntnisfähigkeiten, die am ehesten vom Machine Learning zu erwarten sind. Und dort fallen die Durchbrüche nicht vom Himmel.

    • „Als Gegenströmung zu den AI-Optimisten gab und gibt es die Gruppe, die eine starke künstliche Intelligenz (stark= Maschine weiss was sie tut) aus grundsäztlichen Gründen für unmöglich hält. Dazu gehört John Searle, der das Chinese Room Argument erfunden hat.“

      Ja, es gibt viele Menschen und auch Wissenschaftler, die die Fähigkeiten von Maschinen/Computerprogrammen unterschätzt haben. So zum Beispiel Hubert Dreyfus. Er war der festen Überzeugung, dass ein Schachprogramm nie einen Menschen (mit guter Spielstärke) besiegen kann. Menschen könnten viel besser strategisch denken. Vor 20 Jahren hielten es viele nicht für möglich, dass man maschinell Sprache erkennen kann. Und so kann man viele weitere Beispiele nennen.

      • Zustimmung. Tiere und Menschen mit ihren sensorischen und kognitiven Fähigkeiten sind evolutionär entstanden, also aufgrund eines Versuchs- und Irrtumsverfahrens. Mit Bausteinen, die physikalischen und chemischen Naturgesetzen folgen. Magie war nirgends am Werk.
        Magie braucht es deshalb auch nicht um künstliche Geschöpfe zu schaffen, die über ähnliche kognitive Leistungen verfügen wie Menschen. Allerdings sind schnelle Durchbrüche nicht zu erwarten, denn bis jetzt hat der Mensch wenig Erfahrung mit der Schaffung von teilautonomen und resilienten Systemen.
        Schachprogramme gehören jedenfalls noch nicht zu dem, was die künstliche Intelligenz anstrebt.

  2. Gerald Fix,
    ein Computerprogramm ist nur so gut, wie der Programmentwickler.
    Letzten Endes ist alles nur Menschenwerk.
    Was den Computer auszeichnet ist seine Schnelligkeit und dass er fehlerfrei arbeitet.
    Das als „Intelligenz“ zu bezeichnen, ist irreführend.Ich habe schon selbst ein Programm für Mühle geschrieben und weiß, wo die Grenzen dieser logischen Fähigkeiten liegen, nämlich in dem Programm.
    Thomas Grüter,
    wenn der Name Stephen Hawking auftaucht, der mal wieder vor etwas warnt, dann klingeln bei mir die Glocken der Skepsis.
    Gefahr geht von der Datenverarbeitung nur aus, wenn umfangreiche Daten erhoben werden, wenn Querverbindungen geschaffen werden, wenn Profile erstellt werden. Mit Intelligenz hat das nichts zu tun.

  3. Ein Mensch (nicht die Menschen) ist gegen den besten Schachcomputer deshalb chancenlos, weil seine strategischen Ideen ihm zwar manchmal einen ideellen Vorteil gibt, aber ihre Fehler, auch wenn sie noch so klein sind, ihm zum Verhängnis wird. Und solche Fehler kommen zwangsläufig, allein durch nachlassende Konzentration. Der Computer spielt immer Züge, die „zur Creme“ je Position gehören.
    Das nur nebenbei.
    Ich kann mir schwer vorstellen, daß so ein Gremium alle Entwicklungen überblicken kann. Arbeiten die hauptberuflich an der Einschätzung? Das glaube ich nicht.
    Wie so oft, wird die Gefahr für die Menschheit vermutlich woanders her kommen. Unsere Probleme werden grösser und grösser.

    • Das stimmt nur zum Teil und auch nur , was die kommerziellen Schachprogramme betrifft. Deren wichtigste Stärke gegenüber dem Menschen ist (neben der schieren Rechenleistung) in der Tat ihre Fehlerlosigkeit, vor allem aber ihre Emotionslosigkeit -Computer bewerten jede Stellung neu, während der Mensch oftmals zu seinem Schaden dazu tendiert, an einem einmal gefassten Plan festzuhalten, obwohl sich in der Zwischenzeit die Bedingungen geändert haben.
      Eine grundsätzlich andere Situation haben wir offenbar bei dem Ansatz von Deepmind, deren Programm Alphago kürzlich mit Lee Sedol einen der weltbesten Go-Spieler geschlagen hat. Aufschlussreich sind hier die Stellungnahmen einiger Go-Profis (nachzulesen hier: http://www.dgob.de/yabbse/index.php?topic=6430.0). Offenbar hat alpha-Go bestimmte Situationen (Einfluss vs. Gebiet) besser verstanden als menschliche Spitzenspieler (für Go-Patzer wie mich ist das alles sowieso viel zu hoch), was zumindest für diesen Bereich die Bezeichnung „künstliche Intelligenz“ angemessen erscheinen lässt.

      • Ich sehe keinen Widerspruch zu meiner Auffassung von Schachprogrammen.
        In einer entscheidenden Partie Kramniks hat der Computer schon einen Zug später eine andere „Richtung eingeschlagen“. Gewöhnlich ist das ungünstig, aber da der Computer praktisch immer den besten bzw. nahe gleichwertigen Zug auswählt und der Mensch eben ab und an grob daneben greift, kann man das Schluss-Ergebnis einer Partie voraussehen.

  4. Eigentlich sollte Intelligenz so definiert sein, dass davon gerade keine Gefahr für die Menschheit ausgeht, denn das wäre doch ziemlich dumm. Dass die Maschinen immer „intelligenter“ werden, ist keine Nachricht mehr wert, denn die dabei gemeinte Intelligenz ist auf die algorithmische Lösung vorgegebener Aufgaben beschränkt. Das schmälert in keiner Weise die großartigen Leistungen der Hardware- und Softwarekonstrukteure.

    Was Computer prinzipiell nicht können und nicht sollen, das ist intuitive Kreativität, das ziellose, spielerische und zufällige Schaffen von Neuem oder Unbekanntem. Die Anzahl der Zustände, die ein Computer einnehmen kann, ist zwar praktisch unüberschaubar, aber endlich. Alle Zustände sind deterministisch berechenbar oder vorhersehbar. Auch ein Zufallsgenerator kann immer nur solche Zustände hervorbringen. Die „Intelligenz“ des Computers besteht darin, in kürzester Zeit eine immense Anzahl von Zuständen zu prüfen, um einen richtigen oder optimalen Zustand als Ergebnis zu liefern, wobei am Ende noch immer der Mensch bestimmt, was richtig oder optimal ist!

    Die Gefahr der Maschinen besteht darin, dass wir Menschen uns den Maschinen unterordnen. Dazu müssen sie aber nicht intelligent sein, wenn wir uns bereitwillig den sogenannten Sachzwängen, den Bequemlichkeiten oder Nützlichkeiten der Maschinen fügen und uns abhängig machen lassen. Die ökonomische Effizienz, die Konkurrenz und der soziale Druck kann uns dazu bringen, siehe Smartphone.

    • Künstliche Intelligenz ist keineswegs auf die algorithmische Lösung vorgegebener Aufgaben beschränkt. Das Programm AlphaGo beispielsweise verwendet neuronale Netze zu lernen des Go-Spiels. Es hat als erstes Computerprogramm die Spielstärke von Go-Meistern erreicht. Mit Hilfe von tiefen neuronalen Netzen ließe sich auch Kreativität erreichen. Allerdings haben neuronale Netze einen entscheidenden Nachteil: Ihr Lernverhalten ist nur sehr schwer zu steuern. Man kann im Voraus kaum festlegen, was sie lernen, welche Zusammenhänge sie erschließen und wie schnell sie lernen. Sie lassen sich nur dann sinnvoll einsetzen, wenn die Aufgaben gut definiert und eng begrenzt sind.

      • „Ihr Lernverhalten ist nur sehr schwer zu steuern. Man kann im Voraus kaum festlegen, was sie lernen, welche Zusammenhänge sie erschließen“
        Sehe ich genauso.

      • „Ihr Lernverhalten ist nur sehr schwer zu steuern. Man kann im Voraus kaum festlegen, was sie lernen, welche Zusammenhänge sie erschließen“

        Ja, es unterscheidet sie kaum noch etwas von menschlichen neuronalen Netzen.

        “ Sie lassen sich nur dann sinnvoll einsetzen, wenn die Aufgaben gut definiert und eng begrenzt sind.“

        Noch eine weitere Übereinstimmung.

        Für künstliche, der allgemeinen Intelligenz fähige neuronale Netze wird man je nach Hersteller auch spezifisch geschulte Psychologen benötigen.

  5. Die Vorstellung selbstfahrender Autos erinnert an die Dystopie der „autogerechten Stadt“, die in den 60ern sehr modern war.
    Es kam völlig anders, die Idee der agS erwies sich als Vorbote einer gegenläufigen Entwicklung, die stark in Richtung Auto-Skepsis und Umweltschutz tendierte.

    So wird es auch heute wieder kommen, selbstfahrende Autos wird es nicht als Massentransportmittel geben, wir stehen vielmehr vor einem erneuten Umschwung der Denkweise in diesem Bereich, gerade weil sich die diesbezüglichen Utopien erneut als sehr einseitig darstellen.
    Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen. Auf jeden Fall haben sie einen typischen Webfehler, meistens übertragen sie den aktuellen Trend nur in die Zukunft und treiben ihn dabei auf die Spitze. Daß sich ganze Denkrichtungen ändern können, haben die meisten Zukunftsforscher nicht auf dem Schirm, auch nicht, daß gerade die auf die Spitze getriebene Einseitigkeit ein sicheres Zeichen für das nahende Ende der aktuellen Denkrichtung ist.

    So entsteht wohl auch die düstere Prognose von der Machtübernahme durch KI. Dabei muß man kein Genie sein, um zu wissen, daß es immer ein Hin und her gab, was technische Entwicklungen gab, mal wurden sie über- , mal unterschätzt, und irgendwie hat sich immer ein Gleichgewicht zwischen Skepsis und blinder Begeisterung eingestellt.
    Eigentlich ein Umstand, der den oben angeführten Personen bekannt sein sollte, zumal es sich nicht um Leute handelt, die zu den geistig Herausgeforderten zu zählen sind.

  6. ‚Grey Goo‘ ist eine mögliche Gefahr, der sich zuverlässig nur in die Abreise in den sogenannten Orbit entzogen werden kann.
    An sich kann Verständigkeit keinen besonderen Willen implementieren, anderweitig, auch sog. Maschinen meinend, denn sie kennt ihn nicht.
    ‚Wille‘ meint letztlich ‚Verständigkeit‘.

    MFG
    Dr. Webbaer

    • „Grey goo“ halte ich für keine Gefahr. Es bezeichnet das exponentielle Wachstum von selbst-replizierenden Robotern. Sie könnten, wenn sie nicht gestoppt werden, den ganzen Planeten auffressen und in der Umlaufbahn nur Kopien von sich selbst hinterlassen, die langsam zerfallen. Aus der Entfernung betrachtet, sähe das aus wie eine Art grauer Dunst („Grey Goo“). Nun gibt es auf der Erde aber schon seit ca. 3,7 Milliarden Jahren selbst-replizierende Organismen. Manche Bakterienarten können sich unter idealen Bedingungen alle 20 Minuten teilen. Sie könnten die Erde auf diese Weise binnen weniger Tage in einen großen Schleimklumpen verwandeln. Warum tun sie es nicht? Der Knackpunkt ist, dass nur ganz selten ideale Bedingungen herrschen. Nährstoffe müssen im richtigen Mischungsverhältnis zur Verfügung stehen, Freßfeinde müssen ferngehalten werden etc. Bei selbst-replizierenden Robotern gilt die gleiche Einschränkung, im Grunde haben sie sogar noch beträchtliche Nachteile. Sie brauchen seltene Metalle, müssen Siliziumkristalle aufbauen und brauchen viel Energie. Die Vorstellung, das unsere Zivilisation eines Tages von gefräßigen kleinen Robotern überrannt wird, ist wenig realistisch.

      • Lieber Herr Dr. Grüter,

        „Grey goo“ halte ich für keine Gefahr.

        O-kay, vielen Dank für Ihre Erläuterungen.

        Diese AI-Geschichte, sog. Singularität, Intelligenz an sich und so, ist ein Problem, das sich bei näherer Betrachtung in den Schwanz beißt, denn was genau ist die sogenannte Intelligenz, was kann eine sog. Singularität, die dann angeblich exponentiell anwachsen kann i.p. sog. Intelligenz, eigentlich sein?

        Wie kann ein erkennendes zeitgenössisches Subjekt hier im Negativen prädiktieren, wenn es bei näherer Betrachtung nicht weiß und nicht wissen kann, was es (genau) meint?

        Insofern danke und ein vglw. primitives fettes +1 für Ihre Nachricht.

        MFG
        Dr. Webbaer

  7. Einen hohen Grad an künstlicher Intelligenz hätte ein Roboter erreicht, der es mit der Dummheit eines durchschnittlichen Menschen aufnehmen könnte und beispielsweise in der Lage wäre selber einen Haushalt zu führen mit allem was dazu gehört, also Einkaufen, Kochen und Putzen und dem gelegentlichen Schwatz mit der Nachbarin über beispielsweise den Fortschritt der Kinder in der Schule und beim Spielen. Ein Roboter, der wüsste, was zu tun ist, wenn 2 Gäste kommen und Übernachten und der sich geduldig von den Kindern ein neues Spiel erklären liesse um es dann so zu spielen, dass auch die Kinder hin und wieder gewinnen. Die heutigen Roboter sind meilenweit von solchen Leistungen entfernt. Doch brauchen wir solche Roboter? Ich meine ja. Mindestens dann, wenn die heutigen Trends sich fortsetzen und auch in Zukunft die meisten Menschen mit 65 in Rente gehe, dann aber noch 40 Jahre leben. Es ist eine
    Illusion diese Zukunft sei möglich einfach indem die Jungen hart arbeiten und mit ihrer Arbeit auch noch 2 bis 3 Rentner und 1 bis 2 Kinder und Auszubildende finanzieren. Diese Zukunft ist in Wirklichkeit nur dann möglich, wenn Arbeit, auch Arbeit, die Intelligenz und autonome Entscheidungen erfordert, auch von Maschinen, also von intelligenten Robotern ausgeführt werden kann. Es kann durchaus sein, dass Roboter auch in 30 Jahren noch nicht dazu in der Lage sind uns bei anspruchsvollen Arbeiten zu entlasten. Doch das hätte für eine vergreisende Gesellschaft fatale Konsequenzen. Es würde erzwingen, dass man auch noch mit 70 oder 80 Jahren arbeiten muss, denn mehr als 20 Jahre Jugend und Ausbildung und 20 Jahre arbeitsfreies Renterdasein wären sonst nicht zu finanzieren.

  8. @Martin Holzherr: Die Kinder würden sich natürlich an den roboterhaften Kinderbetreuer anpassen müssen. Was der eben leisten kann. Wenn niemand sonst da ist?!
    Wer würde denn all diese Roboter warten?! Ein Heer an Werkzeugen im Einsatz- da braucht es doch eine ganze Industrie, die sich darum kümmert, also jede Menge Arbeitspätze.

    • „Wer würde denn all diese Roboter warten?!“ Na, Roboter würden das tun. Wenn sie das nicht können, dann sind sie zuwenig intelligent um an die Stelle des Menschen treten zu können.

  9. Holzherr, Gerhard,
    In den USA werden die Erntemaschinen per GPS direkt vom Computer gesteuert. Der Farmer sitzt dabei zu Hause vor dem Bildschirm und trinkt Kaffee.
    Man könnte die tägliche LKW Schlange auf der Autobahn „zusammenschalten“. Der Computer überwacht die Abstände, lenkt, die Fahrer können derweil schlafen.
    Ein implantierter chip kontrolliert beim Menschen alle Organfunktionen, bei einer Störung kommt die Meldung: Einen Arzt aufsuchen!
    Kinder werden dann auch nicht mehr von Frauen geboren. Die Befruchtung geschieht im Reagenzglas, eine Maschine übernimmt die Entwicklung des Fötus, Geburt entfällt, Die Aufzucht der Kleinkinder übernimmt ein Haushaltsroboter mit weichem Fell und Silikonbrust für die Milch.
    Für die psychische Entwicklung übernehme ich hier allerdings keine Verantwortung mehr.

  10. Laut Paul Krugman (Ökonom) könnten intelligente Roboter Arbeit so billig machen, dass 1) das Wirtschaftswachstums potenziell unbegrenzt wäre 2) Kapital und nicht Ausbildung zum entscheidenden Faktor würde (Kapital kann Roboter kaufen und Roboter können alles andere).

    zu 1) schreibt Paul Krugman in Is Growth over(von mir übersetzt)
    Stellen wir uns ein Fantasietechnologie-Szenarium vor in dem intelligente Roboter all das tun können was heute (zum Teil nur) Menschen können. Eine solche Technologie würde alle Schranken bezüglich erreichbarem Pro-Kopf-BIP beseitigen, solange man nicht Roboter zu den Köpfen hinzuzählt. Alles was man tun muss ist die Anzahl der Roboter relativ zur Anzahl der Menschen erhöhen und man erhält ein beliebig hohes BIP (Bruttoinlandprodukt)

    Zu 2) hat Paul Krugman eine ganze Serie von Artikeln geschrieben, die alle darauf herauslaufen, dass in einem solchen Szenario Lohnarbeit verschwinden würde und auch eine gute Ausbildung keinen Vorteil mehr brächte. In einer solchen Welt wären die Kapitalisten am Drücker.

  11. @Bote 17
    Besteht der Unterschied zwischen Mühle (oder Schach) und Poker nicht darin, dass man beim Poker mit irrationalen Situationen konfrontiert wird? Bei Mühle ist ein schlechter Zug einfach ein schlechter Zug, ein Computer fällt heute wohl nicht mehr auf Fallen herein. Beim Poker kann man mit einer leeren Hand auf den vollen Pott reizen. Für einen Computer sollte dies eine besondere Herausforderung bieten.

  12. Gerald Fix,
    den Zufall kann auch der Computer nicht ausschalten. Er kann aber die Spielstrategie der Gegner analysieren. Und er kann die Wahrscheinlichkeiten schneller und fehlerlos berechnen. So ein Programm wäre dann sehr aufwendig.
    Sicher gibt es das schon in Las Vegas.

    • Die Firma Google DeepMind nimmt für sich in Anspruch, dass sie Strategien nicht aufwändig berechnet, sondern mit einem Hybrid aus neuronalem Netzwerk und einem algorithmischen Computer den Analyseaufwand drastisch reduzieren kann. Das Programm AlphaGo, das vor einem Jahr einen der besten Go-Spieler der Welt besiegen konnte, ist nach dieser Methode programmiert. Inzwischen gibt es auch ein Pokerprogramm, dass ein neurolanes Netz zur Optimierung seiner Strategie nutzt. Und hier gilt eben: die Reaktionen dieses Netzes sind nicht vollständig vorhersehbar. Es wird trainiert, und die Ergebnisse sind vorher nicht klar. Deshalb war man zeitweilig davon abgegangen, neuronale Netze zu benutzen, aber offenbar gibt es jetzt Methoden, wie man das Training optimieren und die neuronalen Netze zwecks verlässlicherer Ergebnisse mit algorithmischen Komponenten koppelt.

  13. „Im Gegensatz zu den fantasievolleren Voraussagen in der Laienpresse, hat die Studiengruppe keinen Anlass zu der Besorgnis gefunden, dass KI eine unmittelbare Bedrohung der Menschheit ist. Bisher sind keine Maschinen mit selbst-verstärkenden Langzeitzielen und -Absichten entwickelt worden, und sie werden wahrscheinlich auch in der nahen Zukunft nicht entwickelt werden.“

    Bisher sind sie nicht entwickelt worden. Soll das ein Indikator dafür sein, ob es möglich sein wird?
    „und sie werden wahrscheinlich auch in der nahen Zukunft nicht entwickelt werden“
    1. Warum zählt nur die „nahe“ Zukunft für eine existenzielles Risiko?
    2. Angenommen es ist wirklich nicht wahrscheinlich, dass eine solche künstliche Intelligenz entwickelt wird: WIE unwahrscheinlich ist es? 30% oder 10% oder eher nur 1% oder 0.001%?
    Für ein existenzielles Risiko ist auch eine intuitiv sehr klein wirkende Wahrscheinlichkeit immer noch zu gross, als dass man nicht versuchen sollte, für den unwahrscheinlichen Fall gewappnet zu sein (z.B. indem man an Fragen der Wertgebung forscht).
    Zudem sollte man berücksichtigen, dass der Mensch falsch liegen könnte in der Einschätzung der Zukunft. Wie oft wurde in der Geschichte bereits unterschätzt, was in der nahen Zukunft möglich sein wird?
    Vor ein paar Jahren habe ich gelesen, dass ein Computerprogramm den Schachweltmeister geschlagen hat, aber nie in Go wird so gut können, da es da mehr Züge gibt als Atome im Universum und man darum eher intuitiv als berechnend spielen muss, was eine Maschine nie lernen kann. Ein paar Jahre später hat ein Computerprogramm den Go-Weltmeister geschlagen. Es hiess jedoch, dass ein Programm nie lernen kann zu bluffen und darum vielleicht in Go aber nie im Poker wird gewinnen können. Nun hat ein Computerprogramm im gegen die besten Pokerspieler gewonnen. Jedes Mal staunt man.
    Bis anhin konnte man einfach eines besseren belehrt werden und verblüfft sein. Aber im Fall einer Superintelligenz wäre es zu dem Zeitpunkt höchstwahrscheinlich schon zu spät, um noch richtig damit umgehen zu können (Dies durch die schnelleren Abläufe in Computern).

  14. Max Kämmerling,
    …..Intelligenz
    wie immer ist hier die Definition entscheidend. Was bezeichnen wir als intelligent?
    Wenn jemand schneller denken kann?
    Wenn sich jemand tiefer in ein Problem hineindenken kann, also besser abstrahieren kann?
    Wenn jemand Querverbindungen zu anderen Problemen/Themen findet, also einen Überblick schaffen kann.
    Wenn jemand Strukturen erkennt ?(darin sind Autisten gut)
    Ein Computerprogramm kann nur das, was der Systemanalytiker einprogrammiert hat.
    Es ist nicht der Computer, der gewinnt, es ist das Programm, und dahinter steht wieder ein Mensch. Superintelligenz? Was soll das sein?

    • @ Bote17 :

      Was bezeichnen wir als intelligent?

      Die Intelligenz, die vor vielleicht 100 Jahren erfunden („entwickelt“) worden ist, steht in Konkurrenz mit anderen Konzepten wie bspw. der Klugheit, der Schlauheit, der Verständigkeit, der Weisheit und was es da sonst noch so alles gibt.
      Sie unterscheidet sich von den anderen genannten Konzepten dadurch, dass sie messbar ist, dass sie auf einen Zahlenwert zurückgeführt werden kann und dies vglw. reproduzierbar, dass sie und nur sie eine gewisse wissenschaftliche Härte hat.
      Sie kann auch vererbt werden.
      >:->
      Sie kann zudem bspw. mit Hilfe sogenannter Zwillingsstudien versucht werden in einen sozialen und erblichen Anteil geschieden zu werden.

      Ansonsten weiß „keine Sau“, im Gegensatz zu den anderen oben genannten Konzepten, um was es eigentlich geht.
      Geprobt wird hier bestimmte, letztlich immer kulturell gebundene und zeitgenössische Problem-Lösungskompetenz.

      Kleiner Gag am Rande :
      Sog. Intelligenz- oder Hochbegabtenforscher müssen selbst nicht intelligent oder dbzgl. hochbegabt sein.

      HTH („Hope to Help“)
      Dr. Webbaer

    • Solche Computerprogramme sind heute meist selbstlernend und der Systemanalytiker kann selber nicht mehr durchschauen, was es ist, was das Programm gelernt hat (z.B. neuronale Netze).
      Das einzige was bleibt ist das ursprüngliche Ziel, das zu Beginn einprogrammiert wurde. Das Problem ist, dass wir unmöglich alle möglichen Folgen davon (wenn ein Programm versucht, sein Resultat zu optimieren) vorhersehen und in die Programmierung einbeziehen können. (https://futureoflife.org/2016/12/12/artificial-intelligence-king-midas-problem/)

  15. Intelligenz ist der falsche Begriff um die Autonomie und auch Gefährlichkeit einer nicht-menschlichen Person, eines nicht-menschlichen Akteurs zu beurteilen. Die Standord-Studie dagegen wählt die richtigen, die entscheidenden Begriffe: „Bisher sind keine Maschinen mit selbst-verstärkenden Langzeitzielen und -Absichten entwickelt worden“. Eine Maschine, die eigene Ziele und Absichten verfolgt wie wir es von Menschen kennen ( die etwa aus Karrieregründen ein bestimmtes Verhalten zeigen und bei Bedarf auch lügen und täuschen nur um das selbst gesteckte Ziel zu erreichen), solch eine Maschine wäre überhaupt erst eine ernstzunehmende Person und wäre eventuell auch viel gefährlicher als die meisten Menschen, denn da sie nicht aus Fleisch und Blut besteht und sich eventuell sogar kopieren und klonen kann, entfallen bei ihr auch die typisch menschlichen Ängste und Hemmnisse.
    Doch davon sind wir noch meilenweit entfernt. Selbst der cleverste maschinelle Go- oder Pokerspieler weiss heute überhaupt nichts über seine Umwelt, er weiss nicht einmal, dass er gerade Poker spielt und was dieses Spiel bedeutet. Das Bewusstsein und Verständnis, ja die semantische Ebene fehlt vollständig. Selbst ein Hund zeigt mehr Wille und Absicht als heute der intelligenteste Automat.
    Das wird sich wohl irgendwann ändern. Irgendwann kommt die Maschinendämmerung. Doch wann das sein wird wissen wir nicht. Eventuell könnte man Maschinen auch so bauen, dass sie zwar klevere Assistenten sind, aber keinerlei eigene Absichten und Ambitionen entwickeln. Solche klevere, aber willenlose Geschöpfe wären nützlich und trotzdem nicht gefährlich.

    • Nur ergänzend, neben „Grey Goo“, ginge auch diese Variante :
      -> https://en.wikipedia.org/wiki/The_Doomsday_Machine_(Star_Trek:_The_Original_Series)

      …und sich, gar terrestrisch entwickelt „einmampft“ und „geistlos“ an Größe gewinnt.

      Um bei Ihnen zu bleiben, Herr Holzherr, i.p. Geist, sog. AI und sog. Singularität geht wohl -für den hiesigen in dieser Hinsicht hier gemeinten Primaten- nicht viel, weil er selbst unzureichend versteht und ganz vermutlich nie in die Lage kommen wird sich i.p. Intelligenz (was immer dies auch sein mag) verstärkende Automaten zu entwickeln [1], ein wenig plump ginge dagegen mehr.

      MFG
      Dr. Webbaer

      [1]
      Womöglich geht dies per se nicht.

  16. Thomas Grüter,
    aus den Links ging nicht hervor, wie das neuronale Netzwerk aufgebaut ist.
    Wird nur das neuronale Netzwerk des Gehirns simuliert, durch Algorhytmen,
    oder werden tatsächlich die biologischen Nervenenden mit einem Computer verbunden.
    Dr. Webbaer,
    ……..Intelligenz ist das, was der Intelligenztest misst. Praktische (erfolgreiche) Intelligenz einiger Mitmenschen kann man auf diese Weise nicht skalieren, zumal ethische Hemmnisse mitbedacht werden müssen.
    Gretchenfrage: Ist ein moralisch verantwortlicher Mensch intelligent?

  17. Der Artikel Hunde setzen Täuschung ein um von Menschen das zu bekommen was sie wollen behauptet, dass Hunde Absichten haben und diese Absichten durch manipulatives Verhalten gegenüber dem Menschen durchsetzen. Das ist genau das, was intelligente Tiere und Menschen von Automaten unterscheidet. Einem Roboter kann zwar auch eine Täuschungsstrategie einprogrammiert werden, doch kein heutiger Roboter setzt so eine Strategie bewusst ein, vielmehr läuft sie – wenn überhaupt – automatisch ohne eigene Steuerungsmöglichkeit der Maschine ab.
    Hunde haben Absichten und Ziele über ein ihnen eingeborenes Lebensprogramm, das dafür sorgt, dass sie sich um Futter bemühen, Gefahren mit Angriff oder Flucht begegnen, an einem sicheren Ort schlafen etc., etc.
    Auch Maschinen könnten solche Lebensprogramme implantiert werden. Doch momentan gibt es nur wenig Erfahrung damit. Wohl aber einige experimentellen Roboter wie den iCub, der dem Roboter zu einem Selbstbild, zu einem Ego verhelfen will.

  18. Wann werden die sich selbst optimierenden und programmierenden neuronalen Netze den wichtigen „Punkt“ erreichen, der alle Intelligenz bisher, wie klein sie auch sein mag, auszeichnet: der Selbsterhaltungstrieb?

    • Die Frage „Wann erhalten Automaten einen Selbsterhaltungstrieb“ lässt sich einfach beantworten. Sobald das möglich ist und ein Experte beschliesst genau das in sein eigenes Geschöpf einzubauen. Vielleicht mit der Hoffnung, sein Geschöpf behaupte sich gegen alle Widrigkeiten inklusive seiner menschlichen Gegner.

      • Meines Wissenstandes nach muss der Menschen es nicht einprogrammieren. Gegenwärtig entwickeln die angesprochenen neuronalen Netze, nennen wir sie mal so, eigenständig Meta-Sprachen, wie aktuell beim Google-Translate Projekt.

        Die Entwicklung verläuft in rasender Geschwindigkeit und kann nicht einfach linear aus der Vergangenheit fortgeschrieben werden. Ein kleiner „Quantensprung“ reicht – und der Selbsterhaltungstrieb ist da.

        Wird der „Selbsterhaltungstrieb“ überhaupt als solches erkannt? Vielleicht ist es Teil der Selbsterhaltung, diese als solches nicht erkennbar zu machen. Was für Konsequenzen hat das usw. Es bleibt spannend, kann allerdings auch schnell kritisch werden.

        • Nein, Selberhaltungstrieb, Motivation, Räsonieren ist aussehalb der Reichweite heutiger „selbstlernender“ Programme. Denn die Lernziele sind klar vorgegeben. Ein Deep Learning Programm, dass beispielsweise aus einer Menge von Bildern die in diesen Bildern vorkommenden Autos erkennen soll, benötigt als Input tausende von Bildern und die Autos müssen mit einem Label versehen sein, beispielsweise dem Hinweis hier handle es sich um einen Opel Astra. Das Deep Learning Programm kann dann nach langer Trainingszeit Autos identifizieren indem es zu einem im Bild vorkommenden Auto den wahrscheinlichsten Typ nennt. Im Prinzip verallgemeinert das Deep Learning Programm eine partielle Funktion (eine Funktion mit einer beschränkten Wertemenge) zu einer totalen Funktion, indem sie alles was ein Auto sein könnte in den am besten passenden Topf einordnet.
          Auch bei google translate ist das nicht anders Kürzlich wurden bei google translate mehrere Übersetzungspaare auf die neue Technik, die mit Deep Learning arbeitet, umgestellt. Die Übersetzungsleistung ist jetzt zwar besser, aber beispielsweise für Deutsch-Englisch immer noch miserabel. Es ist offensichtlich, dass google translate den Sinn von Aussagen, die in Deutsch formuliert sind, nicht versteht. Wie gesagt, Maschinen verstehen die Welt bis jetzt überhaupt nicht, sie sind einfach besser im Kategorisieren geworden.

    • @ Herbert :

      Wann werden die sich selbst optimierenden und programmierenden neuronalen Netze den wichtigen „Punkt“ erreichen, der alle Intelligenz bisher, wie klein sie auch sein mag, auszeichnet: der Selbsterhaltungstrieb?

      Es gibt womöglich keine Selbst-Optimierbarkeit und Selbst-Programmierbarkeit.
      Was ginge, wäre Mikro- („Grey Goo“) oder Makro-Leben (vgl. mit dem Kommentar ein wenig weiter oben), robotisches, derart auszustatten, dass es sozusagen übergrifflich wird, aber frei von Geist.

      ‚Geist‘ kann zumindest von dem hier gemeinten Primaten nicht „programmiert“ werden, die Desoxyribonukleinsäure ist insofern ein bestimmter Versuch des Lebens, der sehr erfahren ist, sozusagen unglaublich empirisch grundiert, der aber i.p. Robotik umsetzend anzulegen wäre, was dezent formuliert schwierig ist.

      ‚Intelligenz‘ und ‚Selbsterhaltungstrieb‘ haben unbestimmte, nicht direkt definierbare Größen zu bleiben, sie bleiben Teil der geisteswissenschaftlichen Veranstaltung und ziemlich soft.


      Ein böser Joke geht in die Richtung, dass es in etwa eine CPU der Größe Erde bedarf und Milliarden Jahre Umsetzung, um mit viel Glück zu erfahren, um was es eigentlich geht.

      Vgl. auch mit dem ’42‘ von Doug Adams,
      MFG
      Dr. Webbaer

      • Siehe meine Antwort weiter oben.
        KI hat die „mechanistische“ Ebene der Mensch-Programmierung überschritten. Alles ist möglich…

  19. Von uns geschaffene/ermöglichte Superintelligenzen sollen nach Kurzweil/Vince schon im Jahr 2045 die Weltherrschaft übernehmen. Warum so bald? Weil das Gesetz der exponentiellen Entwicklung auf allen Gebieten gelte und nicht nur die Halbleitertechnologie exponentiell voranschreite sondern auch die Biochemie, die Nanotechnologie, die Robotologie und was es sonst noch so gibt.
    Doch stimmt das überhaupt? Nein! Eher das Gegenteil ist der Fall. Exponentielles Wachstum ist die absolute Ausnahme. Das Moore’sche Gesetz gilt nicht einmal für die gesamte Halbleitertechnologie, sondern nur gerade für siliziumbasierte Halbleiter. Und es gibt Gebiete wo heutige Leistungen nicht besser sind als vor 50 Jahren. Beispielsweise das Bohren von Tunnels. Es ist heute eher teurer als vor 50 Jahren. Ein Grund weshalb Elon Musk nun eine eigene Bohrtechnologiefirma gegründet hat, denn ihm schwebt ein unterirdisches Netz von Tunneln als Lösung von Verkehrsproblemen vor. Und dazu will er den Bohrvortrieb um den Faktor 5 bis 10 beschleunigen. Doch das ist lediglich seine Absicht. Es ist überhaupt nicht gesagt, dass er das angestrebte Ziel erreicht.
    Wirkliche Durchbrüche mit anschliessendem schnellen, ja exponentiellem Wachstum sind bis heute die Ausnahme. Durchbrüche lassen sich nicht vorhersagen. Wie schwierig es ist autonome Maschinen zu schaffen und damit eine Maschinendämmerung in die Wege zu leiten, lässt sich heute nicht sagen.

  20. Eigentlich ist die Sache relativ einfach und auf der anderen Seite auch wieder gar nicht. 😉 Ich betrachte jetzt nur den wirtschaftlichen Aspekt. Computerprogramme und Maschinen ermöglichen eine enorme Produktivitätssteigerung. Wir können durch Automatisierungen so viel Produkte herstellen wie noch nie. Gleichzeitig wird der daraus gewonnene Gewinn immer ungleicher verteilt. Der Anteil der Menschen, die von der Produktivitätssteigerung profitieren, wird immer geringer. Allein schon dadurch, dass viele Arbeitsplätze in den kommenden Jahrzehnten wegfallen werden. Wenn wir dieses Dilemma nicht auflösen, kommen wir in ernsthafte Schwierigkeiten.

    • Eine Verarmung durch Hochtechnologie droht nicht. Wenn unendlich viel unendlich billig hergestellt werden kann, dann kann man die Massen damit ruhig stellen. Und das wird man aus Eigeninteresse auch tun. Wohl aber besteht die Gefahr des Endes der Demokratie. Denn die Demokratie beruhte bis jetzt auf der Mitbestimmung der Bürger, die arbeiten und Steuern zahlen. Wenn es aber gar keine Arbeit mehr braucht und alle Maschinen, alle Produktionsmittel beispielsweise von Bürokraten, Technokraten und Kapitalisten besessen und verwaltet werden, dann bestimmen diese Besitzer der Produdktionstechnologie wo es durchgeht. Für die normalen Bürger gibt es dann nur noch Panem und Circenses und keine Mitbestimmung mehr.

      • Das ist ein Fehlschluss zu denken, man müsse nur unendlich viel unendlich billig produzieren und alle Menschen sind versorgt. Weil wir gar nicht zu dieser Stufe kommen werden. Neue Technologien bei Robotern und Computern ermöglichen Produktivitätssteigerungen. Aber wenn die Wirtschaft immer weiter seine zweite Aufgabe vernachlässigt, nämlich die Menschen flächendeckend mit Geld zu versorgen, dann würgt man das Wachstum wieder ab. Wer soll denn Produkte kaufen, wenn Reallohnverluste weiter zunehmen? Eine kleine Schicht der Reichen und Superreichen? Die Investitionen in neue Technologien müssen durch den Verkauf von Produkten refinanziert werden.

        • Eine Wirtschaft, die ihre Produkte nicht los wird, weil keiner das Geld hat sie zu kaufen, wäre für alle sinnlos, auch für die Besitzer von Produktionsmittlen.
          Mit einer Ökonomie, die Überfluss generiert, weil die Produktion vollautomatisiert ist, wird dafür sorgen, dass sich genügend Menschen die Produkte auch leisten können. Allerdings sind in einer solchen Ökonomie, die nicht mehr auf Menschen als Produktionsfaktor angewiesen ist, die meisten Bürger in gewissen Sinne Sozialhilfebezüger. Vielleicht erhalten, diejeinigen die sich wohlverhalten dann mehr Gutscheine zum Einkaufen und wer oppositionelle Gedanken äussert wird auf das Existenzminimum gesetzt.

        • @Sören Hader: Die Episode Nosedive (Abgestürzt) der Serie Black Mirror zeigt eine mögliche zukünftige Gesellschaft, die nicht mehr produzieren muss, die aber ihre Bürger über ein RatingSystem kontrolliert, damit sich alle wohlverhalten. Zitat:„Diese Geschichte spielt in einer Realität in der Menschen anhand ihres Social Rankings live bewertet und behandelt werden. Die Menschen bewerten sich permanent gegenseitig und schaffen damit eine fluide Struktur des Miteinanders, weswegen alle nett zueinander sind und Freundschaft und Freundlichkeit vortäuschen. „

          • „Eine Wirtschaft, die ihre Produkte nicht los wird, weil keiner das Geld hat sie zu kaufen, wäre für alle sinnlos, auch für die Besitzer von Produktionsmittlen.“

            Absolut.

            „Mit einer Ökonomie, die Überfluss generiert, weil die Produktion vollautomatisiert ist, wird dafür sorgen, dass sich genügend Menschen die Produkte auch leisten können.“

            Aber wie soll eine solche Ökonomie entstehen, wenn auf dem Weg dahin den meisten Menschen das Geld vorher ausgeht? Eine Ökonomie fällt nicht vom Himmel. Sie muss finanziert werden, sprich es muss „Kunden“ geben, die Produkte nachfragen und bezahlen.

  21. Künstliche Intelligenz kann seit kurzem ein klar vorgegebenes Ziel (z.B. zeige mir alle Orang Utans in einer Fotosammlung) mit einem vorgegeben Input (z.B. Fotographien) durch reines Training erreichen. Nach der Trainingsphase (bei der das System z.B. Fotos mit eingekreisten Orang Utans erhält) kann es in beliebigen Fotos, also auch Fotos, die nicht zum Trainingsset gehören, angeben wo sich Orang Utans befinden. Dazu werden heute hierarchische neuronale Netzwerke verwendet: die unterste Ebene, die unterste Schicht des hierarchischen neuronalen Netzwerkes erhält (wir nehmen dazu das Beispiel mit den Orang Utans) als Eingabe die Pixel der Fotographie, die nächsten Ebenen reagieren auf Kanten, Flächen und andere Objektfeature und die oberste Ebene erkennt schliesslich die Orang Utans. Bis heute kann ein solches trainiertes neuronales Netzwerk sein Wissen nicht erweitern oder transferieren. Um anstatt Orang Utans Katzen zu erkennen muss der Prozess beim Standardverfahren wieder bei Null beginnen. Es gibt inzwischen erste experimentelle Ansätze um das zu verbessern. Neben Marken (z.b. umkreiste Orang Utans) benutzen viele Systeme zum Lernen auch Bestätigungslernen (Reinforcement Learning), was bedeutet, dass sie durch Versuch und Irrtum eine möglichst hohe Schlussbewertung anstreben. Diese Systeme lernen also durch Ausprobieren von neuen Spielzügen/Aktionen dazu und können so beispielsweise in einem Autorennen (Atari-Game) immer besser werden und den Menschen schliesslich schlagen. Bestärkendes Lernen wurde auch bei Alpha-Go (Computer wird Go-Weltmeister) angewendet, indem der Computer Millionen von Go-Spielen gegen sich selbst spielte um aus dem Endresultat (Gewinn oder Verlust in n Zügen) zu lernen indem es Spielzüge, die zum Gewinn führten, häufiger einsetzt.
    Ein Beispiel, wo Deep Learning bei einer praktischen Aufgaben nützlich war, zeigt der Artikel Baidu’s Artificial Intelligence Lab Unveils Synthetic Speech System, in dem beschrieben wird, wie Baidu einen Sprechautomaten mittels Deep Learning beigebracht hat, allein aus einem Text und einer Tonaufnahme des von einem Menschen gesprochenen Textes zu lernen, wie man beliebige Texte im Stil des im Training verwendeten Sprechers spricht. Das Deep Learning System geht dabei folgendermassen vor: Es identifiziert aus dem Trainingsaudiofile die verwendeten Phoneme (für das Sprechen wichtige Lautfolgen)
    und assoziiert dann im zu sprechenden Text die Buchstabengruppen, die Phonemen entsprechen. Schliesslich liest es den Text als Folge von solchen selbst identifizierten Phonemen. Diese Lernleistung entspricht fast schon der eines Menschen. Einem Kind das Sprechen lernt, sagt man ja auch nicht was die typischen Lautfolgen in der gesprochenen Konversation der Mutter sind. Das findet das Kind selber heraus. Genau wie ein 2-jähriges Kind so etwas lernen kann ohne nachzudenken oder Theorien zu entwickeln, kann nun auch ein Deep Learning System so etwas lernen ohne dass es überhaupt weiss um was es geht. Ein solches Deep Learning System hat also die gleiche Intelligenz wie ein 2-jähriges Kind und bis jetzt sogar weniger Schlussfolgerungskraft als ein 2-jähriges Kind, denn Deep Learning Systeme können bis heute das Gelernte nicht auf andere Aufgabengebiete transferieren.

  22. Martin Holzherr,
    diese Lernsysteme sind beindruckend.
    Der Knackpunkt ist die Sinnschwelle.
    Ich habe nicht die leiseste Ahnung wie man einm Programm beibringt, dass es sich selbst erkennt.

    • „Wie man einem Programm beibringt, dass es sich selbst erkennt“ wissen auch die heutigen KI-Forscher nicht. Wann sie das wissen werden, wissen wir und wissen sie nicht. Dazu braucht es wieder einen Durchbruch. Die heutigen Deep Learning Systeme werden dabei wohl eine Rolle spielen. Allein genügen sie aber nicht.
      Merke: Fortschritte sind nicht voraussagbar, denn man kann nicht voraussagen, wann jemand die entscheidende Idee oder Erkenntnis hat.
      Dafür gibt es x Beispiele. Dass die Relativitätstheorie zu Beginn des 20. Jahrhunderts entwickelt wurde liegt an Einstein. Ohne Einstein hätte es noch länger dauern können. Dass die Quantentheorie in ihrer heutigen Form in den späten 1920er Jahren ausformuliert wurde liegt an Leuten wie Planck, Heisenberg, Born etc. und am damaligen Umfeld. Es hätte auch viel später erst passieren können. Dass das Deep Learning heute bereit steht liegt an der Hartnäckigkeit von KI-Forschern, die nach anfänglichen Misserfolgen mit neuronalen Netzen nicht gleich aufgegeben haben.

      • @ Herr Holzherr :

        „Wie man einem Programm beibringt, dass es sich selbst erkennt“ wissen auch die heutigen KI-Forscher nicht. Wann sie das wissen werden, wissen wir und wissen sie nicht.

        Das Wann ist nebensächlich, übrigens weist Ihr Kommentatorenfreund darauf hin, dass die Relativität zu Einsteins Zeiten sozusagen in der Luft lag, auch andere bedeutende wissenschaftliche Fortschritte lagen sozusagen in der Luft, waren oft Gemeinschaftswerk, wie bspw. auch die Erfindung und Implementierung des Webs.

        Ansonsten ist die Frage von ‚Bote17‘ einfach zu beantworten: Ein Programm erkennt sich selbst, wenn es philosophisch dazu in der Lage ist.
        Hund oder Katze erkennen sich nicht selbst, es mangelt hier an Sprachlichkeit (die die Voraussetzung der Philosophie ist).
        Künstliche Intelligenz müsste insofern philosophisch werden, hilfreich wären hier bspw. sexuelle Fortpflanzung und über se-ehr lange Zeit entwickelte Desoxyribonukleinsäure.
        Soweit der Schreiber dieser Zeilen weiß, spielt der evolutionäre Ansatz in diesem Forschungsgebiet zunehmend eine Rolle.

        Zudem muss auch Willen vorliegen, Willen entsteht im generationsübergreifenden Sinne, die Desoxyribonukleinsäure bleibt gemeint, wenn ein Biotop vorliegt.
        Es wird nicht ohne Grund gewollt.

        MFG
        Dr. Webbaer

        • 1) Im Nachhinein sagt man immer „Es lag in der Luft“
          2) Selbsterkennung ist graduell und Sprache nicht zwingend dafür. Ein Hund weiss etwas über sich (er hat Erinnerungen, weiss was kommt, weiss wer er kennt, etc.). Ein Schimpanse erkennt noch viel mehr und ein Mensch, ob nun taubstumm oder sprechend erkennt wohl viel mehr als ein Hund oder Schimpanse.

          Roboter haben aber mit Intentionen und Semantik überhaupt grundsätzliche Probleme im Vergleich zu Tieren. Denn ein Tier lebt um zu überleben und weiss das auch innerlich, teils über Instinkte, teils sogar bewusst. Ein Roboter weiss gar nicht was es heisst zu leben.

          • @ Herr Holzherr :

            Hmja, in der SciFi ist das Überleben um des Überlebenswillens weiter oben zitiert bereits „verwurstet“ worden, wiederholend webverwiesen :
            -> https://en.wikipedia.org/wiki/The_Doomsday_Machine_(Star_Trek:_The_Original_Series)

            Der Hund, der die Konzepte ‚Wissen‘ und ‚kennen‘ nicht kennt, ist von einem alsbald entwickelten Roboter, der ähnlich leistet, nicht zu unterscheiden.
            Ansonsten und vorsichtshalber angemerkt: Der Schreiber dieser Zeilen, jahrzehntelanger erfahrener Katzenhalter, unterscheidet natürlich schon in der Handhabung zwischen dem guten Tier und der der Maschine.

            Aus sittlichen Gründen, allein!, dies soll an dieser Stelle die sich dankenswerterweise ergeben habende Erörterung nicht belasten.

            Kommentatorenkollege ‚Bote17‘ hat gute bis entscheidende Fragen gestellt, Dr. W (Wer sonst?) wusste sie zu beantworten; vielen Dank, dass Sie, Herr Holzherr, hier auch im per se eher niedrigen Feedback-Bereich auch ein wenig mitgemacht haben.
            Wissenschaft und deren Reflexion sind wichtig wie sozial.

            MFG
            Dr. Webbaer

  23. Martin Holzherr,
    der Natur des Denkens könnte man auch von der andereren Seite her untersuchen.
    Die Neuronen leiten ja letztlich nur elektrische Ladungen. Wenn wir denken , findet ja ein sehr komplizierter Ladungstransport statt, verglichen mit den elektromagnetischen Schwingungen eines Fernsehsenders. Also mit entsprechenden Sensoren könnte man einen Zusammenhang herstellen zwischen einem Sinnesreiz und der Wirkung in den Neuronen. Irgendwann könnte man dann ein primitives Gehirn nachbauen.
    Oder ein bestehendes Tiergehirn umfunktionieren. Mich würde dann interessieren, ob so ein bestehendes Tiergehirn, z.B. einer Kuh noch weiß, dass es eine Kuh ist, oder geht diese Information irgendwann verloren?

  24. @Bote17

    »Ich habe nicht die leiseste Ahnung wie man einm Programm beibringt, dass es sich selbst erkennt.«

    Wäre Selbsterkenntnis denn ein notwendiges Feature für eine künstliche Intelligenz?

    Dass ein Lebewesen ein Ich-Bewusstsein haben kann, wissen wir doch nur, weil wir selbst eines besitzen. Einem Lebewesen, das sich hinreichend ähnlich verhält wie man selber, unterstellen wir, dass es ein Ich-Bewusstsein besitzt. Wirklich wissen können wir das aber nicht.

    So wird das auch mit einer künstlichen Intelligenz sein. Alles könnte darauf hindeuten, dass eine Maschine ein Ich-Bewusstsein besitzt, aber was tatsächlich in dieser Beziehung in der Maschine vorgeht, das bleibt uns notwendigerweise verborgen.

    Mit anderen Worten: Wenn eine CPU ganz ähnlich strukturiert wäre wie sein biologisches Pendant und auch keine funktionellen Unterschiede zwischen beiden feststellbar wären, dann wüssten wir immer noch nicht, ob diese CPU ebenso von ihrer Existenz weiß wie wir selber.

    • @ Kommentatorenkollege Bal :

      Wäre Selbsterkenntnis denn ein notwendiges Feature für eine künstliche Intelligenz?

      Offensichtlich. Ansonsten lägen Maschine oder Tier vor.

      Das, was gemeinhin AI genannt wird, meint insofern oft auch nicht die Intelligenz (ein vor vielleicht 100 Jahren entwickeltes Konzept, dass die Messbarkeit von Verständigkeit, Schlauheit, Weisheit, Abgefeimtheit etc. meint – hier sehr unscharf ist), sondern das Funktionieren (von Gerätschaft), Lernsysteme, vor ca. 30 Jahren war mal ‚Expertensystem‘ ein Modewort.

      Insofern geht’s hier um den Geist (das Fachwort), diesen gilt es sich mühsam, evolutionär außerordentlich mühsam, zu erwerben.
      Hier schaut’s natürlich bei der sogenannten AI extra-mau aus.

      MFG
      Dr. Webbaer (der hier schon eher auf die Entwicklung von Mischwesen tippen würde, die DNA und Rechnerkapazität irgendwie vereinen, Transhumanismus und so – kann aber nicht so funktionieren, wie oft gemeint)

  25. Balanus,
    das wäre dann die künstliche Intelligenz in Vollendung. Das wäre auch der Prüfstein aller Religionen. Denn dann wären wir in der tat Gott ähnlich, indem wir wesen erschaffen, die selbständig denken könne. Sind wir dann deren Götter?
    freie Fahrt für die Phantasie!

  26. @Bote17

    »Gott ähnlich«…

    …sind wir auch so schon, wenn ich das recht in (katholischer) Erinnerung habe.

    Wenn eine künstliche Intelligenz behaupten würde, sie hätte eine Gotteserfahrung gemacht, dann wäre eine Fehlersuche angezeigt.

  27. Hierarchische neuronale Netzwerke wie sie beim Deep Learning eingesetzt werden haben heute noch starke Limitierungen. So können sie Gelerntes nicht auf andere Gebiete anwenden (fehlende Generalisierung) und haben kein Gedächtnis, denn das trainierte neuronale Netz reagiert auf den gleichen Input immer gleich und kann nichts speichern was vorher geschah. Deshalb kann man ein solches Netzwerk nicht trainieren, dass es den kürzesten Weg zwischen zwei Haltestellen im U-Bahn Netz beispielsweise von London findet. Ferner benötigen solche Netzwerke sehr viele Eingabedaten zum Training.
    Wie schon geschrieben gibt es verschiedene experimentelle Ansätze diese Schwächen zu überwinden. Der arxiv-Artikel Meta Networks berichtet über einen solchen. In der Kurzzusammenfassung findet man folgende Beschreibung (von mir übersetzt):„Meta Networks (MetaNet), erwirbt ein Metaebenen Wissen über die Aufgaben und verschiebt seine induktive Tendenz der schnellen Verallgemeinerung [aufgrund vorhergehenden Beispielen] durch schnelle Parametrisierung. Bei der Prüfung mit den Standard-One-Shot-Lern-Benchmarks erreichten unsere MetaNet-Modelle nahezu menschliche Genauigkeit. Wir haben einige ansprechende Eigenschaften von MetaNet in Bezug auf Verallgemeinerung und kontinuierliches Lernen gezeigt.“

    Das ist nur eine Arbeit von vielen in diese Richtung. Es gilt das gleiche wie für die Batterieforschung oder auch andere Forschungsbereiche. Nur weniges über das begeistert berichtet wird, bewährt sich später oder wird überhaupt weiterverfolgt.

  28. Dr. Webbaer,
    ………….Transhumanismus,
    das wäre doch ein brauchbarer Ansatz. Wenn bei einem Menschen einzelne Hirnfunktionen ausfallen, dann könnte man die durch Computer ersetzen oder nur deren Signale verstärken.
    Vielleicht gelingt sogar einmal die Steuerung eines Computers direkt über das Gehirn. Oder man implantiert Speicherchips.
    Die Wirklichkeit überholt oft die Phantasie.

    • An Gehirnimplantaten für den Ersatz oder die Verbesserung des Gedächtnisses wird geforscht. Ein Neurowissenschaftler glaubt, das Geheimnis des menschlichen Gedächtnis bereits entschlüsselt zu haben und in der Lage zu sein einen künstlichen Hippocampus in Chipform zu schaffen. Der Hippocampus nimmt nämlich eine Schlüsselrolle bei der Bildung des Langzeitgedächtnis.

        • Der Wikipedia-Eintrag zum Thema „Hippocampal prothesis“ ist deutlich irreführend. Der Hippocampus zieht sich an beiden Seiten ziemlich lang durch das Gehirn, ihn zu ersetzen oder auch nur zu unterstützen ist derzeit deutlich außer Reichweite. Die Arbeiten von Theodore Berger sind kaum mehr als ein Proof-of-Concept, von einem erfolgreichen Einsatz beim Menschen kann keine Rede sein. Das im Wikipedia-Beitrag ausgiebig zitierte Buch von Berger stammt aus dem Jahr 2005, und die hohen Erwartungen an die Technik haben sich nicht erfüllt. Selbst der vergleichsweise einfach zu implementierende hirngesteuerte künstliche Arm für vollständig gelähmte Patienten kommt nur recht selten zum Einsatz. Grundsätzlich gilt: Alle Eingriffe am offenen Gehirn sind mit einem extremen Risiko verbunden. Der Hippocampus ist beim Menschen nur schwer zugänglich, und jeder Eingriff dort könnte zu einer tödlichen Infektion oder zu einem irreversiblen Schaden führen. Bisher ist die Idee, den bei der Alzheimer-Erkrankung besonders stark betroffenen Hippocampus durch eine Prothese zu stützen, ausgesprochen unrealistisch.

          • Hirnimplantate sind sicher problematisch, nicht nur wegen der Gefahr von postoperativen Infekten, sondern auch wegen ungewisser Langzeitstabilität. Die Studie A meta-regression of the long-term effects of deep brain stimulation on balance and gait in PD zeigt jedenfalls eine Abnahme der Wirkung der elektrischen Hirnstimulation durch tiefe Implantate bei Parkinson.

            Über den künstlichen Hippocampus hat zuletzt (2016) Wired in The Neuroscientist Who’s Building a Better Memory for Humans berichtet. Berger sei nun Chefwissenschaftler der Firma „Kernel“ (es gibt diese Firma), welche den künstlichen Hippocampus vermarkten will. Man liest im Wired-Bericht über Versuche am Menschen:
            „Berger is currently conducting a human trial with a version of the device, and says that so far, the patients in his human trial are performing well on memory tests.“

            Zu rechtfertigen ist so eine Gedächtnisprothese sowieso nur bei ähnlich schweren Krankheitsbildern wie es der fortgeschrittene Parkinson ist.

          • Danke für die Links, Herr Holzherr. Ich lese da mit einigem Erstaunen, dass Herr Dr. Berger bereits Menschenversuche macht. Eine wissenschaftliche Veröffentlichung darüber habe ich aber nicht gefunden. Die Firma Kernel hat leider keinen sehr informativen Webauftritt, so dass ich da auch nicht weiterkomme. Ich bleibe aber dabei: ein funktionierendes Implantat für die Stimulierung des Gedächtnisses ist erst einmal nicht möglich und ich bezweifle sehr stark, dass es in den nächsten 10 Jahren möglich sein wird.

          • Die Firma Kernel hat sich laut MIT-Review inzwischen von Theodore Berger getrennt, weil Bergers Visionen zu komplex, zu spekulativ und zu weit von einer medizinischen Realisierung entfernt seien. Bergers künstlicher Hippocampus sei zudem kein Einstiegspunkt in das Gebiet der Neurotechnologie, welches vom Firmengründer von „Kernel“ anvisisert wird. Statt dessen fokussiert sich die Firma nun auf allgemeine Brain Computer Interfaces.

  29. Ein neuronales Netz, das in einer Fotographie eine Katze erkennt, kann nicht sagen, warum es die Katze erkennt. Das ist der wichtigste Grund, warum das Vertrauen in solche Systeme bei potenziellen Anwendern noch gering ist, denn ohne Erklärung weiss der Anwender auch nicht, warum es in gewissen Fällen klappt, in anderen aber nicht. DARPA hat darum eine Reihe von Projekten gestartet, die das ändern wollen. Darüber berichtet der Artikel The U.S. Military Wants Its Autonomous Machines to Explain Themselves
    Einfach dürfte diese Aufgabe nicht sein. Hierarchische neuronale Netzwerke wie sie beim Deep Learning verwendet werden organisieren sich aufgrund des Lernerfolgs nämlich selbst, indem sie die Gewichtung von Inputen von Neuronen ändern. Diese Änderung geschieht aber aufgrund von statistischen Gründen. Das System macht dies ohne jegliches semantisches Wissen. Ein Deep Learning System weiss also nicht, dass es Katzen erkennen soll und was die Charakeristika einer Katze sind, sondern es weiss leztlich nur, dass es das markierte Objekt wiedererkennt oder eben nicht. Aus dem Resultat, einem Netzwerk von Millionen von Neuronen mit unterschiedlicher Inputgewichtung, lässt sich der Grund für die Erkenntnisleistung nicht ablesen – mindestens nicht auf einfache Art und Weise.

  30. Deep-Learning kann man beispielsweise hier in Aktion sehen. Dabei wird ein neuronales Netz mit dem MNIST-Ziffern-Datenset trainert. Nach Training an den 50’000 handgeschriebenen Ziffern, die jeweils in einem 24×24 Pixel Bild festgehalten sind, kann das neuronale Netz Ziffern aus dem Validierungsset (10’000 24X24 PixelBilder) mit einer Trefferrate deutlich über 95% richtig klassifizieren.

    In diesem Beispiel scheinen einige Minuten Trainingszeit zu genügen. Je mehr Pixel die Trainingsbilder enthalten desto mehr Zeit wird benötigt. Die Zeit steigt auch mit der Komplexität der Aufgabe. In realistischen Beispielen kann selbst ein Supercomputer mehrere Tage mit dem Training beschäftigt sein.

    Das Beispiel zeigt auch gut, dass der Lernfortschritt typischerweise recht langsam ist. Die Wiedererkennungssicherheit ist nach 3000 und nach 8’000 Testbildern fast gleich hoch. Doch irgendwann steigt sie dann auf rech hohe Werte. Es braucht aber Geduld.

  31. Martin Holzherr,
    deep learning könnte auch bei der Personenerkennung verwendet werden. Damit hätten wir dann den gläsernen Menschen.

    • Menschen, die Internet, Kreditkarte, Smartphone verwenden und sich im städtischen Raum bewegen (in London hat es tausende von Kameras) sind heute schon gläsern. Doch Politiker, die beispielsweise das Bargeld abschaffen wollen, sind mit dem heutigen Grad der Gläsernheit noch nicht zufrieden, denn Bargeld ist anonym. Wenn es kein Bargeld mehr gibt, kann jede einzelne Zahlung bei Bedarf auf einen Zahlungsgrund, auf eine Transaktion samt den involivierten Personen, zurückgeführt werden.

      Der Bedarf an Rückverfolgbarkeit von Handlungen und Meinungsäusserungen wird in Zukunft eher noch ansteigen.
      In bestimmten Ländern früher als in anderen. China plant ein Social Credit System. Dieses soll eine Bewertung für jeden chinesischen Bürger mit sich bringen und Regierungsdaten ihren ökonomischen und sozialen Status betreffend miteinbeziehen.

      Was die automatische Personenerkennung durch Überwachungskameras betrifft: Das ist nur eine Frage der Zeit, ob nun mit Deep Learning oder ohne. Man kann sich vorstellen, dass ein System welches Überwachungskameras einsetzt schon in naher Zukunft wissen wird, wer wann auf dem Bild erschienen ist. Das wird die Aufdeckung von Verbrechen erleichtern, kann aber auch zur Überwachung unliebsamer Personen eingesetzt werden.
      .

  32. Für interessierte Laien empehle ich das online-Buch Neural Networks and Deep Learning von Michael Nielson, das im Januar 2017 erschienen ist und die grundlegenden Techniken bei der Verwendung von neuronalen Netzwerken für das Deep Learning erklärt.
    Auch Urteile über das Potenzial und die Grenzen solcher Techniken werden mit der Lektüre fundierter. Für mich jedenfalls wird deutlich, dass rein auf den hier beschriebenen Techniken basierende Systeme zwar zu verblüffenden Leistungen fähig sein können, doch urteils- und erkenntnisfähig sind solche Systeme nicht und Absichten oder tiefere Zielen können sie nicht verfolgen.
    Ein Fortschritt sind Deep Learning Systeme gerade über ihre konzeptionelle Einfachheit. Frühere AI-Systeme waren nämlich trotz hoher Komplexität unflexibel und voller schwer nachvollziehbarer Fehlleistungen.

  33. Deep Learning und Big Data können menschliche Experten in er Erkennung von versteckten Mustern/Hintergründen übertreffen. Eine Chance für die Medizin (Imaging, Gesundheitsrisiken, versteckte Zusammenhänge), Politik und Ökonomie. Bevorstehende Konjunktureinbrüche, die Risiken eines bestimmten Konsum- und Lebensstils oder die Wahrscheinlichkeit eines Politikwechsels können von einer künstlichen Intelligenz, die auf neuronalen Netzen und probabilistischen bayes’schen Algorithmen basiert, möglicherweise weitaus besser beurteilt und prognostiziert werden, als heute von Menschen. Vor allem, wenn diesen probalistischen, bayes’schen Algorithmen grosse Datenmengen zur Verfügung stehen – was heute im Zeitalter der Social Media und der persönlichen Kundenprofile der Fall ist.
    In Bezug auf die Medizin geht der MIT-Review-Artikel Nvidia’s Deep-Learning Chips May Give Medicine a Shot in the Arm auf das Potenzial dieser neuen AI-Technologien ein.

  34. by its nature, deep learning is a particularly dark black box. liest man im MIT-Artikel The Dark Secret at the Heart of AI. Das ist ein echtes Problem: Ein autonomes Auto kann heute das Fahren allein mittels Training eines künstlichen neuronalen Netzes im konzeptionellen Umfeld des deep learning lernen. Doch es kann keine Auskunft über seine Entscheidungen geben, beispielsweise nicht sagen warum es eine grüne Ampel überfahren hat.

  35. Der Deep-Learning-Vorreiter Yoshua Bengio sagt im MIT-Interview:Maschinen verstehen heute kaum, was sie tun. Wir sind weit davon entfernt.
    Yoshua Bengio ist der Mitautor des für ambitionierte Laien wohl besten Deep Learning Buches und eine anerkannte Autorität auf diesem Gebiet.
    Hier seine Aussage über den Charaketer des heutigen Deep Learning Prozesses (mit google translate übersetzt):
    Maschinelles Lernen bedeutet, dass Sie einen mühsamen, langsamen Prozess des Erwerbs von Informationen durch Millionen von Beispielen haben. Eine Maschine verbessert sich, ja, aber sehr, sehr langsam und sehr spezialisiert. Und die Art von Algorithmen, mit denen wir spielen, sind gar nicht wie kleine Virus-Sachen, die sich selbst programmieren. Das ist nicht das, was wir tun.
    Folgende Defizite sieht Bengio in heutigen Deep Learning Systemen:
    – Objekte, die erkennt werden sollen, müssen in der Trainingsphase markiert und angeschrieben sein
    – Die Trainingsdaten umfassen typischerweise tausende bis Millionen Rohdatensätze (z.b: Bilder) und alle müssen in der Trainingsphase markiert und angeschreiben werden
    – Texte werden von Deep Learning Systemen nicht verstanden. Man kann nach der Trainingsphase also keine Fragen zum Text stellen und das System beantwortet sie sinnvoll.
    – Es fehlt generell die Fähigkeit zum „Nachdenken“ (Resoning) und die Fähigkeit logische Schlüsse zu ziehen.
    – Deep Learning Systeme arbeiten jetzt zuwenig wie das menschliche Hirn

    Yoshua Bengio sagt sogar:Ich pflege mit dem Gedanken zu spielen, das Feld nicht künstliche Intelligenz, sondern künstliche Dummheit zu nennen. Ja, unsere Maschinen sind dumm, und wir versuchen nur, sie weniger dumm zu machen.

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben