Allgemein intelligent

BLOG: Analogia

kognitiv inspiriert künstlich intelligent
Analogia

Nach den beiden Analogia-Eröffnungspostings zum Thema Künstliche Intelligenz im Allgemeinen (“Künstliche Träume”), und zum Studium von Analogien im KI-Kontext  (“Namensverhältnisse”), soll nun noch – getreu dem Motto “Aller guten Dinge sind drei.” – ein Thema zur Sprache kommen, welches innerhalb der KI-Gemeinde im Lauf der letzten Jahre zunehmend (wieder) zu Diskussionen und der einen oder anderen hitzigen Debatte führte und führt: Artificial General Intelligence (AGI), d.h. das Streben, ein allgemein intelligentes System zu konzipieren und zu konstruieren.

An dieser Stelle als kleiner Disclaimer vorab: Da ich selbst (wie ein Großteil der KI-Arbeitsgruppe des IKW in Osnabrück) regelmäßig mit AGI-Themen beschäftigt bin, und mich auch als mehr und mehr aktives Mitglied der zugehörigen Community betrachte, mag die folgende Darstellung der Ideen und Perspektiven dieser KI-Spielart durchaus als subjektiv und/oder positiv verschoben wahrgenommen werden – die Sichtweise eines abgrundtiefen KI-Skeptikers würde wohl eine andere sein! Sagen Sie später nicht, ich hätte Sie nicht gewarnt.

 

Also, wobei handelt es sich bei dieser ominösen “Artificial General Intelligence”-Bewegung? AGI bezeichnet als Gebiet einen losen Zusammenschluss von Forschern innerhalb der gesamten KI-Community, welche in ihrer Arbeit Betonung auf möglichst allgemeine (d.h. bspw. nicht domänen- oder anwendungsspezifische) Systeme und Modelle legen. In dieser Hinsicht ist AGI also eine echte Unterdisziplin der Künstlichen Intelligenz.

Will man nun AGI von Mainstream-KI abgrenzen (vorausgesetzt, man glaubt an die Existenz letztgenannten Konzeptes), so lässt sich dies wohl am einfachsten mit den beiden Slogans “Ganzheitlicher Ansatz, Intelligenz in all ihren Spielarten” auf der einen Seite (AGI), im Gegensatz zu “Fokus auf einzelne Aspekte oder Anwendungen von Intelligenz” auf der anderen Seite (Mainstream-KI), tun.
Und wem das alles irgendwie bekannt erscheint: Richtig, die Wurzeln von AGI reichen eindeutig bis zu den Anfängen der KI selbst zurück, und viele der Traditionen der klassischen “starken KI”, der “general intelligent systems” oder der “thinking machines” finden ihre Fortsetzung im AGI-Programm.

 

Wer ist also Teil der Familie, und wer nicht? Diese Linie ist schwer zu ziehen, und wird daher gerne umgegangen, bzw. jedem Wissenschaftler selbst zur Entscheidung überlassen. Generell kann man sagen, dass das Gebiet mehr durch die Allgemeinheit der jeweiligen Forschungsziele und -methoden gekennzeichnet ist, als durch Paradigmen auf Architekturseite, oder konzeptuelle Zugeständnisse und Positionsnahmen.
So gibt es auch keinerlei Beschränkungen bzgl. verwendeter Techniken oder unterliegender Modelle in den jeweiligen Systemen. Einzige Bedingung ist tatsächlich ein domänenübergreifender, allgemeiner Funktionsanspruch der Ergebnisse – im Gegensatz zum Beispiel zu spezialisierten Anwendungen wie dem Schachspiel, Navigationsaufgaben, oder medizinischer Diagnosetasks.

 

Wie ja bereits erwähnt, lassen sich die Ursprünge derartiger Bestrebungen tatsächlich bis zur ersten Generation des KI-Stammbaumes zurückverfolgen. Newell and Simon, Minsky, McCarthy, vielleicht sogar Turing selbst träumten davon, Computersysteme zu entwerfen und zu bauen, welche mindestens menschenähnliche Fähigkeiten über zahlreiche Domänen hinweg aufweisen sollten. Einer der schönsten Belege hierfür ist wohl der Name eines der frühen KI-Großprojekte: General Problem Solver.

Leider blieb, trotz anfänglich vielversprechender Ergebnisse (und damit verbundener exorbitanter Erwartungen), aber der große Erfolg aus, und mehr und mehr KI-Forscher beschlossen, sich spezialisierteren (oft leider auch etwas weniger ambitionierten) Forschungsfragen zuzuwenden – bis hin zu einer Situation, in welcher die Arbeit an “starker KI” (d.h. künstlicher Intelligenz auf zumindest menschenählichem Niveau) als Karrierekiller bezeichnet werden musste.

Nichtsdestotrotz, einige Langzeitprojekte innerhalb der KI überlebten die letzten Jahrzehnte, und fangen nun an, Frucht zu bringen – ein Beispiel hierfür ist etwa das Cyc-Projekt, welches nun sowohl wirtschaftlich, als auch wissenschaftlich bemerkenswerte Ergebnisse vorzuweisen hat. Und auch die Wissenschaft orientiert sich neu: Angesichts dieser Erfolge, aber auch neuer theoretischer Resultate, Techniken und Paradigmen, welche in den  letzten Jahren erst Reife erlangten, wenden sich wieder mehr Forscher AGI als Gebiet zu (wofür auch die Entstehung einer eigenen jährlichen Fachkonferenz, der Conference on Artificial General Intelligence, oder einer eigenen Fachzeitschrift, dem Journal of Artificial General Intelligence, Anzeichen sind).

 

Und was ist nun mit einer Definition von AGI? Wie so oft in der KI, so scheiden sich hier die Geister (selbst dann, wenn man die üblichen grundlegenden methodologischen und wissenschaftstheoretischen Probleme bereits einmal von Anfang an außen vor lässt), und ich wage zu behaupten, dass es wohl ähnlich viele Definitionen gibt, wie sich  Personen in diesem Feld betätigen. Daher im Folgenden zwei Versuche, “künstliche allgemeine Intelligenz” zu umschreiben, der erste angelehnt an eine Definition von Pei Wang (einem der Hauptakteure innerhalb der AGI-Gemeinde), der zweite ausgehend von meiner persönlichen Sicht und Überzeugung.

Pei Wang will mit AGI die Fähigkeit eines informationsverarbeitenden Systems bezeichnet wissen, sich an seine Umgebung anzupassen, während es gleichzeitig mit unvollständigem Wissen über diese Umwelt, und begrenzten Systemressourcen auskommen muss. Pei Wang legt hierbei auf folgende Elemente Wert: Das System muss finit sein, in Echtzeit reagieren können, offen für vorher un(vorher)gesehene und unerwartete Anforderungen sein, und aus Erfahrung lernen.

In meinen Augen muss ein System, um als Verkörperung einer AGI betrachtet werden zu können, mindestens in der Lage sein, in bedeutungsvolle Interaktion und Informationsaustausch mit seiner Umwelt zu treten, sich an Veränderungen in seiner Umwelt anzupassen, sein eigenes Fortbestehen (gerne auch als “Überleben” bezeichnet) im Rahmen seiner Möglichkeiten sicherzustellen, und Verhalten zu zeigen, welches dazu führt, dass Menschen das System als intelligent bezeichnen würden.
Noch ein kurzes erläuterndes Beispiel hinsichtlich des “Überlebens im Rahmen seiner Möglichkeiten”: Verfügt ein System als einzigen ausgehenden Interaktionskanal mit seiner Umwelt über eine Form von Sprachoutput, befindet sich aber alleine mit einer Zeitbombe in einem schallisolierten Raum, so liegt die Bewältigung der Situation (im Sinne von “Sicherstellung seines Fortbestehens”) mit an Sicherheit grenzender Wahrscheinlichkeit außerhalb der Möglichkeiten des Systems. Verfügt das System aber bspw. über Räder oder Aktuatoren, so sollte das System doch zumindest Versuche unternehmen, den Raum zu verlassen, oder die Bombe zu entschärfen.

 

Der alles entscheidende Punkt ist aber natürlich: Ist AGI möglich, d.h. a) ist es theoretisch möglich, eine Maschine zu konzipieren, welche den notwendigen Anforderungen gerecht wird, und b) könnte dieses Maschinenmodell dann auch praktisch umgesetzt werden?
Beide Fragen sind im Moment nicht zu beantworten – Frage b) aufgrund ihrer Abhängigkeit von Frage a), und Frage a) selbst ist eine offene und bis dato völlig unentschiedene Herausforderung aktueller Forschung.

Daher, aus heutiger Sicht, hierzu nur zwei Anmerkungen:
1.) Trotz jahrzehntelanger Versuche konnte weder die Unmöglichkeit, noch die Möglichkeit von AGI überzeugend gezeigt werden. Nichtsdestotrotz hat die KI-Forschung  für mich persönlich verblüffende und tief beeindruckende Ergebnisse erbracht: Sei es nun ein populäres Beispiel wie das Jeopardy!-spielende IBM System namens Watson, oder an sich wohl nur Forschern bekannte Systeme wie die Analogy Engines CopyCat/MetaCat (D. Hofstadter) oder AMBR (B. Kokinov).
Insofern bin ich doch stark geneigt, das Glas als halbvoll zu betrachten, und an das Möglichsein einer “künstlichen allgemeinen Intelligenz” zu glauben.
2.) Um Edward Young zu zitieren: “Those who build beneath the stars build too low.”

 

In diesen Sinne: Ich freue mich auf hoffentlich zahlreiche und gerne auch kontroverse Kommentare, und bis zum nächsten Blogpost!

PS: Wer gerne eine verwandte, aber doch in manchem andere Perspektive auf AGI lesen möchte:
P. Wang, B. Goertzel, “Introduction: Aspects of General Intelligence”. In: B. Goertzel, P. Wang (eds.): Advances in Artificial General Intelligence – Proceedings of the AGI Workshop 2006, IOS Press, 2006.

Avatar-Foto

Jack of all trades, (hopefully) master of some: - Diplommathematiker (FAU Erlangen-Nürnberg),... - ...Logic Year-Absolvent (ILLC, Universiteit van Amsterdam),... - ...PhD in Cognitive Science (IKW, Universität Osnabrück),... - ...Postdoc am KRDB der Freien Universität Bozen-Bolzano,... - ...und inzwischen am Digital Media Lab der Universität Bremen. Themen aus der (vor allem kognitiv-inspirierten) künstlichen Intelligenz, der künstlichen Kreativität, der Philosophie des Geistes, und dem Grenz- und Interaktionsbereich zwischen Wissenschaft und Gesellschaft. ==================== Alle zum Ausdruck gebrachten Annahmen, Meinungen, Einschätzungen, und Stellungnahmen stellen ausschließlich meine private Position zu den jeweiligen Themen dar, und stehen (außer, wenn explizit anders ausgewiesen) in keinem inhaltlichen Zusammenhang mit Institutionen aus meinem beruflichen Umfeld.

13 Kommentare

  1. AGI nötig für ein kompetentes System

    Kompetenz auf einem Gebiet – auch wenn es nur ein Spezialgebiet ist – ist das mindeste was ich von einem sich intelligent nennenden Akteur verlange.

    Ein Raubtier hat für mich bereits eine Art Kompetenz, die Kompetenz sensorischen Input und eigenes Verhalten in den Dienst der Jagd zu stellen. Ja ich bin sogar in Versuchung von einer Raubtierpersönlichkeit mit ihrer eigenen Ausprägung zu sprechen. Dazu zähle ich individuelle Techniken (also Jagdtechniken), die das Tier entweder selbst erworben hat oder von seinen Eltern, seiner Gruppe gelernt hat.

    Aber auch ohne jeden sensorischen Input ausser dem aus Datenbanken und Webseiten kann es Kompetenz geben. Ein System, das grosse Teile der Wikipedia verstehen, verschiedene Wikipedia-Artikel richtig zueinander in Beziehung setzen und schlussfolgern kann und das sinnvolle Fragen stellen kann oder auf Widersprüche aufmerksam macht, ist kompetent, auch wenn es mit weniger strukturierter Information als der in der Wikipedia noch wenig anfangen kann.

    Deshalb wäre für mich bereits ein grosser Durchbruch erreicht, wenn ein System beispielsweise alle Brettspiele, die es gibt, erlernen könnte und sich auch steigern könnte – unter der Voraussetzung, dass es zu Beginn nur ein paar wenige oder gar keine Spiele kennt, weil ihm nur allgemeine Regeln über Spiele einprogrammiert wurden.

    Weil nun AI-Systeme zunehmend Assistenzaufgaben wie das automatische Fahren eines Fahrzeugs übernehmen sollen und es darum nicht nur grossen Forschungsaufwand in diesem Anwendungsgebiet gibt, sondern die Systeme auch den Praxistest bestehen müssen, erwarte ich grosse Fortschritte für Systeme mit einer begrenzten Kompetenz. Kompetenz schliesst auch ein, dass das System erkennt, wenn es überfordert ist. Beim automatischen Autofahren müsste ein solches System das Steuern an den menschlichen Fahrer übergeben oder sich selbst an einer günstigen Stelle parkieren.

  2. Assoziation und Analogieschluss

    CopyCat/MetaCat als AI-Programm,das Probleme der Art löst
    Wenn abc umgewandelt wird in abd wie soll dann mrrjjj umgewandelt werden

    zeigt auf einer sehr einfachen Anwendungsdomäne (Zeichenketten) Assoziations-/Generierungsprozesse und Analogieschlüsse wie sie beim Menschen ständig vorkommen.

    Assoziation als Evokation von ganzen Beziehungsgeflechten, in denen die fluide Intelligenz navigiert, ist tatsächlich etwas grundlegendes im menschlichen Denken, wobei die Prozesse die ablaufen, bei den meisten Menschen wohl sehr ähnlich sind, aber Erinnerung und Vorwissen eine grosse Rolle spielen, denn sie bestimmen wie gross und strukturiert das Beziehungsgeflecht ist, das assoziiert ist.

    Nehmen wir die Einleitung des ersten AI-Beitrags Künstliche Träume:

    “Und jedem Anfang wohnt ein Zauber inne,…”

    Dieses – zugegeben: oft bemühte – Hesse-Zitat..

    Wenn ich den ersten Satz lese, bringe ich – da ein Vielleser, der Lesestoff auf bekannte Schemata überprüft – zuerst den Titel Künstliche Träume mit dem Satzteil wohnt ein Zauber inne in Zusammenhang wobei ich bei Hesse an seine Phantasiewelten a la Glasperlenspiel denke und überlebe dann, was für einem bekannten Schema ein solcher Anfang eines Artikels entspricht.
    Das führt zu folgenden Schlüssen/Gefühlen (unter anderem):
    Zitat/Motto am Anfang => Variationen zu einem Thema, einer Moral

    Zauber und Traum => Versprechungen, die vielleicht nicht eingehalten werden, Nach den Sternen greifen und ähnliches

    Wenn ich dann weiterlese Dieses – zugegeben: oft bemühte – Hesse-Zitat.. dann stelle ich enttäuscht (?) fest, dass ich dieses Zitat noch nicht kenne und habe 3 Sekunden später einen neuen Browser-Tab geöffnet in den ich dieses Zitat hineinkopiere.

    In Wirklichkeit werden natürlich noch viel mehr Assoziationen generiert und es stellt sich so etwas wie ein Gefühl für den Text ein.

    Generieren von möglichen Interpretationsmöglichkeiten ist also etwas grundlegendes im menschlichen Denken und das Generieren wird auch beeinflusst von gelernten/erfahrenen Schemata und Regeln.

    Und all das macht CopyCat/MetaCat bereits, allerdings auf einem sehr anwendungsfernen Anwendungsgebiet.

  3. Allgemein intelligent aber dumm sonst

    Ihre Titel gefallen mir, sie enthalten unaufdringliche Spielereien und regen zum Denken an (mindestens mich, ich lass mich gern zum assoziieren und spintisieren verführen). Und sie (die Titel) enthalten schon -mindestens versteckt – einen Widerspruch eine Gegenposition zum Hauptthema. Nun, das kann natürlich auch eine Verteidigungsstrategie sein mit dem Zweck etwaige Fundamentalopponenten zu beruhigen.

    Künstliche Träume als google-Suchanfrage ist nicht sehr ergiebig, dafür aber Artificial Dreams

  4. Besser keine Echtzeit

    “Pei Wang legt hierbei auf folgende Elemente Wert: Das System muss finit sein, in Echtzeit reagieren können, offen für vorher un(vorher)gesehene und unerwartete Anforderungen sein, und aus Erfahrung lernen.”

    Die Forderung an AGI-Systeme in Echtzeit reagieren zu können missfällt mir. Es scheint mir sinnvoller zu sein zunächst “vernünftige” Algorithmen zu finden, die Probleme aus verschiedenen Domänen “intelligent” lösen können, ohne jeden Zeitdruck. Eine Beschleunigung kann sich dann ja durch Weiterentwicklung der Hardware ohne weiteren Aufwand in den nächsten Jahren von selbst ergeben. Mit Aufrechterhaltung der Echtzeitforderung erscheint mir die Gefahr groß zu sein, dass man auf schnelle Heuristiken, Näherungen zurückgreift und bei Systemen landet, die Intelligenz nur schlecht simulieren.

    Bei der Entwicklung solcher AGI-System wäre der gleiche Weg vorgezeichnet, den die Evolution bereits genommen hatte, als sie die Intelligenz erfand. Bei der Evolution war dies allerdings zwingendermaßen so, während die AGI-Forschung diese Einschränkung ja nur künstlich erzeugt. Dass das nicht der richtige Weg sein kann, ahnen wir alle. Wir sehen ja was bei der erstmaligen Entwicklung herausgekommen ist – Intelligenzsimulatoren mit erschreckend hoher Fehlerquote und einem immensen Bedarf an speziell ausgebildeten Lehrern, sonstigem Betreuungspersonal, Versicherungsgesellschaften und Therapeuten.

  5. Echtzeit, Intelligenz

    1) Unser Gehirn arbeitet nie in Echtzeit, da zwischen Erlebnis und Reaktion immer eine gewisse Zeit verstreicht. Deshalb müssen auch Reaktionen der KI diese Zeitdifferenz berücksichtigen.
    2) Unsere Erfahrungen sind im Gedächtnis in zeitlicher Gegenwartsform (als/wie Betriebsanweisungen) abgespeichert. Sie werden passend entsprechend des Eingangsreizes frei geschaltet/addiert. Damit wird das Arbeitsgedächtnis/Bewusstsein erweitert und ermöglicht eine sofortige angemessene Reaktion. KI und Computer arbeiten mit up-/downloads; diese Vorgehensweise dauert wesentlich länger.
    3)Aber: Intelligenz heißt nicht ´fehlerfrei´. Dies sollte man nicht verwechseln. Beim Menschen sind Fehler eine Quelle von Kreativität

  6. @KRichard, Echtzeit

    „1) Unser Gehirn arbeitet nie in Echtzeit, da zwischen Erlebnis und Reaktion immer eine gewisse Zeit verstreicht. Deshalb müssen auch Reaktionen der KI diese Zeitdifferenz berücksichtigen.“

    Echtzeit bedeutet nicht, so verstehe ich Sie aber, dass eine Reaktion ganz schnell nach einem Reiz erfolgt. In der Informatik heißt Echtzeit lediglich, dass eine Reaktion garantiert innerhalb eines festgelegten Zeitrahmens kommt. Und so verstehe ich auch die Echtzeit bei Pei Wang. Er verlangt einfach, dass eine Anwendung „online“ läuft, also dass die Berechnungen schneller ablaufen als die Eingabe reinkommt.

  7. @Martin Holzherr

    Danke für die Blumen bzgl. der Titel! Ich würde diese nicht als Abwehrstrategie bezeichnen wollen, aber doch durchaus als Zeichen dessen, dass ich mich selbst zwar ganz klar als KI-Optimisten sehe, jedoch die unvoreingenommene Euphorie mancher meiner FachkollegInnen nicht teile, welche z.B. nur noch über die Anzahl der Jahre bis zum Bau der ersten “superintelligenten” (d.h. dem Menschen bzgl. Intelligenz überlegenen) Maschine diskutieren.

    …und was Hamids Buch “Artificial Dreams” anbelangt: Ich halte es für auf jeden Fall lesenswert, und habe es auch selbst im Bücherregal stehen – eine interessante Nicht-Standard-Perspektive auf die KI (eines im Übrigen selbst auch wirklich interessanten und ungewöhnlichen Autors und Wissenschaftlers).

  8. @Joker: Complexity matters

    “Die Forderung an AGI-Systeme in Echtzeit reagieren zu können missfällt mir. Es scheint mir sinnvoller zu sein zunächst “vernünftige” Algorithmen zu finden, die Probleme aus verschiedenen Domänen “intelligent” lösen können, ohne jeden Zeitdruck. Eine Beschleunigung kann sich dann ja durch Weiterentwicklung der Hardware ohne weiteren Aufwand in den nächsten Jahren von selbst ergeben.”
    Ich finde das überhaupt nicht einsichtig. Wenn man einen Algorithmus mit exponentieller Komplexität hat (meinetwegen 2^n) und n mitunter 100 erreicht oder übersteigt, wann wird man denn über Computer verfügen, die solche Probleme im worst case in akzeptabler Zeit berechnen? In 100 Jahren? in 1000? Oder vielleicht eher nie?

    Das ist auch kein Strohmannargument: Kontextsensitive Phrasenstrukturgrammatiken beispielsweise sind von exponentieller Komplexität und man findet in Textkorpora durchaus Sätze mit 100 und mehr Wörtern. Auch wenn es besser aussieht, wenn man den average case betrachtet, scheint es, dass kontextsensitive Phrasenstrukturgrammatiken also nicht besonders geeignet sind, um die grammatische Struktur natürlicher Sprachen abzubilden. Kontextfreie Phrasenstrukturgrammatiken, die einen akzeptablen Komplexitätsgrad haben, dagegen sind wiederum nicht ausdrucksstark genug, um alle grammatischen Strukturen natürlicher Sprachen zu erfassen. Die Computerlinguistik wendet sich deshalb zugunsten anderer Formalismen (wie TAG, LAG etc.) mehr und mehr von Phrasenstrukturgrammatiken ab. In der theoretischen Linguistik ist das nicht der Fall, was ich durchaus für problematisch halte.

    Jedenfalls sollte man sich über Komplexität auf jeden Fall einen Kopf machen. Und wenn Pei Wang Echtzeitfähigkeit fordert, begrüße ich das. Es wird auch in 100 Jahren keine magischen Computer geben, die zu hohe Komplexität einfach weghexen können. Es ist eher ein deutliches Anzeichen, dass der Algorithmus für das Problem nicht geeignet ist.

  9. @ R.M. : Komplex

    “Jedenfalls sollte man sich über Komplexität auf jeden Fall einen Kopf machen.”

    Natürlich muss man sich über Komplexität Gedanken machen, aber nicht zu Beginn. Wenn wir beim Sortieren von vorneherein aus Zeitgründen auf eine Komplexität O(n) bestanden hätten, hätten wir nie einen perfekten Sortieralgorithmus gefunden und hätte uns allein wegen dieser Forderung mit Heuristiken und Näherungslösungen zufrieden geben müssen. Analog zum Sortieren könnten wir uns bei der “allgemeinen Intelligenz” erst mal mit suboptimalem Zeitaufwand zufrieden geben, wie beim Sortieren in der Übungsaufgabe, mit einem einfach zu programmierenden BubbleSort. Zunächst wäre ja zu zeigen, was beim Sortieren schon klar war, dass “allgemeine Intelligenz” sich überhaupt programmieren lässt!

    Roboter, die auf zwei oder mehr Beinen laufen und nicht umfallen sollen, müssen in Echtzeit reagieren können; ebenso Roboter, die beim Fußballspielen gewinnen wollen und auf Ball, Gegner und Mitspieler reagieren müssen. Auf eine intelligente Antwort zu vielen anderen Problemen können wir warten. Erst wenn AGI-System nachgewiesen haben, dass sie imstande sind Aufgaben aus verschiedenen Domänen auf intelligente Art zu bewältigen, sähe ich die Aufgabe für die Entwickler sie zusätzlich für Echtzeitprobleme tauglich zu machen. Intelligente Fußballspieler, beliebig reproduzierbar, welch ein Traum!

    Ein anderes Vorgehen halte ich wie gesagt für problematisch. Wenn wir davon ausgehen, dass die Entwicklung von AGI-Systemen mit enormen Ressourceneinsatz verbunden ist, dann werden solche Systeme irgendwann immer nur noch weiterentwickelt, und nicht mehr von Grund auf neu entwickelt. Genau dies scheint mir ja in der Natur geschehen zu sein. Ich vermute wir Menschen können daher intelligentes Verhalten auch nur simulieren, bzw. nur für einen bestimmten Teilbereich erlernen. Wir finden in der Natur noch gar keine wahre “allgemeine Intelligenz”. Es wäre doch schade, wenn wir auch diese zweite Chance verpassen würden eine solche zu verwirklichen, nur wegen dieser künstlichen Forderung nach Echtzeit gleich zu Beginn der Entwicklung.

    “Kontextsensitive Phrasenstrukturgrammatiken beispielsweise sind von exponentieller Komplexität und man findet in Textkorpora durchaus Sätze mit 100 und mehr Wörtern.”

    Man sollte Maschinen der ersten Generation vielleicht nicht gleich mit Thomas Mann konfrontieren.

  10. OK, bei den Methoden muss man sich niche einschränken. Mich stört an dem AGI-Standpunkt aber, dass er die Evolution der Gehirne so völlig ausser acht läßt und Aspekte vermischt, die sehr unterschiedlich alt sind.
    “Pei Wang will mit AGI die Fähigkeit eines informationsverarbeitenden Systems bezeichnet wissen, sich an seine Umgebung anzupassen,…”
    Das ist eine evolutionsgeschichtlich sehr alte Fähigkeit.
    “während es gleichzeitig mit unvollständigem Wissen über diese Umwelt, und begrenzten Systemressourcen auskommen muss.”
    Diese Beschreibung trifft auf alle Wahrnehmung zu, auch zum Beispiel auf primitive Augen und die Verarbeitung von Sinnesreizen in kleinen Gehirnen.
    “Pei Wang legt hierbei auf folgende Elemente Wert: Das System muss finit sein,…”
    Etwas genauer sollte man die “Grö0e” eines Systems schon beschreiben. Um Lems Robotermönche zu zitieren: Was immer wir bauien, wir bauen in endlicher Weise, und wenn es einen unendlichen Komputer gibt, dann ist das nur Er.
    “in Echtzeit reagieren können,…”
    Überlebensnotwendig für jedes Tier.
    “offen für vorher un(vorher)gesehene und unerwartete Anforderungen sein,…”
    Die Umwelt ist eben nicht nett.
    Für wen aber soll das unvorhergesehen und unerwartet gelten.
    “und aus Erfahrung lernen…”
    Bei Insekten ist dieser Aspekt des Lernens sehr eingeschränkt. Sie sind trotzdem sehr erfolgreich, und wir können die Leistungen ihrer Gehirne trotzdem nicht nachahmen.
    Der Mensch hingegen kann sogar aus den Erfahrungen anderer Menschen lernen.

    Ich habe oben die Vermischung unterschidlich alter Aspekte der Intelligenz und die Vagheit kritisiert. In der Vermischung kann ich auch etwas Positives sehen. Die Fähigkeiten, die AGI untersuchen will, sind im Zusammenhang entstanden und haben in Gehirn, Sinnesorganen und Bewegungsapparat ein gemeinsames Substrat. Nur, irgendetwas fehlt noch zum Verständnis. Aber was bloss?

  11. @ Tarek Richard: Intelligenztest

    Du schlägst folgende Testsituation vor, um zu überprüfen ob ein System über allgemeine Intelligenz verfügt:

    “… befindet sich [ein System] alleine mit einer Zeitbombe in einem schallisolierten Raum,”

    Machen wir die Probe aus Exempel.

    1. Humaner Proband 1. Er wacht auf, sieht eine digitale Anzeige von 100 im Sekundenabstand runterzählend (99, 98, 97 …), sieht die Aufschrift “Bombe” auf einem undefinierbaren Gerät und fängt an Schlussfolgerungen zu ziehen. – Er sucht eine Tür und rennt hysterisch schreiend aus dem Raum.

    Die draußen wartenden Forscher fragen ihn, ob er denn die Aufschrift “Atom-” auf der Oberseite des Geräts nicht gesehen hat und wieweit er glaubt überhaupt rennen zu können, in 100 Sekunden.

    2. Humaner Proband 2. Sie wacht auf, sieht was Proband 1 gesehen hat, sieht die Aufschrift auf der Oberseite und entdeckt drei Drähte (rot, grün, blau), die von der digitalen Anzeige zum Gerät führen und fängt an Schlussfolgerungen zu ziehen. Sie entdeckt ein scharfes Messer und entscheidet sich, den roten Draht durchzuschneiden – die Anzeige stoppt.

    Die hinzutretenden Forscher fragen sie, welche Hollywood-Filme sie gesehen hat, aus welchen Fiktionen sie schöpft, was die Basis ihrer Inferenzen ist, für Schlussfolgerungen, die sich in der realen Welt bewähren müssen; warum sie nicht den großen roten Notstopp-Knopf betätigt habe, der sich auf der anderen Seite des Geräts befindet.

    3. AGI-System der ultimativen Generation, nennen wir es Marvin. Marvin wird eingeschaltet, sieht was Proband 2 sieht und fängt an Schlussfolgerungen zu ziehen. Nach einer Sekunde hat er die Situation analysiert. Die ihm verbliebenen 99 Sekunden der ungestörten Zeit nutzt er – etwas deprimiert und vollkommen gelangweilt – um das Problem weiterzuanalysieren, ob sich aus Wetware jemals intelligente Wesen entwickeln könnten.

    Als die Anzeige auf 0 heruntergelaufen ist, sich im Raum sonst nichts verändert hat, betreten die sichtlich enttäuschten Forscher den Raum. Ob sich Marvin ihnen gegenüber nun erklärt, den Forschern Einblick gewährt in seine Schlussfolgerungen, hängt allein von seiner Stimmung ab.

    Nun, welche der beschriebenen Verhaltensweisen würden wir als Indiz für “allgemeine Intelligenz” bewerten?

    Du schlägst vor: “Verfügt das System […] bspw. über Räder oder Aktuatoren, so sollte das System doch zumindest Versuche unternehmen, den Raum zu verlassen, oder die Bombe zu entschärfen.”

    Ich dagegen plädiere allein für Marvin. Er könnte erkannt haben, schon allein an der Schallisolation, dass es sich um eine Testsituation handelt. Weiter könnte er gefolgert haben, eine so wertvolle Maschine, wie er es ist, würde man niemals einer tatsächlichen Gefahr der Zerstörung aussetzen, nur um zu sehen wie er in einer vermeintlich existenzbedrohenden Situation reagiert. Proband 1 und 2 wären meiner Ansicht nach durchgefallen – keine “allgemeine Intelligenz”.

  12. @Joker

    Sehr überzeugende Antwort 🙂
    Der Artikel erwähnt ja selbst, dass diese Überlegungen zum Teil 60 Jahre alt sind. Bei dem Versuch, AGI als Arbeitsgebiet zu definieren bleibt mir völlig im Dunkeln, was das Neue an diesen Ansätzen sein soll. Es muss irgendetwas mit den — ebenfalls relativ erfolglosen — Anläufen in der Zwischenzeit zu tun haben. Die angekündigten Posts werden das aber sicher erhellen.

Schreibe einen Kommentar