Turings Werk und Searles Beitrag (2)

BLOG: Analogia

kognitiv inspiriert künstlich intelligent
Analogia

So schlicht und schön der Turing-Test als Prüfstein für maschinelle Intelligenz (siehe “Turings Werk und Searles Beitrag (1)”) nun auch erscheinen mag, stellt sich bei näherer Betrachtung leider ziemlich schnell heraus, dass die Geschichte wohl doch nicht ganz so einfach zum erhofften Happy End findet: Zahlreiche (skeptische) Kommentatoren, darunter einige der wirklichen “Hochkaräter” der KI-Forschung, haben über die Jahre eine Vielzahl von Kritikpunkten an der abstrakten Idee, welche dem Turing-Test zugrunde liegt, als auch an der Form des Tests selbst, gefunden.

Während ich die erstgenannte Form von Einwänden, welche zumeist tendenziell metaphysischer Natur sind – und im Übrigen fast ausnahmslos mehr auf die Möglichkeit einer denkenden Maschine als solche abzielen, denn auf die Testbarkeit des Vorhandenseins von künstlicher Intelligenz – für den Moment einmal elegant bei Seite lassen will (mehr dazu an anderer Stelle), wird sich dieser Blog-Eintrag näher mit methodischen und prozeduralen Stärken und Schwächen von Turings Testkonzeption beschäftigen.

Die zwei Hauptvorteile des Turing-Tests sind an sich fast offensichtlich: Seine Einfachheit und pragmatische Natur, sowie die Breite und Tiefe der Testthematik.

Bis dato ist es nicht gelungen, ausreichend spezifizierte, ausschöpfende und konsistente Definitionen zentraler Begriffe wie z.B. “Intelligenz”, “Bewusstsein”, oder “Denken” zu geben, welche es erlauben würden, diese auch in einem technischen Kontext anzuwenden. Doch ohne diese Konzepte ist es wiederum nicht möglich, zentrale Fragen der künstlichen Intelligenz philosophisch zu betrachten, geschweige denn technisch mess- und quantifizierbar zu machen. Hierzu bietet der Turing-Test einen Ausweg – welcher selbst dann, wenn er nicht perfekt ist, in vielen Situationen immer noch Mittel der Wahl ist. Unter den Blinden ist der Einäugige König.

Und auch die thematische Breite und potentielle Tiefe des Tests kann als Stärke gewertet werden, erlaubt sie es doch dem Schiedsrichter, theoretisch alle in Frageform fassbaren Themen abzufragen – und dies nicht nur thematisch, sondern auch methodisch: Das Abprüfen von Faktenwissen, die Aufforderung, einen Satz oder einen Reim zu vervollständigen, Fragen, welche kreative Kapazitäten in ihrer Beantwortung erfordern,… die Liste ist (nahezu) beliebig lange fortsetzbar.
Ebenso auf technischer Seite scheint eine Frage/Antwort-Methode passend, muss die Maschine doch natürlichsprachigen Input korrekt verarbeiten, ebensolchen produzieren, Kontextfaktoren und Weltwissen integrieren, mögliche doppelte Absichten erkennen, etc. – auch hier sind die Herausforderungen zahlreich, und (beschränkt man sich nicht ausschließlich auf Kommunikation auf schriftlicher Basis, sondern erweitert das Setting z.B. um visuellen Input, oder taktile Reize – siehe auch Harnads “Total Turing Test”) können die komplette Vielfalt der gegenwärtig als KI-relevant betrachteten Themen und Fragen widerspiegeln.

Doch genau die eben noch gepriesene Breite und Tiefe der Testthematik stellt (zumindest aus angewandter Ingenieurssicht) auch zugleich eine der Schwächen der Testkonzeption dar: Mag die Vielgestaltigkeit und Vielfältigkeit von philosophischer Warte aus sogar wünschenswert erscheinen, so bedeutet sie doch für den Konstrukteur der (potentiell) intelligenten Maschine eine unglaubliche Vielzahl an zugleich zu bearbeitenden Problemen und Herausforderungen, welche eine Lösung des Gesamtproblems (d.h. ein Bestehen des Turing-Tests) allein aufgrund der Anzahl und Mächtigkeit der einzelnen Zwischenprobleme als nahezu unerreichbar erscheinen lässt. Für viele (wenn auch wohlweislich nicht für alle) sehen motivierende Ausgangssituationen in der Regel anders aus.

Auf mehr konzeptueller Ebene kann als Schattenseite des Tests die “menschliche Intelligenz vs. generelle Intelligenz”-Konfusion angeführt werden: Im besten Fall misst der Turing-Test die Intelligenz der Maschine im Vergleich zur Intelligenz eines Menschen, wenn nicht sogar maschinelle Intelligenz als menschliche Intelligenz (noch dazu allein indirekt zugänglich vermittels Rückschlüssen aus beobachtetem Verhalten).
Dies beinhaltet mindestens zwei mögliche Fehlerquellen:
– Menschliches Verhalten ist oft alles andere als intelligent. Nichtsdestotrotz müsste eine Maschine, welche den Turing-Test bestehen will, auch und gerade diese Verhaltensweisen reproduzieren.
– Intelligentes Verhalten wird allein auf die dem Menschen zugänglichen Bereiche reduziert: Maschinen sind Menschen in verschiedenen Problemlöseaufgaben (wie z.B. der stupiden Multiplikation von Nummern, oder dem Suchen gewisser syntaktischer Muster in großen Datenmengen) allein aufgrund ihrer größeren Berechnungskapazitäten überlegen. Doch auch in diesen Domänen, wo Maschinen potentiell “übermenschliches Verhalten” an den Tag legen könnten, muss die Maschine ihr Verhalten im Turing-Test auf die Grenzen menschlicher Leistungsfähigkeit beschränken.

Noch ein weiterer Aspekt des verwendeten Intelligenzbegriffes zieht die Tauglichkeit des Turing-Tests in Zweifel: Das Urteil über das Vorhandensein künstlicher Intelligenz beruht allein auf Beobachtungen des Verhaltens der Maschine, stellt also einen rein funktionalistisch oder behavioristisch gestützten Zugang dar. John Searle (um dessen “Chinese Room Argument” es im dritten Teil der Eintragserie gehen soll) hat nun die These in den Raum gestellt, der Turing-Test sei nicht dazu in der Lage, zu unterscheiden, ob die Maschine denn wirklich denke, oder das Denken nur simuliere – ob es sich also um “wirkliche Intelligenz”, oder lediglich um “simulierte Intelligenz” handle. Wäre letzteres der Fall, könnte die Maschine potentiell den Anschein erwecken, intelligent zu sein, ohne jedoch über in unserem (Selbst)Verständnis dafür entscheidende Elemente wie Bewusstsein oder Intentionalität zu verfügen.

Ein letzter, wieder mehr methodologischer Kritikpunkt an Turings Test ist “der Faktor Mensch”: Wie auch immer die Ergebnisse eines Durchgangs des Turing Tests aussehen, hängen diese doch nicht ausschließlich von der Leistung der Maschine ab, sondern sind ebenso zumindest auf den Schiedsrichter, wenn nicht auch auf das Verhalten des (menschlichen) Wettbewerbers, bedingt. Die generelle Einstellung zum Thema “maschinelle Intelligenz”, der Grad an Vorerfahrung im Umgang mit Computern und Chatterbots, das allgemeine Niveau an Skepsis oder Gutgläubigkeit – all dies können (mit)entscheidende Faktoren für den Urteilsspruch des Schiedsrichters sein. Und auch das Wissen um das Vorhandensein einer Maschine innerhalb der Imitationsspielsituation hat signifikanten Einfluss auf das Verhalten der am Test beteiligten Teilnehmer (siehe z.B. Saygin & Cicekli: “Pragmatics in human-computer conversation”, 2002).

Und nachdem nun doch in einigem Detail Vor- und Nachteile des Turing-Tests behandelt wurden, hier abschließend noch die Antwort zu einer Schlüsselfrage: Findet Turings Test überhaupt Verwendung?
Ja, das tut er – er hat sogar sein eigenes, jährlich organisiertes Event, die sog. “Loebner Prize Competition”. Hierbei handelt es sich um einen Wettbewerb, bei welchem sich verschiedene Chatterbots miteinander darin messen, welcher von ihnen von menschlichen Schiedsrichtern als “am menschenähnlichsten” beurteilt wird. Der jährliche Gewinner erhält hierbei eine Bronzemedaille (sowie aktuell 3.000$), die Silbermedaille (und 25.000$) ist für den ersten Chatterbot reserviert, welchem es gelingt, die Schiedsrichter davon zu überzeugen, dass es sich bei seinem menschlichen Testgegner um den Computer handele, und die Goldmedaille (inklusive 100.000$) sind demjenigen Bot vorenthalten, welcher die Schiedsrichter in einem erweiterten Testszenario (welches das Verstehen von textuellem, visuellen und Audioinput beinhaltet) auf seine Seite ziehen kann.

Avatar-Foto

Jack of all trades, (hopefully) master of some: - Diplommathematiker (FAU Erlangen-Nürnberg),... - ...Logic Year-Absolvent (ILLC, Universiteit van Amsterdam),... - ...PhD in Cognitive Science (IKW, Universität Osnabrück),... - ...Postdoc am KRDB der Freien Universität Bozen-Bolzano,... - ...und inzwischen am Digital Media Lab der Universität Bremen. Themen aus der (vor allem kognitiv-inspirierten) künstlichen Intelligenz, der künstlichen Kreativität, der Philosophie des Geistes, und dem Grenz- und Interaktionsbereich zwischen Wissenschaft und Gesellschaft. ==================== Alle zum Ausdruck gebrachten Annahmen, Meinungen, Einschätzungen, und Stellungnahmen stellen ausschließlich meine private Position zu den jeweiligen Themen dar, und stehen (außer, wenn explizit anders ausgewiesen) in keinem inhaltlichen Zusammenhang mit Institutionen aus meinem beruflichen Umfeld.

45 Kommentare

  1. Denken wir wirklich oder simulieren wir?

    Menschen denken nicht wirklich. Wie viele Begriffe, die der Mensch geschaffen hat, stecken hinter dem Begriff Denken Ideen und Abstraktionen, die das reale Vorbild bei weitem übersteigen. So hat der Mensch seine Erfahrungen von väterlicher Fürsorge zum Bild eines Gottvaters aufgeblasen und die wirren Dinge, die vielen Menschen wie lästige Mücken im Kopf herumschwirren haben die Menschen mit dem Begriff Gedanken geadelt.

    Wenn Computer je denken werden wissen wir aber als Schöpfer dieser Maschinen genau wie es innen zu und her geht und welche problematischen Entscheidungen, die Programmierer getroffen haben – geschweige denn welche Fehler sich im Gestrüpp des Codes wohl verbergen werden.

    Nein so etwas kann nicht Denken sein. Genausowenig wie die Entladungen in der grauen Substanz, die unseren Kopf füllt Denken sein kann, wenn man einmal weiss welche problematische Entscheidungen die Evolution beim Entwurf dieses Organs getroffen hat und wie die aktuelle Beschaffenheit des Organs von vielen zufälligen oder weniger zufälligen Einflüssen (wie z.B. Alkohol) abhängt.

  2. “Denken” ist der Versuch zu Denken

    und Handeln ist der Versuch zu handeln. Denn Denken und Handeln sind durch unsere Begriffe bereits geadelt.

    Die realen Vorgänge, die wir Denken und Handeln nennen sind oft so schäbig und hinfällig, dass selbst Laurel und Hardy noch gut dastehen im Vergleich zum täglichen Scheitern.

  3. @ Holzherr

    “Menschen denken nicht wirklich. Wie viele Begriffe, die der Mensch geschaffen hat, stecken hinter dem Begriff Denken Ideen und Abstraktionen, die das reale Vorbild bei weitem übersteigen. So hat der Mensch seine Erfahrungen von väterlicher Fürsorge zum Bild eines Gottvaters aufgeblasen und die wirren Dinge, die vielen Menschen wie lästige Mücken im Kopf herumschwirren haben die Menschen mit dem Begriff Gedanken geadelt.”

    Vegeben Sie mir, wenn ich mich einmische – aber ich meine, dass Sie den ersten Satz des obigen Absatzes mit den folgenden beiden stanet pede widerlegt haben.

    1) Der Mensch denkt nicht
    2) Der Mensch ist zur Abstraktion fähig
    3) Abstraktion ist ein Denkprozess.
    4) -> mindestens eine Aussage 1-3 muss falsch sein.

    Welche? Ich schätze mal, Sie werden gegen (3) anargumentieren. Bin gespannt.

  4. @Helmut Wicht: Abstraktion tönt so edel

    Abstraktion ist mehr als ein Denkprozess, es ist eine tief verwurzelte Neigung der meisten, die vorgeben zu denken.

    Abstraktion ist zwar ein schönes Wort – wieder einmal – aber dahinter verbirgt sich oft die schnelle Verallgemeinerung und die Tendenz Erlebtes und Erfahrenes zu überhöhen und auf eine griffige Formel zu bringen.

    So werden dann z.B. ähnlich wahrgenommene Probleme in den Südländern mit dem griffigen Begriff Club med zusammengefasst. In der Praxis bedeutet Abstraktion also oft Labeling. Man muss sich nicht mehr wirklich mit etwas beschäftigen, wenn man dem Ding ein Label angehängt hat und wir alle lieben doch Labels so.

    Abstraktion ist wahrscheinlich gar nicht nur eine höhere Hirnleistung, sondern sie ist geboren aus der schieren Notwendigkeit, Sinn aus der Vielfalt und dem Rauschen herauszufiltern. Und man fühlt sich auch viel besser, wenn man etwas unter dem “richtigen” Begriff eingeordnet hat.

    Abstraktion ist also eine Notwendigkeit und von daher weder gut noch schlecht.

    Wahrscheinlich gibt es aber auch gute und weniger gute Abstraktionen. Aber wer checkt die Güte einer Abstraktion? Die Physiker haben es da wohl am einfachsten. Ein simples Experiment kann ein ganzes Gedankengebäude zum Einsturz bringen.

  5. @ Holzherr

    “Abstraktion tönt so edel…”

    SIE haben den Begriff hier eingeführt. Und ich sehe in Ihren Ausführungen kein Argument, das geeignet wäre, mich davon zu überzeugen, dass eine Abstraktionsleistung keine Denkoperation sei.

  6. @Helmut Wicht: Denken wir oder denkt es?

    Natürlich ist Abstraktion eine Denkleistung. Eigentlich wollte ich mit meinen vorhergehenden scheinbar widersprüchlichen Ausführungen nur folgendes transportieren:

    Der Begriff “Denken” ist für die meisten stark mit Bewusstsein und Selbstreflexion verbunden. Weit verbreitet ist die Annahme, Tieren fehle die Selbsterkenntnis und die Reflexion über ihr eigenes Verhalten. Ja es gibt sogar Philosophen, die zwischen Handlungen und Verhalten unterscheiden. Handeln kann nach dieser Ansicht nur eine Person, während Tiere sich verhalten (also Automaten sind, siehe dazu hier).

    Hier bin ich anderer Ansicht. Gerade “produktive” Menschen denken gar nicht so viel. Es denkt vielmehr bei ihnen. Ist es nicht vielmehr so, dass vor allem diejenigen, denen das Denken nicht sehr leicht fällt, darunter leiden und sich den Kopf zermartern. Es ist ähnlich wie mit den Schmerzen und körperlichen Gebrechen der älteren Leute. Sie verbringen den Tag mit ihren Zipperlein, während ein junger, gesunder Mensch seinen Körper gar nicht wahrnimmt.

    So ist es auch mit Denkprozessen. Wenn sie gut und tadellos funktionieren laufen sie ab wie gut geölte Maschinen. Nur wenn es schwierig wird, denken wir ans Denken.

    Natürlich gibt es Berufe und Beschäftigungen wo man an die Grenzen der eigenen Denkfähigkeit stösst – und dann wird das Denken zur Qual, zur Mühe und stört den ganzen normalen Alltag.

    Von Einstein erzählt man sich, sein Haus in Princeton sei rot angestrichen worden, damit er es wiederfindet. Er war oft so stark mit Denken beschäftigt, dass er seine Umwelt nicht mehr wahrgenommen hat und schliesslich sein Haus nicht wiederfand. Offensichtlich dachte er am Limit. Erst am Limit merkt man was man hat – oder nicht hat.

  7. Denk ich schon oder abstrahier ich noch?

    Die Ersetzung von

    3) Abstraktion ist ein Denkprozess

    durch die Holzherr-Variante

    3′) Abstraktion ist mehr als ein Denkprozess

    führt die Wichtsche reductio ad absurdum formal jedenfalls nicht ad absurdum.

    Ohne eine brauchbare Begriffsbestimmung bleibt “Denkprozess” einstweilen eines jener Worte, die sich zur rechten Zeit einstellen, auf dass sich trefflich damit streiten lässt.

  8. An alle die ans Denken denken

    Chrys hat richtig angemerkt, dass die Begriffe zuerst geklärt werden müssten. Was ist Denken, was sind dagegen Denkprozesse.

    Ein guter Einstieg ist der Wikipedia-Artikel Denken. Ehrlich gesagt bin ich oft überrascht über die Qualität der Wikipedia-Artikel. Auch dieser über das Denken erwähnt mindestens die wichtigsten Fragestellungen und Probleme. Hier zwei Zitate:
    Denken wird allgemein von Wahrnehmung und Intuition unterschieden. Dies wird in der Regel damit begründet, dass Wahrnehmung und Intuition unbegrifflich seien, Gedanken jedoch als begrifflich oder propositional aufgefasst werden.

    Automatisches Denken, das unbewusst, absichtslos, unwillkürlich und mühelos abläuft, kann unterschieden werden von kontrolliertem Denken, das bewusst, absichtlich, freiwillig und aufwendig ist.[3] Daniel Kahneman unterscheidet ebenfalls ein „System 1“, das automatisch und schnell, mit geringer oder keiner Anstrengung und ohne bewusste Kontrolle arbeitet, vom „System 2“, das denjenigen mühevollen mentalen Aktivitäten, die Aufmerksamkeit erfordern, diese zuweist.

    Natürlich gefällt mir der Artikel auch deshalb, weil er in weiten Teilen meine eigenen Gedanken wiedergibt.

  9. Denken

    Ein Gedanke ist ein durch Mustervergleich selbstorganisiertes Strukturmuster, als Ergebnis unzähliger rückgekoppelter Einzelakionen.
    Denken ist also nichts anderes als ein Mustervergleich: ein aktueller Gedanke oder Sinneseindruck wird mit im Gedächtnis gespeicherten Informationen abgeglichen, daraus entstehen neue Informationen, welche wiederum abgespeichert und verglichen werden.
    Schöpferische Kreativität entsteht durch die Fehlerhaftigkeit dieses Vorganges.

  10. Turing Test der Intelligenz

    So wie IQ-Tests einen Index bereitstellen, der kulturabhängig ist und auch ansonsten nicht sehr konkret, so kann der Turing Test der Intelligenz ebenfalls einen Wert liefern, einen binären Wert liefern, der Anwendung finden kann. (Hier darf spekuliert werden, bspw. bei Kundenanfragenbearbeitungssystemen oder bei vergleichbarem Stoff kann das alles Sinn machen – sofern der Empfänger der Leistung wohl bedient ist oder scheint.)

    Der Rest ergibt sich von selbst: Intelligent ist, was als intelligent eingestuft wird.

    Womit dann leider auch das vglw. Sinnlose dieses Unterfangens klar geworden sein dürfte. KI gilt ansonsten nämlich schon als gescheitert.

    MFG
    Dr. Webbaer

  11. Denken und Sprechen

    Denken wird allgemein von Wahrnehmung und Intuition unterschieden. Dies wird in der Regel damit begründet, dass Wahrnehmung und Intuition unbegrifflich seien, Gedanken jedoch als begrifflich oder propositional aufgefasst werden.

    Selbstverständlich ist die Erfassung wie die sog. Intuition, also das “tiefe” Denken, begrifflich und nicht sinnvoll vom Denken zu diskrimieren.

    Das kann jeder im Spiel, auch im Computerspiel, auch im OL-Spiel, prüfen.

    Die Ausgabeschicht, das IO-System sozusagen, nicht zu verwechseln mit dem BIOS, ;-), ist dann in aller Regel sprachlich und logisch (oder: “logisch” – logos, altgriech. ‘Wort’ und so).

    HTH
    Dr. Webbaer

  12. @ KRichard: Wenn du denkst, …

    …, du denkst, dann denkst du nur,
    “Denken ist [] nichts anderes als ein Mustervergleich”

    Ich habe den von Martin Holzherr verlinkten Wikipedia-Artikel zu “Denken”, ihrem Vorschlag entsprechend, gekürzt.

    Wenn du denkst, du denkst, dann denkst du nur, du denkst,
    Du hast ein leichtes Spiel.
    Doch ich weiß, was ich will. Drum lach nur über mich,
    Denn am Ende lache ich über dich!
    (Juliane Werding)

    Was ich eigentlich sagen möchte:
    Ich halte ihren Gedanken, (in ihren Worten:) ihren Mustervergleich, (in ihren Worten:) für einen Akt schöpferischer Kreativität, (in meinen Worten:) für Fehlerhaft!

    Die Aussage “Denken ist nichts anderes als ein Mustervergleich” ist in etwa so richtig wie “Denken ist nichts anderes als das Feuern von Neuronen” oder “Denken ist nichts anderes als die Umverteilung von Energie und Materie im Schädel”.

    Vermutlich kann das ein oder andere was beim Denken passiert als Mustervergleich beschrieben werden, oder als ein solcher verstanden werden. Eine Aussage wie “A sei nicht anderes als B” in diesem Zusammenhang – denke ich – ist dann aber doch etwas zu vereinfachend. (Siehe z.B. den wohl mittlerweile wiederhergestellten Wikipedia-Artikel)

    Versuchen wir es also anders herum. Ist jeder Mustervergleich im Gehirn Denken? Wenn nein, was zeichnet solche, zum Denken gehörende, Mustervergleiche aus?

  13. Sinneseindrücke

    Wir haben unterschiedliche Sensoren in unseren Sinnesorganen. Aber alle Sinneseindrücke werden mit den gleichen Nerven im Gehirn verarbeitet. D.h. alle Sinneseindrücke müssen zuvor in gleichartige Muster umgewandelt werden, denn nur so können sie weitergeleitet und verarbeitet werden.

    Ähnlich wie beim Computer: alle Eingabeinformationen werden in digitale Muster aus 0 und 1 umgewandelt und können so verarbeitet werden. Zur Ausgabe werden diese Infos wieder umgewandelt; z.B. in einen Ton (Lautsprecher) oder in Farbe (Monitor)

  14. @ KRichard: Mein Eindruck

    Dass bei dem Entstehen von Sinneseindrücken Mustererkennung und -abgleich eine gewichtige Rolle spielen ist unstrittig. Strittig hingegen ist, ob dies überhaupt schon unter den Begriff des Denkens fällt. Liefert diese Mustererkennung nicht vielmehr erst den Rohstoff, die Daten, auf die das Denken dann aufsetzt.

    Ist Denken nicht vielmehr Mustererzeugung? Wenn stabile Muster neuronaler Aktivitäten entstehen, dann nehmen wir das aus der ersten Personperspektive vielleicht als Gedanken war. Aus der Perspektive der dritten Person lassen sich solche Muster mittels bildgebender Verfahren (fMRT) erkennen und vergleichen.

    Das entstehen neuer Muster geschieht aber gerade nicht nur durch Abgleich bereits bekannter oder bestehender Muster. Das neue Muster, der neue Gedanke, könnte dann einer logische Folgerung oder einem kreativen Akt entsprechen.

  15. Denken (Wikipedia Link)

    Der obige Wiki Link zum “Denken” scheint defekt. Ein Reparaturversuch: [Denken].

    Hinsichtlich der Frage, ob Maschinen grundsätzlich zum Denken befähigt sein können, hilft eine psychologisch-philosophisch orientierte Terminologie allerdings zunächst auch nicht weiter, da hier auf Konzepten aufgebaut wird, die in einem technischen Kontext ebenfalls nicht konkrektisiert sind (Vorstellung, Intuition, Erkenntnis, etc.). Für eine angestrebte technisch praktikable Definition des Denkens wird man sich auf diejenigen Aspekte fokussieren müssen, die informationstheoretisch sinnvoll erfassbar sind. Das erscheint mir der einzig gangbare Weg.

  16. @ Chrys: Ich denke …

    “Hinsichtlich der Frage, ob Maschinen grundsätzlich zum Denken befähigt sein können”

    Diese Frage scheint mir entschieden, nicht zuletzt dank einiger Überlegungen von Alan Turing. So gelangt das Denken wohl nicht über die Turing-Berechenbarkeit hinaus. Daraus würde also folgen, dass Maschinen grundsätzlich zum Denken befähigt sind.

    Die eigentlich spannende Frage ist, ob wir Menschen (schon) in der Lage sind entsprechende Algorithmen zu erstellen, die Denken auf Maschinenbasis ermöglicht; ob wir schon hinreichend intelligent sind.

  17. Muster

    Die Mustererzeugung wird sowohl durch neue Sinneseindrücke bewirkt, welche als Erfahrung im Gedächnis abgespeichert werden. Sowie zusätzlich auch noch durch gespeichertes Wissen welches erinnert, mit den aktuellen Sinneseindrücken zu neuer Information verknüpft und so als neues Muster abgespeichert wird.
    Dieser Vorgang kann bewusst und/oder unbewusst ablaufen.

    Ein bekanntes Phänomen in diesem Zusammenhang ist das Déjà-vu:
    Auf aktuelle Sinnesreize hin, wird als Reaktion eine dazu passende Erfahrung aus dem Gedächtnis aktiviert und kurzzeitig als bewusstes Erlebnis empfunden. Dabei wird dieses aktivierte Muster mit dem aktuellen Sinnesreiz abgeglichen und entweder mit dem aktuellen Erlebens verknüpft zur neuen Realität oder es werden unstimmige Muster-Unterschiede gefunden, dann empfinden wir das Ganze als Déjà-vu.

    Denken im Sinne eines kreativen Aktes ist hierbei nicht erkennbar.

    Auch bildgebende Verfahren (fMRT) deuten auf Mustervergleiche als Grundlage von Gehirnaktivitäten hin: Bei einem bestimmten Erlebnis (Input) sind bestimmte Gehirnbereiche aktiv und können grob gemessen werden. Wird dieses Erlebnis wieder aktiviert (= erinnert), dann sind die gleichen Gehirnbereiche wieder aktiv, wie beim ursprünglichen Erlebnis. D.h. wir Erinnern, indem wir den gleichen Musterzustand (Output) wie beim ursprünglichen Erlebnis (Input) erzeugen.

  18. @Joker

    »Diese Frage scheint mir entschieden, nicht zuletzt dank einiger Überlegungen von Alan Turing.«

    Da sprechen Sie ein grosses Wort gelassen aus, angesichts des aktuellen Erkenntnisstandes, der im Blogtext ja wie folgt beschrieben wird:

    Bis dato ist es nicht gelungen, ausreichend spezifizierte, ausschöpfende und konsistente Definitionen zentraler Begriffe wie z.B. “Intelligenz”, “Bewusstsein”, oder “Denken” zu geben, welche es erlauben würden, diese auch in einem technischen Kontext anzuwenden. Doch ohne diese Konzepte ist es wiederum nicht möglich, zentrale Fragen der künstlichen Intelligenz philosophisch zu betrachten, geschweige denn technisch mess- und quantifizierbar zu machen.

    Zu John Searle und seinen Vorbehalten werden wir nach Ankündigung hier im dritten Teil noch lesen können. Für weiteren Diskussionsstoff dürfte damit vorläufig gesorgt sein.

    »So gelangt das Denken wohl nicht über die Turing-Berechenbarkeit hinaus.«

    Da bin ich nicht sicher, wie diese Aussage gemeint ist. Wenn es heissen soll, dass Denken stets algorithmisch berechenbar herauskommt, würde ich Einspruch erheben wollen.

  19. Für mich ist ‘Denken’ zunächst das, was ein biologisches Rechensystem bei der Verarbeitung bestimmter Daten tut, und zwar vor allem dann, wenn es um Problemlösungen und Entscheidungen geht.

    Das bedeutet, dass zum echten ‘Denken’ eine ganz bestimmte Hardware notwendig ist, eine spezielle Rechnerarchitektur, eben analog zur Architektur eines hinreichend hoch entwickelten Gehirns (die Fähigkeit zur Selbstreflexion scheint mir dabei nicht notwendig zu sein).

    Alles andere wäre in meinen Augen eine Simulation des Denkens, da wäre ich wohl ganz bei Searle. Aber ich gebe zu, von den Verschaltungen eines Prozessors und den Algorithmen einer Software verstehe ich so gut wie nichts.

    Der Witz beim wirklichen Denken ist ja, dass hierfür keine Software gebraucht wird, die ist sozusagen in den Schaltkreisen implementiert.

    (Eine wirklich denkende Bio-Maschine erhielte man vielleicht dann, wenn man aus einer befruchteten menschlichen Eizelle die Seele entfernt und das verbleibende seelenlose Ding dann reifen und wachsen lässt. Aber wozu sollte das gut sein? 😉

  20. @ Chrys: Einspruch?

    “Wenn es heissen soll, dass Denken stets algorithmisch berechenbar herauskommt, würde ich Einspruch erheben wollen.”

    Es sollte zumindest heißen, dass das was bisher beim Denken herausgekommen ist, vermutlich auch auf algorithmisch berechenbare Weise ermittelbar gewesen wäre.

    Wie sieht da der Einspruch aus? Ist ein nicht Turing-Berechenbares Problem bekannt, das durch Denken gelöst wurde?

  21. @Joker / Einspruch

    Ich zitiere hier mal ein, wie ich meine, recht lesenswertes Review Paper von Klaus Mainzer, aus einen Abschnitt, wo es um die fragliche Thematik geht.

    According to the principle of computational equivalence […], any dynamical system can be simulated by an appropriate computational system. But, contrary to Turing’s AI-thesis, that does not mean computability in every case. […] Thus, artificial minds could have their own intentionality, cognitive, and emotional states which cannot be forecast and computed, like in the case of natural minds. Limitations of computability are characteristic features of complex systems.


    K. Mainzer, The emergence of mind and brain: an evolutionary, computational, and philosophical approach,
    p. 128.
    (Habe leider keinen Link auf eine open access copy finden können. Wahrscheinlich hat er in seinem Complexity Buch auch etwas dazu geschrieben, doch das habe ich jetzt nicht zur Hand.)

    Ich würde Mainzers Auffassung hierzu voll und ganz unterschreiben. Die angesprochene Unberechenbarkeit ist sicherlich eine notwendige Bedingung, die ein System erfüllen müsste, um ihm die Befähigung zum Denken zuschreiben zu können. Es sind dann insbesondere auch informationstheoretische Kriterien zur Unterscheidung zwischen “echtem” und “simuliertem” Denken vorstellbar und formulierbar.

  22. @Balanus

    »Für mich ist ‘Denken’ zunächst das, was ein biologisches Rechensystem bei der Verarbeitung bestimmter Daten tut, und zwar vor allem dann, wenn es um Problemlösungen und Entscheidungen geht.«

    Wenn man das Netzwerk der 302 Neuronen eines C. elegans dergestalt nachbildet, dass Computerwissenschafter dies als “computionally equivalent” zum Original bezeichnen würden, wäre eine solche Simulation dann in Ihren Augen noch ein biologisches Rechensystem?

    In diesem “Spektrum” Artikel ist zu lesen, dass C. elegans Entscheidungen trifft. Würde eine “computationally equivalent” Simulation des Fadenwurms dann noch Entscheidungen treffen oder solche nur simulieren können?

  23. @Chrys

    Wenn man die Funktion von 302 Neuronen nachbilden kann, dann würde ich von einem nicht-biologischen Rechensystem sprechen, das dem biologischen äquivalent ist.

    Auf diesem Rechenniveau bedeutet Entscheidungen treffen ein bisschen was anderes, als wenn etwa ein Insekt oder Säugetier Entscheidungen trifft (sag’ ich jetzt mal so, ohne den Spektrum-Artikel gelesen zu haben — hole ich noch nach). Bei C. elegans habe wir es eher mit Elementar-Entscheidungen zu tun. Eine Vielzahl solcher quasi parallel stattfindenden elementaren Entscheidungen führt dann zum Prozess des Denkens. Der Übergang zum “echten” Denken ist gleitend, wie beim Übergang von einer Ansammlung von Sandkörnern zum Sandhaufen.

    Wie gesagt, wenn eine Maschine auf die gleiche Art und Weise Ergebnisse produziert wie ein biologisches System, müsste man wohl (oder übel? ;-)) von echtem Denken (oder echten Entscheidungen) sprechen.

  24. @ Chrys: Kein Einspruch

    “Die Bildung eines Begriffes geschieht überhaupt dadurch, dass von dem anschaulich Gegebenen vieles fallen gelassen wird, […]”
    (Arthur Schopenhauer)

    In diesem Sinn möchte ich den Begriff “Denken” so gebrauchen, dass zumindest mal fallen gelassen wird, in welchem Substrat Denken geschieht. Wir hatten den Begriff “Denken” ja schon bevor wir wussten, dass das menschliche Denken durch neuronale Aktivitäten in unseren Gehirnen realisiert ist.

    Ich vermute es ist nicht sehr lehrreich zu versuchen, die uns bekannten denkenden Systeme (Hirne) nachzubauen, z.B. mittels neuronaler Netzwerke. Dies kann zwar durchaus interessante Erkenntnisse mit sich bringen, etwa für die Medizin oder die Psychologie, aber ob uns das eine Erklärung liefert was Denken ist, das bezweifele ich. Bestenfalls bekämen wir dann zwar denkende Wesen, intelligente Roboter, aus nicht biologischem Substrat, aber hätten wir dann auch etwas verstanden? Ich fürchte wir hätten nur neue Rätsel erschaffen, wir bräuchten für jeden Hersteller (Microsoft, Google++, OpenSource) eine eigene Klasse spezialisierter Psychologen und Therapeuten, natürlich verbunden mit der jeweiligen, vom Menschen her bereits bekannten, Theorienvielfalt (nur der iMan wäre davor gefeit)

    Vergleichen möchte ich das mit dem Begriff “Fliegen”. Solange wir versucht haben Vögel exakt nachzubauen, bzw. zu imitieren, ist nicht viel Brauchbares dabei herausgekommen. Mittlerweile haben wir neben Flugzeugen, die ja zumindest noch die Flügel von den Vögeln übernommen haben, auch Hubschrauber und Raketen um uns durch die Lüfte zu bewegen.

    Daher zeigt das Zitat von Klaus Mainzer keinen Widerspruch zu meiner Position auf. Ich denke, dass zum Denken ja gerade nicht das ganze System, das möglicherweise wirklich nicht algorithmisch zu beschreiben ist, nachgebildet werden muss. Möglicherweise muss gar keine Intentionalität, kein Selbstbewusstsein nachgebildet werden, ganz sicher z.B. keine Motivation: eine do-until-Schleife würde reichen. Vielleicht muss auch vom Menschen überhaupt nichts nachgebildet werden, analog zur Rakete und dem Vogelflug.

    Du sagtest:
    “Die angesprochene Unberechenbarkeit ist sicherlich eine notwendige Bedingung, die ein System erfüllen müsste, um ihm die Befähigung zum Denken zuschreiben zu können.”

    Ich dachte wir wären uns einig gewesen, dass jedes reale System unberechenbar ist. Nur wenn wir von realen Systemen abstrahieren, uns auf bestimmte Aspekte desselben beschränken, bekommen wir manchmal etwas Berechenbares, nämlich ein Modell des Systems. Beim Begriff “Denken”, so würde ich zumindest behaupten, haben wir ähnlich wie bei Modellen soweit abstrahiert, so viel vom Menschen fallen gelassen, dass es berechtigt ist zu sagen, Denken löst nur Probleme, die Turing-Berechenbar sind – und damit auch von Computern.

  25. @ Balanus: (Ent-) Scheidung

    “Auf diesem Rechenniveau bedeutet Entscheidungen treffen ein bisschen was anderes, als wenn etwa ein Insekt oder Säugetier Entscheidungen trifft”

    Wie darf ich das denn jetzt verstehen? Hatten wir nicht vor kurzem eine Diskussion, in der du darauf bestanden hast, dass Entscheidung sogar das selbe (sic) bedeutet, egal ob der Begriff im Zusammenhang mit Hirn und Neuronen oder in Bezug auf Personen gebraucht wird?

    “Eine Vielzahl solcher quasi parallel stattfindenden elementaren Entscheidungen führt dann zum Prozess des Denkens.”

    Materie ist schlafender Geist. Neuronen sind erwachendes Denken?

    Und das, selbst wenn das Verhalten von echten Neuronen nur auf Rechnern simuliert wird?

    Einspruch Euer Ehren!

    Was unterscheidet denn eine Verzweigung in einem Programm, das einen Haufen Neuronen simuliert, von einer aus einem beliebigen anderen Programm?

  26. @Joker

    »Wie darf ich das denn jetzt verstehen? «

    Mit “bisschen was anderes” meinte ich einen quantitativen Leistungsunterschied, aufgrund unterschiedlicher Rechenkapazitäten.

    »Materie ist schlafender Geist. Neuronen sind erwachendes Denken?
    Und das, selbst wenn das Verhalten von echten Neuronen nur auf Rechnern simuliert wird?
    «

    Nicht simuliert, nachgebildet! Das ist in der Tat meine derzeitige Arbeitshypothese, dass ein technisches System, dessen funktionelle Struktur der eines Gehirns gleicht (und sei es auch noch so einfach, das Gehirn), die gleichen Eigenschaften besitzen müsste, wie das biologische System.

    Ich stimme dem zu, was Du an Chrys gerichtet formuliert hast:

    »Vergleichen möchte ich das mit dem Begriff “Fliegen”. Solange wir versucht haben Vögel exakt nachzubauen, bzw. zu imitieren, ist nicht viel Brauchbares dabei herausgekommen.«

    So wird das auch beim Gehirn sein. Ein simpler Nachbau kann ja wohl kaum mehr bringen, als wir bereits schon haben (was dessen Leistung angeht). (Obwohl das natürlich schon extrem spannend wäre ;-))

    »Was unterscheidet denn eine Verzweigung in einem Programm, das einen Haufen Neuronen simuliert, von einer aus einem beliebigen anderen Programm? «

    Da bin ich überfragt. Aber wie gesagt, mir geht es nicht um eine Simulation. Ich denke vielmehr an ein Gebilde, bei dem die Soft- und Hardware identisch sind, die Struktur ist das Programm. Einschalten, und das Ding fängt an zu denken/entscheiden, kein Java, kein Google, Microsoft, Linux oder sonst was… 😉

  27. @ Balanus

    “”Vergleichen möchte ich das mit dem Begriff “Fliegen”. Solange wir versucht haben Vögel exakt nachzubauen, bzw. zu imitieren, ist nicht viel Brauchbares dabei herausgekommen.””

    “So wird das auch beim Gehirn sein. Ein simpler Nachbau kann ja wohl kaum mehr bringen, als wir bereits schon haben”

    Mit der Analogie wollte ich nicht zeigen, dass wir nicht über den Vogelflug hinauskommen wenn wir Vögel nachmachen, sondern dass wir mit lauter Armschlägen nicht mal vom Boden abheben können, geschweige denn fliegen. Anstatt auf die Vögel zu schauen mussten wir in die Luft schauen! So entdeckten wir die Strömungsmechanik. Und dann entdeckten wir noch ganz andere Prinzipien, die wir zum Fliegen verwenden konnten, Dichteunterschiede von Gasen erlaubten Ballon- und Zeppelinfahrten, Rückstoß den Raketenflug.

    Warum also klammern wir uns so sehr an den Menschen und seine neuronalen Netze wenn es ums Denken geht? Nur weil er der erste und bisher wohl einzige ist, bei dem das Denken so leidlich gelingt. Aber die Natur, und mit ihr die Evolution, hat es sich leicht gemacht und hat offensichtlich ein Mängelwesen geschaffen. Sie hat, nachdem neuronale Netze einmal vorhanden waren, diese eben auch gleich benutzt, nur ein bisschen umgebaut, um Denken zu ermöglichen, zu probieren ob Denken fürs Überleben überhaupt hilfreich ist. Dass Forscherhirne aus der (bisherigen) Einmaligkeit schließen, dass das Denken vielleicht sogar nur auf diese Art und Weise möglich ist, zeigt eher schon wieder die Beschränktheit des Ansatzes auf.

    “Ich denke vielmehr an ein Gebilde, bei dem die Soft- und Hardware identisch sind”

    Das, von dem du redest, das gibt es schon: der Mensch. Genau dies ist doch die Katastrophe. Die Natur hat nur solch eine Gemengelage zustande gebracht – und jetzt: Funktions- und Strukturanalyse schwierig (frag mal die Anatomen und Hirnforscher), Fehlersuche und Bereinigung schier unmöglich (frag die Mediziner und Psychologen).

    Unsere Ingenieure, die das ganze besser machen wollen, stehen erst am Anfang der Entwicklung. Es wird im Laufe der Zeit sicherlich noch viel verbessert, ausgetauscht und umstrukturiert werden. Da empfiehlt es sich auf jeden Fall möglicht modular zu arbeiten.

    “Nicht simuliert, nachgebildet!”

    Bisher wurde auf keinem Rechner auch nur ein einziges Elektron, Atom, Molekül oder Neuron nachgebildet. Wir scheinen über verschiedene Dinge zu reden, oder haben wir nach den Begriffen “Entscheidung” und “Denken” nun auch noch ein Problem bei “Simulieren” und “Nachbilden”?

  28. @Joker

    »Wir hatten den Begriff “Denken” ja schon bevor wir wussten, dass das menschliche Denken durch neuronale Aktivitäten in unseren Gehirnen realisiert ist.«

    Die Bedeutungen von Begriffen können im Laufe der Kulturgeschichte durchaus Wandlungen erfahren. Das, was wir heute unter Informationstheorie verstehen, war ja etwa im 19. Jhdt. noch nicht entstanden, und informationstheoretische Aspekte konnten für das damlige Verständnis vom “Denken” naturgemäss keine Rolle spielen. Im 20. Jhdt. ist das anders geworden. Die Vorstellung vom Denken als einer Form der Informationsverarbeitung liefert uns einen erweiterten Blickwinkel, der Einsichten vermitteln kann, die zuvor jenseits des begrifflichen Horizontes waren.

    Der Begriff Denken repräsentiert letztlich immer nur das, was Menschen vor ihrem jeweils zeitgenössischen Hintergrund mit diesem Begriff verknüpft sehen. Eine kulturabhängig variable Konvention — wie so vieles andere auch. Dass die Verknüpfung zwischen den Begriffen Denken und Information nun einmal in der Welt ist, lässt sich nicht mehr rückgängig machen, und mit den sich daraus ergebenden Konsequenzen wird man sich arrangieren müssen.

    Aus informationstheoretischer Sicht ist es nun irrelevant, ob ein System, dessen potentielle Denkfähigkeit zur Diskussion steht, von biologischer Beschaffenheit ist oder nicht. Daraus ergeben sich dann aber auch ethische Fragen. Wenn beispielsweise ein mutmasslich intelligenter Roboter einen Menschen zu Schaden bringt, wie ist ein solcher Fall juristisch zu bewerten?

    »Nur wenn wir von realen Systemen abstrahieren, uns auf bestimmte Aspekte desselben beschränken, bekommen wir manchmal etwas Berechenbares, nämlich ein Modell des Systems.«

    Die rechnerische Modellierbarkeit eines “realen” Systems garantiert aber nicht die Berechenbarkeit der modellhaften Dynamik. Mainzers computational equivalence bezieht er ja keineswegs automatisch auf eine Turing Maschine. Im Gegenteil, Mainzer kennt auch irreducible computations und meint damit damit solche, die nicht algorithmisch reduzierbar sind, wozu er übrigens andernorts expressis verbis die Hirndynamik im Grossen zählt. Die Grenzen der Berechenbarkeit sind hier keine Unzulänglichkeiten der Modellierung, sondern eine intrinsiche Systemeigenschaft, die in einem (hinreichend brauchbaren) Modell auch aufscheint.

  29. @Joker / simuliert oder nachgebildet

    »Bisher wurde auf keinem Rechner auch nur ein einziges Elektron, Atom, Molekül oder Neuron nachgebildet. «

    Und wie sieht es aus mit der Nachbildung von neuronalen Schaltkreisen?

    In einem Punkt korrigiere ich mich übrigens: Wenn man komplexe neuronale Netze oder sogar Gehirne nachbauen könnte, dann wüsste man vielleicht auch, an welchen Stellschrauben man drehen müsste, um die Leistungsfähigkeit gegenüber der biologischen Vorlage zu steigern.

    Wenn man fliegen will, braucht es mehr als einen Flugsimulator.

  30. Turing Test und Willensfreiheit

    Die Frage nach einer Unterscheidung von “echtem” zu lediglich “simulierten” Denken und das Problem der Willensfreiheit sind in gewisser Weise Variationen über dasselbe Thema. Zwar existieren bis anhin wohl keine praktikablen Begriffsbestimmungen weder für das Denken noch für die Willensfreiheit, aber es ist dennoch ein gemeinsames Muster erkennbar. Beide Fragestellungen lassen sich zurückführen auf die grundsätzliche Frage danach, ob das jeweils in Betracht stehende System dazu befáhigt ist, Information zu erschaffen. Dazu hier noch etwas Literatur für einschlägig Interessierte (Abstract):

    Chaitin’s Algorithmic Information Theory shows that information is conserved under formal mathematical operations and, equivalently, under computer operations. This conservation law puts a new perspective on many familiar problems related to artificial intelligence. For example, the famous “Turing test” for artificial intelligence could be defeated by simply asking for a new axiom in mathematics. Human mathematicians are able to create axioms, but a computer program cannot do this without violating information conservation. Creating new axioms and free will are shown to be different aspects of the same phenomenon: the creation of new information.

    D.S. Robertson. Algorithmic information theory, free will and the Turing test. Complexity, 4, no. 3 (1999) 17-34. [PDF]

  31. @ Chrys: So nicht

    Sensationell der Artikel, und zwar sensationell schlecht. Professor ??? D. S. Robertson – ach ja, Professor für Geologie, das könnte es erklären.

    Wie vertragen sich die Aussagen,

    “Chaitin’s Algorithmic Information Theory shows that information is conserved under formal mathematical operations and, equivalently, under computer operations.”

    und

    “This example [6 +5 + 3 = 14] is an illustration of the fundamental concept that nearly all operations in mathematics involve the destruction or discarding of information.”

    Sehr gelungen (Vorsicht Ironie!) finde ich auch die generelle Beweisführung, zur Existenz des freien Willens. Dazu muss man wissen, für mich sind Versuche, den freien Willen zu beweisen (oder zu widerlegen), nichts anderes als Gottesbeweise – von vorneherein zum Scheitern verurteilt. Dieser Artikel ist ein weiteres Beispiel dafür.

    “The process of making that menu selection [in a restaurant] is an example of the exercise of free will”

    Soll das heißen, wenn wir einen Roboter bauen können, der aus einer ihm bis dato unbekannten Speisekarte sein Mittagessen auswählen kann, dann würde dieser über einen freien Willen verfügen???

    Dieser Nachweis wäre laut Robertson, falls ich ihn richtig interpretiere, andererseits aber nur gültig, wenn wir die Roboter einsperren und erst gar nicht in Restaurants lassen, bzw. ihnen keine unbekannten Speisekarten präsentieren:

    “It [Chains theorem] only applies to an isolated, completely deterministic program.”

    Dass man dann von solchen isolierten Rechnern auch nicht erwarten darf, mathematische Axiome aufzustellen, scheint mir offensichtlich.

    Axiome enthalten Informationen. Klar, aber natürlich nicht alle Informationen. Sie enthalten unter anderem Informationen, was überhaupt informationserhaltende Transformationen innerhalb einer Theorie sind. Die eigentliche Information, die verarbeitet werden soll, muss von außen kommen, z.B: 6 + 5 + 3. Diese wird dann eben in eine kurze, für den Menschen leichter erkennbaren Form umgewandelt, im Bsp: 14.

    Auch die Axiome fallen nicht vom Himmel, oder werden gar vom Menschen allein durch seinen freien Willen geschaffen. Axiome sind vielleicht schon eher so etwas wie die Formalisierung gewonnener Anschauungen oder Erkenntnisse, also selbst wieder informationserhaltende Transformationen! Wobei die gewonnenen Erkenntnisse Ergebnisse sind von informationsreduzierenden Prozessen, bei denen aus empirischen Erfahrungen sozusagen ein Destillat gewonnen wird.

    Dass der Autor dann auch noch ausgerechnet Euklids 20 Axiome anführt, um menschliche Leistungen von Computern zu unterscheiden, ist zumindest ungeschickt. Gerade diese werden ja heute nicht mehr als hinreichend für eine axiomatisch fundierte Theorie betrachtet. Das zeigt doch eher, dass der Begriff des Axioms selbst nicht so eindeutig ist, als dass ein Schiedsrichter ihn zur Grundlage für eine so wichtige Unterscheidung, wie die zwischen Mensch und Computer, nehmen sollte.

    Immerhin habe ich in dem Artikel einen Satz gefunden, der hier im Blog noch gefehlt hat und dem ich voll und ganz zustimme:

    “The essence of the Turing test is to try to find out whether there exists some task that
    human beings are able to perform and that computers are not, some task that could be used to distinguish between them.”

    (Der Artikel findet bei mir trotzdem nur den Weg ins Kuriositätenkabinett)

  32. @Joker

    »Wie vertragen sich die Aussagen, […]«

    Die fraglichen Aussagen vertragen sich in dem zuvor auf derselben Seite beschriebenen Sinne:

    Mathematical operations can rearrange information, and they commonly destroy information, but they cannot create information. […] There is, therefore, a sort of conservation law that underlies all formal operations in mathematics, that the quantity of information is at best conserved (in the limit where none is discarded).

    Man mag mit einigem Recht bestreiten, dass die Bezeichnung “conservation” hier treffend gewählt ist, da dies fast unweigerlich eine (irrige) Assoziation von “information” mit “energy” heraufebeschwört. Im Rahmen der AIT wird information synonym für algorithmic information content oder complexity gebraucht, und auch Gregory Chaitin höchstselbst redet dabei von “conservation”:

    My complexity is conserved it’s impossible to make it increase which is great if you’re doing metamathematical incompleteness results but hell if you want to get evolution.

    G. Chaitin. The Unknowable. Springer, 1999, Ch. 7 [HTML]

    Dieses Ch, 7 verhilft gewiss auch zu einem besseren Verständnis, ob mathematische Kreativität als informationerhaltend oder gar informationsreduzierend vorstellbar ist.

    »Dazu muss man wissen, für mich sind Versuche, den freien Willen zu beweisen (oder zu widerlegen), nichts anderes als Gottesbeweise – von vorneherein zum Scheitern verurteilt.«

    “Willensfreiheit” ist eine begriffliche Konvention, die wir auf bestimmte wahrnehmbare Verhaltensmuster von Individuen anwenden. Willensfreiheit lässt sich demnach nicht beweisen oder widerlegen, es lässt sich aber sinnvoll untersuchen, ob und gegebenenfalls wie dieses zumeist recht nebulös belassene Konstrukt rigoros erfassbar ist. Wenn wir autonom handelnde Maschinen in die Welt setzen, dann stellt sich die Frage doch auf naheliegende Weise, ob diese Maschinen vielleicht auch zu willentlichem Handeln befähigt sein könnten.

    »Dass der Autor dann auch noch ausgerechnet Euklids 20 Axiome anführt, um menschliche Leistungen von Computern zu unterscheiden, ist zumindest ungeschickt. Gerade diese werden ja heute nicht mehr als hinreichend für eine axiomatisch fundierte Theorie betrachtet.«

    Bei der Zahl 20 handelt es sich vermutlich um einen typographischen Fehler, da sollte wohl eine 10 stehen. Davon abgesehen sprechen Sie hier für mich in unergründlichen Rätseln.

  33. @ Chrys: RIT

    “Man mag mit einigem Recht bestreiten, dass die Bezeichnung “conservation” hier treffend gewählt ist”

    Das möchte ich gar nicht bestreiten. Chaitains AIT und das darin definierte Komplexitätsmaß halte ich für sinnvoll und hilfreich. Was ich für groben Unfug halte ist, was Professor Robertson damit anstellt, bzw. meint daraus schließen zu dürfen.

    “Mathematical operations can rearrange information,” Korrekt
    “and they commonly destroy information,” Falsch
    “[…] they cannot create information.” Korrekt

    Wenn bei der Umformung von “6 + 5 + 3” zu “14” Informationen zerstört werden oder verloren gehen, dann kann zumindest nicht der Informationsbegriff gemeint sein, der in der AIT benutzt wird.

    Nehmen wir also an, dass es sich nicht um die AIT sondern um die RIT (Robertsons Information Theory) handelt. Wenn in der RIT durch mathematische Operationen Informationen zerstört werden können, dann müsste Robertson aber auch zugestehen, dass in RIT sehr wohl auch Informationen erzeugt werden können. Man kann nämlich streng nach den Axiomen, allein durch mathematische Operationen, aus “14” auch “6 + 5 + 3” ableiten.

    Damit wäre dann aber seine ganze Argumentation, bezüglich des Formulierens mathematischer Axiome bei Turing-Tests und der Willensfreiheit, hinfällig.

    Im Gegensatz zu Robertson, sieht Chaitain sehr genau die Grenzen von AIT und spricht sie ja auch offen an, wie du mit dem Zitat von ihm belegst. In dem verlinkten 7. Kapitel erwähnt er u.a. Stephen Wolfram. Vielleicht hat am Ende dieser Recht, aller Quantentheorie zum Trotz, mit seiner schlichten Idee:

    “The key unifying idea […] is a simple but immensely powerful one: that all processes, whether they are produced by human effort or occur spontaneously in nature, can be viewed as computations.

    (Stephen Wolfram, A New Kind of Science, P. 715)

    Dann wäre es nur eine Frage der Zeit (und der menschlichen Intelligenz), wann Computer, jeden noch so geschickt fragenden Schiedsrichter, bei einem Turing-Test überzeugen könnten, der Mensch zu sein.

  34. Sprache und Intelligenz

    Die ungelösten Probleme der KI haben zum großen Teil nichts mit der speziell menschlichen Intelligenz zu tun. Wie Gehirne ihre Leistungen bei Wahrnehmung und Motorik hervorbringen, ist bis heute weder verstanden noch nachzubilden. Bei der Kopplung der Teilsysteme zu größeren Systemen passiert etwas, das weder mit DGLn noch mit Berechnungsmodellen so recht beschrieben werden kann. Menschliche Gehirne treiben diese Kopplung noch weiter. Über die Sprache ( und einen schmalbandigen Kanal ) werden die Bereiche, in denen Wahrnehmung und Handlungsplanung zusammenkommen, über die Grenzen der Individuen hinaus verkoppelt. Die Resultate kann man heute mit bildgebenden Verfahren darstellen. Dass über die Sprache der ganze Mensch berührt werden kann, weiss *man* aber schon lange. Ich habe den Eindruck, dass der Turing-Test nicht die Frage “Können Maschinen denken?” beantwortet, sondern die Frage “Ist das ein Mensch?”

  35. @Joker

    »Man kann nämlich streng nach den Axiomen, allein durch mathematische Operationen, aus “14” auch “6 + 5 + 3” ableiten.«

    Der Algorithmus SUM : (x,y,z) → s := x + y + z nimmt “6,5,3” als Input und gibt den Output “14”. Nun schreibe ich mir einen anderen Input der Form “a,b,c” hin mit Zahlen a, b, c, die ich nicht verrate. Ich nenne nur den Output, SUM(a,b,c) = 42. Wenn die obige Beahuptung stimmt, dann müsste jetzt, streng nach den Axiomen und allein durch mathematische Operationen, aus “42” auch mein Input algorithmisch berechenbar sein. Kann das funktionieren?

    Dass die algorithmische Komplexität eines Output Strings kleiner sein kann als die des dazugehörigen Input Strings, ist praktisch doch eine Trivialität. Der nichttriviale Teil der Angelegenheit war, ob die algorithmische Komplexität des Outputs grösser sein kann als die des Inputs, und nur darauf bezieht sich die Rede von der “conservation”.

    Das Wolfram Zitat ist im wesentlichen ja die Formulierung seines principle of computational equivalence, das auch Mainzer erwähnt hat. Nun, wir können das getrost eine “computation” nennen, aber — und das ist doch Mainzers Punkt — es kann auch eine “irreducible computation” sein, also ein nicht algorithmisch berechenbarer Prozess. Und für solche Prozesse ist es eben nicht unmöglich, neue Information zu generieren.

  36. @ Chrys: String oder Zahl?

    “Dass die algorithmische Komplexität eines Output Strings kleiner sein kann als die des dazugehörigen Input Strings, ist praktisch doch eine Trivialität.”

    Stimmt! Aber untersuchen wir die “semantische Information” des Strings oder die “mathematische Information”, die in diesem Ausdruck enthalten ist?

    Im letzten Fall sind mathematische Axiome anwendbar, um den Ausdruck informationserhaltend umzuformen. Durch den Input “6 + 5 + 3” wird implizit eine Äquivalenzklasse definiert, der der Input ebenso angehört wie “14”, wie “2 * 7” und viele weitere. Gesucht wird der kürzeste Ausdruck (das entspricht dem kürzesten Progamm in der AIT).

    Im ersten Fall, wenn wir die semantische Informationen von Strings untersuchen wollen, sind sprachliche, linguistische Umformulierungen anzuwenden. Diese Umformulierungen müssen jetzt den semantischen Gehalt “konservieren”. Wenn wir zur Semantik zählen Funktion, Anzahl der Operanden und Reihenfolge der Operanden, dann sind z.B. die Strings “Addiere die Zahl sechs mit der Zahl fünf und der Zahl drei” in der gleichen Klasse wie “SUM(6;5;3)” oder “6 + 5 + 3”. Der kürzeste String gibt die “semantische” Komplexität im Sinne von AIT wieder.

    Das, was du als die “algorithmische Komplexität eines Output Strings” bezeichnest, ist also die Länge des kürzesten Programms. Dein Satz in AIT-isch:

    Dass die Länge eines Programms kürzer sein kann als die des Input-Programms, ist die Trivialität, aus der die AIT ihr Komplexitätsmaß gewinnt.

    Die Funktion SUM(a;b;c) ist also nicht selbst schon das Programm, von dem in der AIT gesprochen wird. Anhand des im Input-Ausdrucks enthaltenen “+” werden die mathematischen Axiome identifiziert, mit deren Anwendung eine Verkürzung des Ausdrucks gelingen kann. Daran wird erkannt, dass die Funktion SUM() zu nehmen ist, die dann genau die gewünschte, informationserhaltende Verkürzung vornimmt.

    Die Schwierigkeit zu Wissen, ob eine Lösung für das Verkürzungsproblem überhaupt existiert, wird innerhalb der AIT behandelt. Selbst in der Mathematik, also bei mathematischen Ausdrücken, gelingt eine solche eindeutige Verkürzung nicht immer. Seien wir froh, dass uns zumindest bei der Addition ein Verfahren bekannt ist.

    Daher ist deine Frage, ob eine bestimmte Verlängerung, was ist a,b,c in “a + b + c” = “42”, algorithmisch ermittelt werden kann, irrelevant. Nein, sie kann es nicht. Ich kann jeden einfachen Sachverhalt auf unendlich viele verschiedene Arten erklären, so kompliziert und unverständlich darstellen, wie nur irgendwas. Und selbst wenn ich mich auf 3 Absätze oder 3 Zahlen beschränken müsste, hätte ich eben schon unendlich viele Möglichkeiten.

    Was für viele mathematische Ausdrücke schon ganz gut gelingt, die Verkürzung zu finden, ist für semantische Informationen noch vollkommen ungelöst. Darauf wird ja auch schon im Blog hingewiesen. Was ist eigentlich die Semantik von “Intelligenz”, “Bewusstsein”, oder “Denken” ?

    Wenn wir über AIT sprechen, sollten wir uns auf Chaitain verlassen. Wenn du mir ein Zitat von ihm zeigen könntest, wo er von Informationsverlusten spricht, bei der Suche nach dem kürzesten Programm, und nicht von “conservation”, dann wäre ich echt überrascht und würde mir die Sache noch mal näher anschauen.

    PS. Das alles hätte sich sicher kürzer und präziser formulieren lassen. Sorry, leider bin ich kein intelligenter Computer.

  37. @Joker

    Okay, bleiben wir bei den Strings und versuchen es möglichst einfach. Betrachten wir ein neues Programm. Dieses lese einen x-beliebigen endlichen String als Input, lösche denselben dann aus dem Memory, und retourniere abschliessend den empty string als Output. Mit freundlicher Hilfe einer fairen Münze könnten wir uns sicherlich einen Input verschaffen, der algorithmisch komplexer ist als der Output.

    Wo “lossy information processing” auftritt, interessiert die algorithmische Komplexität für praktische Belange allerdings nicht so sehr.
    http://en.wikipedia.org/wiki/Lossy_compression#Information_loss

    Etwas Licht in die grundlegenden begrifflichen Zusammenhänge bringt folgendes Statement:

    Entropy, Kolmogorov complexity and mutual information are concerned with lossless description or compression: Messages must be described in such a way that from the description, the original message can be completely reconstructed. Extending the theories to lossy description or compression enables the formalization of more sophisticated concepts, such as “meaningful information” and “useful information.” “Meaningful information” is defined in the Kolmogorov framework using the Kolmogorov structure function. “Useful information” is defined in Shannon’s framework using the rate-distortion function.

    P.D. Grünwald, P.M.B. Vitányi. Kolmogorov complexity and information theory. J. Log. Lang. Inf. 12, (2003) 497-529.

    Vergleichbares findet sich auch in dieser Arbeit derselben Autoren zum selben Thema (vgl. p.4):
    http://arxiv.org/abs/cs/0410002

    In Sec. 4 ist auch etwas zur “conservation”. Dieser Ausdruck scheint 1974 durch Leonid Levin in die Informationstheorie eingebracht worden zu sein, die Stichworte dabei sind “information non-growth” und “information conservation inequalities”.

  38. @Joker

    Noch zum Turing Test. Auch wenn man die Befähigung zum Erschaffen neuer Information als qualitatives Merkmal “echten” Denkens festschreibt, lässt sich daraus keine formale Strategie gewinnen, welche im konkreten Fall eine sichere Beurteilung erlauben würde, ob man es mit “echtem” Denken zu tun hat. Mittlerweile bin ich überzeugt, dass sich mit der Frage nach neuen Axiomen die Sache jedenfalls nicht erledigen lässt — da hat Robertson tatsächlich einen Kurzschluss konstruiert.

    Kreativität lässt sich nicht systematisch forcieren, das lehrt die Informationstheorie scheinbar ebenso wie die praktische Lebenserfahrung 🙂

  39. @ Chrys: Bitte um Aufschub

    Sehr interessanter Artikel, der von Grünwald und Vitanyi. Du siehst, ich lese ihn, obwohl er nicht von Chaitain stammt!

    Ich kann bisher allerdings beim besten Willen – freier Wille hin oder her – nicht Erkennen, wie sich aus diesem Artikel ein überzeugendes Argument für Robertson gewinnen ließe. Nun gut, ich muss zugeben, ich verstehe (noch) nicht alles.

  40. @Joker

    Motiviert durch die Entropie dynamischer Systeme ist es ja keinesfalls abwegig, die Erzeugung neuer Information als eine notwendige Bedingung für Erscheinungsformen von Kreativität zu nennen. Ein eher schlechter Einfall ist es freilich, dies im Beispiel der Willensfreiheit mit dem Turing Test untermauern zu wollen.

    Ist zwar schon etwas off topic, aber um die Sache abzurunden sie noch darauf verwiesen, dass Chaitin seine Sicht der Willensfreiheit an anderer Stelle noch etwas ausführlicher dargelegt hat als in dem zuvor verlinkten Ch. 7.

    Now, Stephen Wolfram has taken up the issue of free will and I think he has an important idea. A new kind of science basically says the world is deterministic and can be run on a computer, so what is free will? Well, it can be run in a computer, but most of the time – and this is the main thesis of Wolfram’s book – there are no shortcuts, that is, most of the time, the only way to see what a physical system will do is to run it. Most of the time, the only way to see what a computer program will do is to run it: that is a new statement of Turing’s result. Stephen Wolfram calls this principle “computational irreducibility.” So, even though in theory every physical system is predictable – if you had an infinitely powerful computer you ran outside our universe – in practice, the fastest way to know what it will do is to run the system itself, that is, if you want to know what will happen, do the experiment and see. So in a way what he says is there is no free will, but it looks like there’s free will because there’s no fast computation that will enable to predict what something will do, in general.

    What is free will? By Gregory Chaitin [HTML]

    Er sucht hier offenkundig nach einem Weg, ohne eine Forderung nach Zuwachs an Information aus der Klemme zu kommen. Da ist dann die Welt (oder deren Modellierung) nicht wirklich komplex, sondern nur sehr kompliziert. Und Unvorhersagbarkeit ist dort keine qualitative Eigenschaft komplexer Systeme, sondern lediglich eine quantitative Einschränkung bei hinreichend komplizierten Problemen.

    Man beachte noch, dass hier ein Prozess selbst dann als theoretisch vorhersagbar angesehen wird, wenn die einzige Möglichkeit der Vorhersage darin besteht, den fraglichen Prozess laufen zu lassen und das Geschehen abzuwarten. Beim Pferderennen gelten solche Methoden der Vorhersage allerdings als unsportlich.

  41. @ Chrys: Neue Informationen

    Nun wage ich nicht zu behaupten, ich hätte jetzt alles verstanden, was Grünwald und Vitanyi so schreiben, aber einige meiner Ideen und Überlegungen dazu kann ich ja trotzdem mal äußern. (Genaugenommen habe ich es nicht mal geschafft mich in das Thema überhaupt tiefer einzuarbeiten)

    “Okay, bleiben wir bei den Strings …”

    Strings sind sowohl die Computerprogramme, als auch die von den Programmen ausgedruckte Nachricht. Die einen Strings, die Programme, werden verkürzt; der String um den es geht, der die Information repräsentiert, der nicht.

    Selbstverständlich kann man, in einer anderen Untersuchung, auch ein Computerprogramm (P1) selbst wieder als Information betrachten und das kürzeste Computerprogramm (P*) suchen, dass P1 als Ausgabe erzeugt.

    Das sind aber dann zwei verschieden Dinge. Es wäre ja noch schöner, wenn beim Ermitteln der Komplexität, dem Suchen nach dem kürzesten Programm, die im Objekt enthaltene Information geringer werden könnte.

    “die Befähigung zum Erschaffen neuer Information”

    Wenn jede Information durch einen String repräsentiert werden kann, dann sollten Computer auch in der Lage sein jeden solchen String zu erschaffen. Für “incomputable” Strings können sie dies zwar nicht, aber dass Menschen sie hierbei durch denken übertrumpfen könnten, das scheint mir ebenso ausgeschlossen. Daher kann man auf Grundlage dieses Informationsbegriffs auch nur schlecht einen erfolgreichen Turing-Test gestalten.

    Wenn man unter einer Information eher etwas versteht, was nur eine bestimmte Form bekommen hat, was in eine bestimmte Gestalt gebracht wurde, dann kann man ein mathematisches Axiom so verstehen, dass dies eine komprimierte Darstellung ist, von etwas, was in der Welt schon vorhanden ist. Das erinnert mich an die alte philosophische Frage: Werden mathematische Gesetze entdeckt oder erfunden? Aber auch hier sehe ich nicht warum eine solche Neuentdeckung, die dann ja nur eine Umformung wäre, nur von Menschen gemacht werden könnte, nicht aber von Computern.

    Generell gilt die Kritik am Informationsbegriff der Shannonschen Theorie (wie sie z.B von Peter Janich in seinem Buch “Was ist Information?” dargelegt wird) wohl auch für Chaitins Informations- bzw. Komplexitätsbegriff. Die Ähnlichkeit der beiden Theorien wird ja eindrucksvoll im Text von Grünwald und Vitanyi demonstriert.

    Mit “Information” lässt sich die oben im Blog aufgezählte Liste unklarer Begriffe einfach verlängern.

    Was kann man aus der “Mutual Information” Theorie lernen?

    Das Ganze – die Information – ist nicht mehr als die Summe seiner Teile, sondern meistens weniger.

    Der Turing-Test lässt sich mit der “Mutual Information”-Syntax formal so beschreiben: Seien m die Informationen des menschlichen Probanden; c die des zu testenden Computers; s die des Schiedsrichters. Dann ist ein s gesucht, so dass für alle m, c gilt:
    K(m|s) > K(c|s)

    Meine Vermutung: So ein s existiert nicht.

    Zum Offtopic-Thema Willensfreiheit nur kurz. Chaitin hat anscheinend noch nichts von Kompatibilisten gehört. Das sind ja bekanntlich die Leute, die Willensfreiheit so definieren, dass es unerheblich ist, ob die Welt deterministisch, probabilistisch oder sonst wie gestaltet ist. Dabei soll es ja gerade unter den Philosophen eine ganze Menge von denen geben; oder er geht davon aus, dass das reicht, was Schopenhauer hierzu an Begriffsbestimmung geleistet hat und dies sollte einfach allgemein akzeptiert und übernommen werden (dafür plädiere übrigens auch ich).

  42. @Joker

    Wenn wir nur invertierbare Algorithmen zulassen, dann muss die algorithmische Komplexität (i.e. information content) des originalen Inputs während der nachfolgenden Prozedur strikt erhalten bleiben. Denn wenn dabei etwas kürzer als kürzestmöglich herauskäme, dann könnte das nur auf Kosten der Invertierbarkeit geschehen sein, im Widerspruch zur Annahme.
    Eine Invertierbarkeit ist aber für einen beliebigen Algorithmus i.a. nicht gegeben, der kann auch “lossy” sein und daher Information verschlampen. Zur Berechnung der algorithmischen Komplexität des ursprünglichen Inputs taugt das dann freilich nicht mehr.

    Zur Erschaffung von Information hier noch ein (vielleicht) erhellendes Zitat:

    The number H(α) is a measure of our (expected) uncertainty about the outcome of the experiment or equivalently of the amount of information that is gained by performing the experiment.

    K. Petersen. Ergodic Theory. CUP, 1983, p. 234. (Hervorhebung von mir.)

    Dabei ist H(α) die Kolmogorov-Sinai Entropie (KSE) einer Partition α. Grünwald und Vitányi haben die Beziehung zwischen Algorithmic Complexity (AC) und Shannon Entropie sehr schön dargestellt, fehlt noch die Verknüpfung mit der KSE. Inzwischen hatte ich auch dazu noch eine passende Literaturstelle gefunden, wo schliesslich festgestellt wird: “Hence we can say that the KSE is a measure of random behaviour in the sense of AC.” (p. 430 in: R. Frigg. Brit. J. Phil. Sci. 55 (2004), 411–434.) Es ist aber nicht ganz trivial, und wie diese Beziehung letztlich zu interpretieren ist, hat man noch nicht wirklich verstanden.
    (Das Frigg paper ist noch hier zu haben: http://www.romanfrigg.org/writings/Entropy_BJPS.pdf)

    Chaitin scheint nach meinem Eindruck die Philosophen nicht so unbedingt zu schätzen. Sieht eher so aus, dass er sich einstweilen bei Wolfram eingeklinkt hat und aus philosophischen Debatten lieber heraushält. Vielleicht täusche ich mich da auch, ist Spekulation.

  43. @ Chrys: Abgefahren

    Zur Erschaffung von Information

    “the amount of information that is gained by performing the experiment”

    “gain” bedeutet übersetzt u.a.: bekommen, erhalten, erlangen, gewinnen. (dict.leo.org)

    Da fehlt “erschaffen”. Die Information ist schon vorhanden, das Experiment ermöglicht nur an sie heranzukommen.

    Bei Shannon wird Information durch die (zufällige) Auswahl eines Elementes aus einer Menge erzeugt. Einige Physiker meinen, Information würde durch einen Quantenprozess, also einen zufälligen Vorgang, erzeugt. Ähnliches wird ja auch in der Komplexitätstheorie unterstellt, so enthält ein zufällig erzeugter String mit hoher Wahrscheinlichkeit viel Information.

    Diese Annahmen passen nicht ganz auf den alltäglichen Begriff von Information, der zwar auf Unbekanntes aber gerade nicht auf Zufälliges verweist: Wann fährt der Zug ab, wann kommt er an?

    Na gut, zugegeben – die Bahn – ein schlechtes Beispiel.

  44. @Joker

    Nach Claude Shannon, information is produced. Nach Robert Shaw (nicht der Schauspieler), information is created where none existed — ausdrücklich bezogen auf die Entropie dynamischer Systeme.

    Nach Norbert Wiener, information is lost. Dabei meinte er dasselbe wie Shannon, nur mit umgekehrtem Vorzeichen. Alternativ liesse sich Entropie daher auch als information loss kennzeichnen.

    Antonym zu Wieners “information loss” ist dann “information gain”, das liegt durch den allgemeinen Sprachgebrauch von loss/gain auch auf der Hand. Gemeint ist mit diesem “information gain” aber freilich wieder nur das, was bei Shannon “produce”, bei Shaw “create”, und Petersen eben “gain” heisst.

    Und bei Übersetzung von all dem ins Deutsche entsteht wahrscheinlich auch ein Informationsverlust 😉

Schreibe einen Kommentar