Turings Werk und Searles Beitrag (3)

BLOG: Analogia

kognitiv inspiriert künstlich intelligent
Analogia

Nach einigen arbeitsreichen Wochen außerhalb der Blogosphäre soll es nun in diesem dritten (und vorerst letzten) Teil der Turing-Test-Serie auf Analogia um eine der populärsten Kritiken an Turings Vorschlag gehen, nämlich um John Searles sog. “Chinese Room Argument”.

Doch Moment, ein Argument als Kritik an einem Test – das passt auf den ersten Blick konzeptuell nicht ganz zusammen.
Und tatsächlich wird der Chinesische Raum auch nicht direkt gegen den Turing-Test ins Feld geführt, sondern zielt ab auf eine der (im Sinne von John Searle) Grundannahmen der Turingschen Idee, welche unter einer gewissen Interpretation der Sachlage als konstitutiv für das Konzept des Turing-Tests betrachtet werden kann.

Nämlich richtet Searle sein Argument gegen eine von ihm als “Strong AI” bezeichnete philosophische Position: Vorausgesetzt, dass eine passende Programmierung, zusammen mit den richtigen Ein- und Ausgaben vorliegt, muss einem Computer ein Geist (engl.: mind) im selben Sinne und Umfang zugeschrieben werden, wie dies bei Menschen getan wird. (Diese Position sollte im Übrigen nicht mit “strong AI” im Sinne von Ray Kurzweil, oder dem damit verwandten AGI-Konzept, verwechselt werden.)
 
Searle stößt sich hierbei an der in seinen Augen notwendigen, jedoch mangelnden Unterscheidung zwischen der “Simulation des Geistes” und dem “tatsächlich vorliegenden Geist”. So unterstreicht er, dass “Strong AI” zufolge eine korrekte Simulation des Geistes wirklichen Geist hervorbringt oder diesem entspricht. Und eben auf dieser Unterscheidung baut Searle die Hauptaussage des Chinese Room Arguments auf: Ein Programm, wie es auf einem digitalen Computer implementiert werden kann, kann dem Computer keinen Geist, kein Verstehen (engl. understanding) oder gar Bewusstsein (engl. consciousness) geben – ungeachtet dessen, als wie intelligent sein  Verhalten auch wahrgenommen werden mag.
(Insofern kann der Chinesische Raum auch als allgemeinere Kritik an den philosophischen Richtungen des Funktionalismus und des Computationalismus gesehen werden, war jedoch ursprünglich auf die geschilderte “Strong AI”-Richtung gemünzt.)

Nun zum Chinese Room Argument selbst. Eine vereinfachte Version des Gedankenexperiments, welches die zugrundeliegende Intuition deutlich werden lässt, lautet wie folgt:
Angenommen es gäbe ein Computerprogramm, welches diesem erlaubt, eine intelligente Unterhaltung auf Chinesisch zu führen. Gibt man dieses Programm nun einem nativen Englischsprecher, damit dieser die Anweisungen des Programmes händisch ausführt, dann wäre (zumindest theoretisch) der Englischsprecher ebenfalls in der Lage, die chinesische Konversation zu führen. Nichtsdestotrotz würde sich ihm der Gesprächsinhalt nicht erschließen – was von Searle wiederum als Beleg dafür gewertet wird, dass auch der Computer, welcher das Programm ausführt, die Konversation nicht verstehen würde.

John Searle selbst präsentiert ein detaillierteres Szenario:
Ein Mensch befindet sich in einem geschlossenen Raum, durch einen Schlitz in der Tür werden ihm Zettel zugereicht (Ähnlichkeiten zum klassischen Turing Test-Szenario sind mit Sicherheit nicht zufällig). Auf diesen Zetteln finden sich nun chinesische Schriftzeichen, welche eine Geschichte erzählen. Leider ist der Mensch des Chinesischen jedoch nicht mächtig, und versteht somit weder die Bedeutung einzelner Zeichen, noch den Sinn der Geschichte. Nach Erhalt der ursprünglichen Zettel wird ihm weiterhin ein Zettel mit (ebenfalls chinesisch verfassten) Fragen zugestellt.
In dem geschlossenen Raum findet der Mensch nun einige chinesische Skripten und eine Art Handbuch, welches mit Regeln in der Muttersprache des Menschen gefüllt ist. Bei genauerer Betrachtung stellt der Mensch nun fest, dass die Regeln im Handbuch es ihm ermöglichen, auf der Basis von Zeichenerkennung und Formabgleich die Symbole mit der Geschichte in Verbindung zu bringen, und (abhängig von den Zeichen auf den Geschichte- und Fragezetteln) gewisse Zeichen auf den Antwortzettel zu übertragen. Die hierbei verwendeten Anweisungen sind rein mechanisch und machen keine Verwendung von inhaltlichen oder bedeutungsrelevanten Informationen, wodurch der Mensch weder die Geschichte noch die Fragen versteht, dennoch aber einen beschrifteten Antwortzettel durch den Türschlitz zurück nach außen geben kann.
Auf der anderen Seite der Tür wartet nun ein chinesischer Muttersprachler, welcher die Antworten des Menschen innerhalb des Raumes liest, und aufgrund der Sinnhaftigkeit der Antworten, und dem in ihnen zum Ausdruck kommenden Bezug zur ursprünglichen Geschichte, die Überzeugung entwickelt, innerhalb des Raumes befinde sich ein ebenfalls des Chinesischen mächtiger Mensch.

Searle will hiermit intuitiv die folgende Argumentationskette untermauern:
(Prämisse 1) Programme sind formale, syntaxbasierte Objekte.
(Prämisse 2) Geist hat semantischen Inhalt.
(Prämisse 3) Syntax selbst ist weder konstitutiv noch ausreichend um Semantik entstehen zu lassen.
(Schlussfolgerung) Progamme sind weder konstitutiv noch ausreichend um Geist entstehen zu lassen.

Eine direkte Konsequenz der Schlussfolgerung wäre nun, dass das ursprüngliche Ziel der KI, nämlich Geist innerhalb einer Maschine durch (symbolbasierte) Programmierung entstehen zu lassen, niemals erreicht werden kann. Sind also alle Forschungsanstrengungen der letzten 60 Jahre umsonst gewesen, müssen wir uns vom Traum, eines Tages eine “thinking machine” zu erschaffen, verabschieden?

Ich denke, dafür ist es bei Weitem noch zu früh, hat das Chinese Room Argument selbst doch mehr als nur eine Schwachstelle. Im Folgenden sollen (ausgewählt aus einer reichhaltigen, über die Jahre stetig wachsenden Liste) zwei Aspekte einer möglichen Entgegnung zu Searles auf den ersten Blick durchaus überzeugenden Geschichte kurz andiskutiert werden, nämlich die sog. “virtual mind reply” und der “derived meaning”-Einwand.

Bei der virtual mind reply handelt es sich um eine durch Martin Minsky populär gemachte Einstellung zum Chinesischen Raum:
Wieso sollte ein Computer nicht auch einen Geist entstehen lassen können, ähnlich wie er bereits virtuellen Maschinen, virtuellen Communities oder virtueller Realität als Grundlage dient? Insofern wäre es dann auch nicht mehr allein das Programm, welches den Geist entstehen lässt, sondern das System als Ganzes – um Searles eigene Analogie zu bemühen: Allein der Mann im Chinesischen Raum versteht sicher nicht Chinesisch, aber dem Gesamtsystem (bestehend aus dem Mann, dem Handbuch, Stift und Zetteln, etc.) kann diese Fähigkeit doch zugeschrieben werden. (Um noch eine von David Cole inspirierte Zusatzbemerkung anzufügen: Ein Computer könnte somit auch über mehrere “virtual minds” verfügen, die Zuordnung zwischen System und Geist wäre möglicherweise von der Form eins zu viele.)

Doch was bedeutet hier eigentlich “Chinesisch verstehen”, woher sollen die chinesischen Symbole ihre Bedeutung erhalten, worauf wird die Verbindung zwischen Symbol und Symbolisiertem hergestellt? Hier kommt nun die Idee der abgeleiteten Bedeutung (engl.: derived meaning) zum Tragen:
In Searles Beschreibung ist der Chinesische Raum eindeutig mit der Außenwelt verbunden, und zwar zum einen durch den Chinesischsprecher, welcher auf der Außenseite als Kommunikationspartner zur Verfügung stellt, und ebenso durch die “Programmierer”, welche das Regelwerk des Handbuches zusammengestellt haben. Die innerhalb des Raumes manipulierten Symbole wären damit bereits bedeutungstragend, sie sind nur für den im Raum befindlichen Menschen bedeutungslos. Zwar entgegnet Searle auf diesen Einwand, die Symbole hätten somit lediglich abgeleitete Bedeutung, abhängig vom bewussten Verstehen des Chinesischsprechers und der Programmierer außerhalb des Raumes. Jedoch ist dies in meinen Augen nicht ausreichend, um den Einwand zu entkräften, beruht ein Großteil des originalen Chinese Room Argument doch entscheidend auf der absoluten Trennung zwischen Syntax und Semantik, sowie dem vollständigen Fehlen letzterer im Chinesischen Raum (siehe Prämisse 3 der Argumentationskette).

Soviel also für den Moment zu “Turings Werk und Searles Beitrag”, ich bin mir sicher, es wird auch in Zukunft noch den einen oder anderen Beitrag zu diesem Thema geben, vorher steht aber jetzt erst einmal noch einiges anders auf der Blogliste.

Doch dazu demnächst mehr – bis zum nächsten Blogpost!

Avatar-Foto

Jack of all trades, (hopefully) master of some: - Diplommathematiker (FAU Erlangen-Nürnberg),... - ...Logic Year-Absolvent (ILLC, Universiteit van Amsterdam),... - ...PhD in Cognitive Science (IKW, Universität Osnabrück),... - ...Postdoc am KRDB der Freien Universität Bozen-Bolzano,... - ...und inzwischen am Digital Media Lab der Universität Bremen. Themen aus der (vor allem kognitiv-inspirierten) künstlichen Intelligenz, der künstlichen Kreativität, der Philosophie des Geistes, und dem Grenz- und Interaktionsbereich zwischen Wissenschaft und Gesellschaft. ==================== Alle zum Ausdruck gebrachten Annahmen, Meinungen, Einschätzungen, und Stellungnahmen stellen ausschließlich meine private Position zu den jeweiligen Themen dar, und stehen (außer, wenn explizit anders ausgewiesen) in keinem inhaltlichen Zusammenhang mit Institutionen aus meinem beruflichen Umfeld.

44 Kommentare

  1. So

    Ohne mich bis jetzt großartig mit dem Chinesischen Raum und den Argumenten für und wider beschäftigt zu haben, ist mir das im letzten größeren Absatz gesagte auch zuerst eingefallen.
    An sich ist die Konversation des Chinesischsprechers mit dem „Raum“ nichts anderes als eine Unterhaltung mit dem Autoren der Regeln, wenn auch über einen sehr ungewöhnlichen und komplizierten Kanal, dazu auch zeitlich versetzt. Nur von diesem Autoren hängt es ab, was man vom Raum zu lesen bekommt. Der Mensch im Raum hat prinzipiell keine andere Funktion als der Bildschirm, auf dem ich diesen Blogartikel lese.

  2. So, so

    “An sich ist die Konversation des Chinesischsprechers mit dem „Raum“ nichts anderes als eine Unterhaltung mit dem Autoren der Regeln, wenn auch über einen sehr ungewöhnlichen und komplizierten Kanal, dazu auch zeitlich versetzt.”

    An sich ist die Konversation des Chinesischsprechers mit dem Autoren der Regeln nichts anderes als eine Unterhaltung mit den Genen des Autoren, wenn auch über einen sehr ungewöhnlichen und komplizierten Kanal, dazu auch zeitlich versetzt.

    An sich ist die Konversation des Chinesischsprechers mit den Genen des Autoren nichts anderes als eine Unterhaltung mit der Evolution, wenn auch über einen sehr ungewöhnlichen und komplizierten Kanal, dazu auch zeitlich versetzt.

    usw.

    Analog ließe sich auch der Chinesischsprecher analysieren. Am Ende unterhält sich der Urknall mit sich selber, zeitlich versetzt.

    Tschuldigung, ging etwas mit mir durch.

    Etwas seriöser formuliert:
    Egal wie die Regeln in den Raum gekommen sind, wie sie entstanden sind, ob sie im Raum selbst noch mal modifiziert werden oder für immer so bleiben, wie von den Autoren einmal vorgegeben, wir sollten den Raum als die Entität auffassen, von der wir uns fragen, ob sie Chinesisch versteht.

    “Der Mensch im Raum hat prinzipiell keine andere Funktion als der Bildschirm, auf dem ich diesen Blogartikel lese.”

    Der Mensch im Raum hat nicht nur eine Ausgabefunktion. In der Computermetapher verbleibend übernimmt er auch noch die Funktion eines Eingabegerätes (er nimmt die Zettel entgegen) und wirkt auch mit bei der weiteren Verarbeitung, ist also auch Steuerwerk, Speicherwerk und eventuell sogar ein Teil des Rechenwerks. Typisch Mensch eben, universell verwendbar.

  3. Syntax und Semantik, echtes Verständnis

    Das Gleichnis vom chinesischen Raum behauptet ja indirekt, eine überzeugende Kommunikation sei ohne echtes Verständnis möglich. Ich bezweifle aber, dass in einer wirklich offenen Situation ein Partner echtes Verständnis vortäuschen kann und behaupte sogar, dass es jedem halbwegs intelligenten Gegenspieler gelingen wird vorgetäuschtes Verständnis zu enttarnen.

    Zudem mag die Annahme von Searle, Programme seien formale, syntaxbasierte Objekte noch stimmen, wenn man das nur als eine Eigenschaft von mehreren nimmt, die Programme haben. Sie ist jedoch falsch, wenn sie impliziert, ein Programm sei nie mehr als etwas formales, syntaxbasiertes.

    Hier nun ein Rezept wie man echtes von vorgetäuschtem Verständnis unterscheidet:
    Man verlangt vom Gegenpart, der vorgibt über tiefes Verständnis zu verfügen, die Beantwortung von Fragen, die ohne Schlussfolgerungen nicht beantwortet werden können.
    Man kann fast beliebige Beispiele machen, hier nun eines aus der Mathematik. Wir übermitteln dem Mann im Raum – unter der Annahme, er sei mathematisch nicht bewandert – die Peano-Axiome (Definition der natürlichen Zahlen) in einer nicht-mathematischen Terminologie, die aber eine 1:1 Beziehung zur mathematischen Terminologie hat und fragen ihn dann, ob er Beispiele für Ansammlungen von Dingen machen kann, die die Peano-Axiome erfüllen.
    Auch Fragen aus anderen Bereichen sind möglich. Zum Beispiel kann man die Kompetenz in Chinesisch oder einer anderen Sprache ebenfalls durch Fragen ergründen. Falls eine genügende Anzahl derartiger Fragen zufriedenstellend beantwortet wird liegt tieferes Verständnis vor, egal wie das verstehende System aufgebaut ist. Werden nur wenige derartiger Fragen befriedigend beantwortet muss man daran zweifeln, dass das System über echtes Verständnis verfügt. Das gilt übrigens nicht nur für Maschinen, sondern auch für Menschen.

    Dass im Beispiel mit dem chinesischen Zimmer noch ein Übersetzungsvorgang stattfindet ändert nichts daran, dass etwas in diesem Zimmer oder etwas was mit diesem Zimmer zu tun hat über echtes Verständnis verfügt.

    Übertragen auf die Technologie von fast-schon-heute könnte man das chinesische Zimmer so erzählen. Jemand aus China telefoniert nach Deutschland und erhält von dort korrekte Antworten in chinesisch, die auf ein intelligentes Gegenüber schliessen lassen. Es stellt sich aber heraus dass der Gegenpart gar kein chinesisch spricht, sondern deutsch. Schon bald wird das niemand mehr verblüffen, wenn der Übersetzungsprozess nämlich im Hintergrund automatisch erfolgt. Auch wenn man dem Übersetzungsprozess keine Intelligenz zumisst, so muss es auf der anderen Seite irgendwo Intelligenz und Verständnis geben. Sonst wären die Antworten – falls man tiefer bohrt – nicht überzeugend.

  4. @ Martin Holzherr: Verständnis

    “Falls eine genügende Anzahl derartiger Fragen zufriedenstellend beantwortet wird liegt tieferes Verständnis vor, egal wie das verstehende System aufgebaut ist.”

    Das bestreitet Searle ja gerade. Für ihn kommt es ganz entscheidend darauf an, wie eine zufriedenstellende Antwort erzeugt wurde. Nur wenn sie auf Menschenart – mit Geist – entstanden ist, kann seiner Ansicht nach von Verständnis gesprochen werden.

    Es reicht also nicht aus einfach einseitig den Verständnis-Begriff anders zu definieren, ihn schwächer zu machen, um so auch die KI mit einzufangen. Vielleicht könnte man Searle überzeugen, wenn man ihm zeigen könnte, dass die menschliche Art und Weise Antworten zu produzieren, sich nicht wesentlich von der Informationsverarbeitung eines Computer oder der im Chinese-Room-Gedankenexperiment beschriebenen unterscheidet. Vielleicht so:

    Ein Hirn befindet sich in einem geschlossenen Schädel, durch Sinnesorgane werden ihm Reize übermittelt. In diesen Reizen finden sich nur unverständliche Muster, welche eine Geschichte erzählen. Leider ist das Hirn des Chinesischen jedoch nicht mächtig, und versteht somit weder die Bedeutung einzelner Muster, noch den Sinn der Geschichte. Nach Erhalt der ursprünglichen Reize werden ihm andere Reize mit (ebenfalls chinesisch verfassten) Fragen zugestellt.
    In dem geschlossenen Schädel findet das Hirn nun einige Substrukturen, welche nach Regeln neuronaler Netzwerke arbeiten. Bei genauerer Betrachtung stellt das Hirn nun fest, dass neuronalen Verschaltungen es ihm ermöglichen, auf der Basis von Mustererkennung und gespeicherten Strukturmerkmalen die neuen Reize mit der Geschichte in Verbindung zu bringen, und (abhängig von den Mustern in den Geschichts- und Fragereizen) gewisse Muster auf die Muskulatur zu übertragen. Die hierbei verwendeten Anweisungen sind rein elektrochemisch und machen keine Verwendung von inhaltlichen oder bedeutungsrelevanten Informationen, wodurch das Hirn weder die Geschichte noch die Fragen versteht, dennoch aber einen Antwortzettel beschrifteten kann.

    Ich glaube Searle hat bewiesen, dass wir niemals über Geist verfügen werden.

  5. @Joker

    Die Spracherkennung ´Siri´ für den iPhone zerlegt gesprochene Texte in kleine Teile (Muster), welche mit Klangmustern, Wort- und Internetdaten abgeglichen werden, um ein Satzverständnis zu erzeugen.
    Das ist schon nahe an der Arbeitsweise des Gehirns

  6. Typo corr.: Marvin, not Martin

    Hier: »Bei der virtual mind reply handelt es sich um eine durch Martin Minsky populär gemachte Einstellung zum Chinesischen Raum:«

  7. Geist

    Searle will hiermit intuitiv die folgende Argumentationskette untermauern:
    (Prämisse 1) Programme sind formale, syntaxbasierte Objekte.
    (Prämisse 2) Geist hat semantischen Inhalt.
    (Prämisse 3) Syntax selbst ist weder konstitutiv noch ausreichend um Semantik entstehen zu lassen.
    (Schlussfolgerung) Progamme sind weder konstitutiv noch ausreichend um Geist entstehen zu lassen.

    Was ist denn hier Geist? – ‘im selben Sinne und Umfang zugeschrieben …, wie dies bei Menschen getan wird’ reicht ja so nicht.

    Verfügt ein Haustier über “Geist”, ab welcher Lebensform genau verfügt es nicht mehr über “Geist”?

    MFG
    Dr. Webbaer

  8. @ Dr. Webbaer Re: Geist

    “Was ist denn hier Geist?”

    Das ist die Frage, über die auch Searle sagt, dass er sie nicht beantworten kann. Er muss dies auch nicht tun, um gegen die KI argumentieren zu können.

    “…wie dies bei Menschen getan wird’ reicht ja so nicht.”

    Doch, es reicht. Obwohl wir nicht alles über Geist wissen, so wissen wir doch etwas darüber. Dieses Teilwissen, was wir am Menschen als Untersuchungsobjekt erworben haben, reicht eben schon aus, um die Behauptung der (starken) KI, sie könne Geist erschaffen oder duplizieren, zu widerlegen.

    Geist hat u.a. die Eigenschaft, Intentionalität erzeugen zu können, bzw. Geist hat semantischen Inhalt, was jeder bei sich selbst am besten nachverfolgen kann. Das kann die KI nicht reproduzieren, soviel meint Searle belegen zu können.

    “Verfügt ein Haustier über “Geist”, ab welcher Lebensform genau verfügt es nicht mehr über “Geist”?”

    Diese Frage wendet Searle gegen die KI. “Wenn die starke AI ein Zweig der Psychologie sein soll, dann muss sie imstande sein, genuin geistige Systeme von denen zu unterscheiden, die das nicht sind.” (S. 244)

    Den Text von Searle (aus dem auch das Zitat stammt), in dem er auch auf weitere Gegenargumente eingeht, habe ich hier gefunden:
    http://philosci24.unibe.ch/bib2lib/pdf/gedankenexperimente/searle/searle.pdf

  9. @Joker: Bewusstsein und Geist graduell

    Heute domniniert in der Neuroszene – unter Hirnforschern, Verhaltensforschern, etc – die Ansicht, dass auch Bewusstsein (und letztlich auch Geist, was immer das ist) ein graduelles Phänomen ist, welches man nicht entweder hat oder nicht hat, sondern wo es verschieden starke Ausprägungen gibt. Erlebnisse haben wohl auch Tiere und Primaten haben gemäss Experimenten auch Intentionen. Sie planen durchaus, tricksen andere aus und können sogar Aufgaben, die sie an einem Tag begonnen haben, an einem anderen Tag zuende bringen. Einige Überlegungen dazu findet man hier.

    Hier noch ein Bericht über das Verhalten von Schimpansen bei Todesfällen von Gruppenmitgliedern und hier ein Bericht über einen Schimpansen, der Zoobesucher mit Steinen bombardiert, wobei er heimlich mehrere Munitionslager angelegt hat.

  10. Geist

    … würde der Schreiber dieser Zeilen gerne an das direkte Fortkommen und das Fortkommen der Nachfolgeschaft binden wollen, dabei auch die Kommunikation (wir erinnern uns: Am Anfang war das Wort) einarbeiten und demzufolge die Erhaltung in den Vordergrund rücken wollen.

    Wenn “Geist” gefordert ist, dann also mehr die Kommunikation, in den Alien-Filmen kam diese ja etwas zu kurz, wobei wir dann wieder bei der Projektion wären, also bei dem, was manche meinen als Geist auffassen zu können und andere weniger.

    Das Bewusstsein mag hier hineinspielen, aber kriegt man so ein Bein in die Diskussion?

    MFG
    Dr. Webbaer (der die Sache eher ungerne der KI-Forschung überlassen würde)

  11. Intentionalität

    Geist hat u.a. die Eigenschaft, Intentionalität erzeugen zu können

    … können Sie sehr leicht erzeugen, vermutlich auch ohne von Ihnen als Geist Empfundenes.

    Auch die Semantik nagt ein wenig, die Semantik ist doch eine Beziehung, idealerweise eine “1:1”-Beziehung zwischen Erkenntnissubjekt und Umgebung bzw. umgebende Sachlichkeit (die natürlich auch sehr grob festgestellt werden kann)? Eine Welt im Erkenntnissubjekt, die der Bearbeitung dient. Jeder Hund arbeitet intern semantisch.

    MFG
    Dr. Webbaer (dem auch die Sache mit der Sprache mit Syntax, aber ohne Semantik höchst unklar erscheint – Sprache kodiert Information zu Daten und erlaubt dem Hörenden die Abstraktion zu Daten von Gehörtem)

  12. @ Martin Holzherr: Graduell

    Für Searles Argumentation ist es relativ belanglos was die aktuelle Hirnforschung herausgefunden hat. Es spricht aus seiner Sicht nichts gegen eine graduelle Entwicklung von Geist. Geist, oder Vorstufen von Geist, könnte sich in seiner Theorie bei Tieren durchaus finden lassen und durch evolutionäre Mechanismen kann sich dieser auch graduell immer weiterentwickelt haben. Geist ist für ihn aber immer an ein Gehirn gekoppelt oder etwas mit “derselben kausalen Kraft”.

    Searle argumentiert alleine gegen die KI. Computer können keinen Geist erzeugen, sie instantiieren Programme, führen Algorithmen aus. Programme sind aber nur “formale, syntaxbasierte Objekte”. Programme können verändert werden, komplexer werden oder auch evolvieren, wenn man das so nennen will, sie werden aber immer Programme bleiben. Aus Syntax wird niemals Semantik, nicht sprunghaft und nicht graduell. Programme verfügen einfach nicht über diese etwas unbestimmte, aber laut Searle nötige “kausale Kraft”.

    So mag die Hirnforschung interessante Ergebnisse zum Thema Geist liefern, die KI hingegen kann, seiner Theorie nach, zu diesem Problem nichts beitragen.

    Brains cause mind!

  13. @ Dr. Webbaer: Alien

    “die Kommunikation, in den Alien-Filmen kam diese ja etwas zu kurz … aber kriegt man so ein Bein in die Diskussion?”

    Nein.

    MfG
    Joker

    PS. Searle hält den Turing-Test für nicht hinreichend um Geist nachzuweisen. Computer oder Roboter könnten eines Tages sehr gut kommunizieren, sie könnten sich z.B. Chinesisch unterhalten, untereinander oder auch mit Menschen, über Geist würden sie immer noch nicht verfügen.

  14. @ Dr. Webbaer: Hund

    “Auch die Semantik nagt ein wenig, die Semantik ist doch eine Beziehung […] zwischen Erkenntnissubjekt und Umgebung.”

    Da könnte Searle sicherlich zustimmen. Er bestreitet dass ein Computer ein Erkenntnissubjekt ist. Computer gehören in die Klasse von Objekten, in die auch “Thermostate, Telefone und Tischrechner” gehören. (Falls du nicht weißt, was Tischrechner einmal waren: Wikipedia -> Rechenmaschine)

    “Jeder Hund arbeitet intern semantisch.”

    Eine mögliche Antwort von Searle, der die Sache eher ungerne der KI-Forschung überlassen würde:
    “Richtig; und kein Computer arbeitet intern semantisch.”

  15. Ein Argument für Searle.

    Grob gesprochen, geht die Entwicklung von Geist durch die KI von der Syntax hin zur Semantik. Sowohl in der Phylogenese als auch in der Ontogenese des Menschen scheint mir aber zunächst Semantik vorzuherrschen. Und am Anfang sogar eine, bei der noch nicht einmal Symbole eine Rolle spielen. Die Intentionalität ist zunächst ganz ursprünglich, es gibt einen direkten Bezug zwischen Subjekt und Welt. Im Laufe der Zeit wird die Welt vom Subjekt konzeptualisiert und strukturiert. Begriffe würde ich das nennen, was das Subjekt verwendet, um die werdenden Konzepte und Strukturen intern zu repräsentieren. Erst dann können auch Symbole eine Anwendung finden, diese etwas für das Subjekt bedeuten – das semiotische Dreieck ist entstanden. Und erst im letzten Schritt, bei der Entstehung von Sprache werden Symbole geordnet, in eine Reihenfolge gebracht oder kombiniert. Jetzt erst kommt also Syntax ins Spiel.

    Wenn wir das soeben Beschriebene als Top-Down-Verfahren bezeichnen, versucht die KI sozusagen in einem Bottom-Up-Verfahren Geist zu erzeugen. So gesehen kann ich die Kritik von Searle gut nachvollziehen. Eine etwas unpassende Analogia:

    Ein Auto macht zwar Geräusche, aber ob ich aus Geräuschen jemals ein Auto produzieren kann, halte ich für eher unwahrscheinlich.

  16. @ KRichard: Muster

    “Spracherkennung […] zerlegt gesprochene Texte in […] Muster […] um ein Satzverständnis zu erzeugen.

    Nach Searle ist Muster-Erkennung durch Computer möglich, Muster-Verständnis aber nicht.

    “Das ist schon nahe an der Arbeitsweise des Gehirns.”

    Sicher verwendet auch das Gehirn Mustererkennung, und vielleicht arbeiten auch Computer ähnlich. Aber auch durch Mustererkennung von Mustern wird – nach Searle – kein Verständnis erzeugt. Beim Menschen, oder anderen Wesen mit Gehirn, kommt noch etwas anderes hinzu, um Verständnis zu ermöglichen.

    Nehmen wir als Beispiel “Watson”, das Computerprogramm dass in der Quizshow Jeopardy erstaunliches geleistet hat.

    http://de.wikipedia.org/wiki/Watson_%28K%C3%BCnstliche_Intelligenz%29

    Wenn auf einer nach oben offenen Skala eine Biene einen Geist-Index von 4 bekäme und der Mensch einen von 117, dann müsste man einem Computer auf dem Watson ausgeführt wird immer noch den Index 0 (in Worten: Null) zuordnen.

  17. Searle’s Rassismus:reiner Geist gegen AI

    Searles Ablehnung jedes Zeichen von Geist und Intelligenz, die nicht dem “Geist” des Menschen entspricht, hat viele Ähnlichkeiten mit dem Rassismus unserer abenteuerlustigen Vorfahren, die den neu entdeckten Stämmen von Wilden/Negern (und anderem Getier) die Zugehörigkeit zur Menschheit absprachen. Nur schon weil sie anders waren. Dass sie ihre Toten ebenfalls beweinten und begruben oder Freundschaften pflegten genügte nicht als Zeichen der Menschlichkeit.
    Ebenso genügt Searle keine noch so verblüffende Weisheit, Einsicht und Tiefgründigkeit der Gedanken um eine Maschine zu etwas dem Menschen gleichwertigen zu machen. Denn der Maschine fehlt – per definitionem – der Geist. Im Steven Spielberg-Film A.I. (Artificial Intelligence) wird das ganze Dilemma und der Schmerz, der fehlende Anerkennung als gleichwertiges Wesen mit sich bringt eindrücklich in der Figur Davids, eines bewusst als (Ersatz-)Kind geschaffenen Androiden – zum Ausdruck gebracht. David verhält sich wie ein Kind, fühlt wie ein Kind und kämpft wie ein Kind um die Liebe seiner (Adoptiv-)Eltern. Doch seine Spielkameraden wissen, dass er kein Mensch ist. Sie hänseln ihn, machen Dinge wie Schwimmen unter Wasser, die es machzumachen gilt und die David – um dazuzugehören – auch macht, obwohl sie ihm – als Maschine – gar nicht gut bekommen.
    David ist eben beides: eine Maschine und ein echter Mensch, denn er fühlt wie ein Mensch und leidet wie ein Mensch. Und es widerfährt ihm in diesem Film vieles, was auch Menschen widerfährt, die dazugehören wollen, aber nicht akzeptiert werden.

  18. Muster-Verständnis

    Durch Berührungsreize lernen wir Muster, mit denen die Grenzen des eigenen Selbst festgelegt werden. Und etwa ab dem 2. Lebensjahr lernen wir dieses Selbst als ´Ich´ oder mit dem eigenen Namen zu bezeichnen. Auch dies sind erlernte Muster.
    Der Eindruck einer eigenständlichen Persönlichkeit oder individueller Erlebnisse entsteht, wenn aktuelle Erlebnisse/Gedanken in einem oszillierendem Prozess mit diesen gespeicherten Mustern verglichen wird und sich Übereinstimmung ergibt. Dann entsteht aus aktuellen und gespeicherten Informationen der Eindruck von Verständnis einer Situation. Letztlich ist dies auch nur ein Mustervergleich.
    Kernspin-Untersuchungen zeigen dies deutlich: bei bestimmten Ereignissen sind zugeordnete Bereiche im Gehirn aktiv und können messtechnisch erfasst werden – wenn diese Situation dann erinnert wird, dann sind wieder die gleichen Bereiche aktiv als wie bei dem ursprünglichen Erlebnis. D.h. wir haben nicht gedacht, sondern hatten eine re-experience – eine Wiederaktivierung vorhandener Muster. Déjà-vu´s sind ein schönes Beispiel für eine solche re-experience, weil nicht alle re-aktivierten Musterbestandteile passen erkennen wir im Mustervergleich das Déjà-vu

  19. @Martin Holzherr – Searle’s Rassismus

    Searle antwortet auf die Frage, ob es möglich sei, dass eine Maschine denkt: “[O]ffensichtlich »ja«. Wir selber sind eben solche Maschinen.”

    Das kann man in dem von Joker (danke! :-)) verlinkten Aufsatz Searl’s (“Geist, Gehirn, Programm”) nachlesen.

    Der “Rassismus”-Vorwurf trifft also nicht.

  20. @ Balanus

    „Searle antwortet auf die Frage, ob es möglich sei, dass eine Maschine denkt: “[O]ffensichtlich »ja«. Wir selber sind eben solche Maschinen.”“

    Adorno antwortete auf eine ähnliche Frage sinngemäß, wenn auch viel schöner: Einen Menschen, wie sie noch vor 200 Jahren waren, auch den beschränktesten, nachzubauen ist ganz unmöglich. Bei einem heutigen dagegen kann man sich das schon vorstellen, denn die denken sowieso wie Maschinen.

    Das hat mir eingeleuchtet. Ein Pirat geht vielleicht – jedenfalls würde mich das nicht wundern – ganz leicht. Ein heutiger, meine ich, ein Mitglied der Piratenpartei; Störtebeker natürlich nicht.

  21. Rassismus

    “Searles Ablehnung jedes Zeichen von Geist und Intelligenz, die nicht dem “Geist” des Menschen entspricht, hat viele Ähnlichkeiten mit dem Rassismus unserer abenteuerlustigen Vorfahren”

    Ja, da könnte eine Analogie bestehen. Nun könnte aber auch ein Unterschied zwischen geistfähigen und leidensfähigen Wesen bestehen. Nur leidensfähige Wesen sind in der Regel die Objekte ethischer Theorien. Kann die KI hier Kriterien liefern, anhand derer wir einteilen könnten? Hat die KI schon Einfluss genommen, etwa auf die Tierethik?

    Wenn der Turing-Test schon nicht hinreichend ist, um echtes Verstehen diagnostizieren zu können, wie könnte da ein Test für Leidensfähigkeit aussehen – Folter? Wenn das aus ethischen Gründen ausscheidet, müssen wir dann jedem Toaster und jeder Waschmaschine mit integriertem Prozessor vorsichtshalber respektvoll begegnen, dürfen wir sie unter Strom setzen?

    Was sollten wir minimieren, Fehler 1. Art oder Fehler 2. Art?

    Die Neigung zum Anthropomorphismus hat schon 1966 dazu geführt, dass Menschen “ELIZA”, ein simples Computerprogramm, als angenehmen Gesprächspartner empfunden haben. Das sollte unsere Skepsis verstärken. Bessere Kriterien als unsere Intuition und unser persönlicher Eindruck sind jedenfalls mehr als wünschenswert.
    http://de.wikipedia.org/wiki/ELIZA

    Philosophen, wie z.B. Thomas Metzinger, warnen uns davor künstliches Bewusstsein zu schaffen, solange wir nicht sicher sind, dass wir damit nicht schreckliches Leid erzeugen. Die KI müsste also nicht nur in der Lage sein, zu sagen ob ein System nun wirklich etwas versteht, sondern auch noch garantieren können, dass es dabei nicht leidet. Wenn Leidensfähigkeit sich als notwendige Bedingung für Geist herausstellt, sollten wir die Forschungen in diesem Bereich besser gänzlich unterlassen.

    Wenn wir es trotzdem machen, nur weil wir die Fähigkeiten dazu haben und solche Systeme uns einmal nützlich sein könnten, könnte man das auch als eine Form von Rassismus begreifen.

  22. @ Balanus: Rassimus 2

    “Wir selber sind eben solche [besonderen] Maschinen.”

    Vrgl.:
    Wir selber sind eben solche besonderen Menschen.

    Der “Rassismus”-Vorwurf könnte schon zutreffen. Wir brauchen Kriterien.

  23. @Joker /Rassismus

    Behauptet Searle denn, Menschen seien “besondere” Maschinen? Soweit ich das verstanden habe, sagt er nur, dass “Geist” eine besondere Eigenschaft sei, und als solche abhängig von der Struktur des Nervensystems.

    Dass wir Kriterien brauchen, ist wohl unvermeidlich. Angenommen, wir wollten eine Maschine zum Fliegen bringen. Da genügt es nicht, eine tolle Flugsoftware schreiben, da müssen wir an der Hardware schrauben. So verstehe ich Saerles Argument.

    Da @Ludwig Trepl die Piraten erwähnte: Der Aufsatz von Searle, den Du da gefunden hast, hat doch sicherlich ein freundlicher Freibeuter ins Netz gestellt, zum Nutzen aller…:-)

    Ich habe mir den Originalartikel besorgt. Wer hier nicht über eine Bibliothek Zugriff auf den Artikel hat, darf 45 US$ berappen, erhält dafür aber den Aufsatz inklusive etlicher Kommentare und Erwiderungen, was natürlich toll ist (das Prinzip, nicht der Preis). Der Text zählt übrigens zu den 10 meistzitierten Artikeln im Behavioral and Brain Sciences, einer Zeitschrift mit dem stolzen Impact Factor 21,952.

  24. @ Balanus: Antirassismus, Antipiraterie

    “Behauptet Searle denn, Menschen seien “besondere” Maschinen?”

    Ja, er behauptet es seien denkende Maschinen (im Gegensatz zu allen anderen Maschinen). Diese Fähigkeit hätten sie, weil sie aus einem ganz besonderen Holz geschnitzt wurden, biologischem Material.

    Das klingt ja erst mal so selbstverständlich, wie dass nur Menschen mit lila Haut über Kultur verfügen könnten (im Gegensatz zu Menschen mit grüner, blauer oder violetter Haut).

    Der Aufsatz von Searle findet sich in verschiedenen deutschen Übersetzungen wieder, u.a. in:

    D. Hofstadter u. D. Dennett [Hrsg], Einsichten ins Ich
    T. Metzinger [Hrsg], Grundkurs Philosophie des Geistes (Band 3)
    D. Münch [Hrsg], Kognitionswissenschaft: Grundlagen, Probleme, Perspektiven

  25. @Joker /man-made machine

    »Ja, er behauptet es seien denkende Maschinen (im Gegensatz zu allen anderen Maschinen). Diese Fähigkeit hätten sie, weil sie aus einem ganz besonderen Holz geschnitzt wurden, biologischem Material.«

    Das lese ich völlig anders:

    Yes, but could an artifact, a man-made machine, think?”
    Assuming it is possible to produce artificially a machine with a nervous system, neurons with axons and dendrites, and all the rest of it, sufficiently like ours, again the answer to the question seems to be obviously, yes. If you can exactly duplicate the causes, you could duplicate the effects. And indeed it might be possible to produce consciousness, intentionality, and all the rest of it using some other sorts of chemical principles than those that human beings use. It is, as I said, an empirical question.

    (Searle JR, BBS 1980, S. 422)

    Das heißt doch, dass das Material und die Herkunft egal sind, entscheidend ist die funktionale Struktur.

  26. @Joker: Searle, Metzinger

    Die Neigung zum Anthropomorphismus hat schon 1966 dazu geführt, dass Menschen “ELIZA”, ein simples Computerprogramm, als angenehmen Gesprächspartner empfunden haben.

    Searle berichtet in seiner ausgesprochen hörenswerten Vorlesung [1] von der Sekretärin Weizenbaums, die “mit dem Computer allein” sein wollte und dann während der ELIZA-Sitzung in Tränen ausbrach.

    Philosophen, wie z.B. Thomas Metzinger, warnen uns davor künstliches Bewusstsein zu schaffen, solange wir nicht sicher sind, dass wir damit nicht schreckliches Leid erzeugen.

    Die Nichtausschließbarkeit schrecklichen Leids spricht auch gegen die Schaffung “natürlichen” Bewusstseins in Form von mehr oder weniger “natürlich” gezeugtem Nachwuchs. Oder verstehe ich Metzinger hier falsch?

    [1] http://www.youtube.com/watch?v=zi7Va_4ekko ff.

  27. @Ano Nym

    Wer künstliches Bewusstsein schaffen will – sollte zuvor erst einmal wissen, was genau ´Bewusstsein´ überhaupt ist.

  28. @ Ano Nym: Schrecklich

    “Die Nichtausschließbarkeit schrecklichen Leids spricht auch gegen die Schaffung “natürlichen” Bewusstseins in Form von mehr oder weniger “natürlich” gezeugtem Nachwuchs. Oder verstehe ich Metzinger hier falsch?”

    Ich weiß nicht, wie Metzinger hier antworten würde. Ein Utilitarist würde sagen, solange der gewonnene Nutzen (incl. Mutter- und Vaterfreuden) das zusätzliche Leid im Leben überkompensiert, spricht alles für natürlichen Nachwuchs. Die Natur scheint diesbezüglich durch die Evolution so gewirkt zu haben, dass Menschen meinen, dies wäre auch so. Zumindest glauben sie das, bis ins zeugungsfähige Alter hinein. Das erlebte Leid danach und die dann vielleicht noch empfundene Lebensfreude ist jedenfalls nicht mehr selektiv wirksam.

    Ein Philosoph, der meines Wissen skeptisch gegenüber natürlichem Nachwuchs ist, ist E.M. Cioran, “Vom Nachteil, geboren zu sein”

    Nun aber wieder zu den Computern, um die es in diesem Blog ja geht. Ein Utilitarist könnte dafür sein, Computer zu bauen, wenn unsere Vorteile deren Leiden überwiegen. Andere werden meinen, wir dürfen dies nur tun, wenn deren eigene Freuden ihre eigenen Leiden überkompensieren. Dritte sind vielleicht der Meinung, egal wie sehr sie sich freuen, sie dürften auf jeden Fall uns Menschen nicht schaden. Das sind alles interessante Theorien, vielleicht sind einige rassistisch – schwierig, diese Theorien von einem neutralem Standpunkt aus zu bewerten (und nicht Gegenstand der Betrachtungen Searles)

    Vielleicht findet sich ja mal ein Computer, der ein aufschlussreiches Buch zum Thema schreibt, vielleicht Marvin (nicht Minsky, sondern der aus HHGTG), “Vom Nachteil, aktiviert zu sein”

  29. @ Balanus: Funktionalismus und Dualismus

    “Das heißt doch, dass das Material und die Herkunft egal sind, entscheidend ist die funktionale Struktur.”

    Searle argumentiert gegen den Funktionalismus. Das Material ist nicht egal, es ist mit entscheidend. Auch wenn unterschiedliche Materialien, also nicht nur biologische, in Frage kommen, um Geist zu produzieren, so ist die nötige “kausale Kraft” eng mit dem Material verbunden.

    Zitat von Searle:
    “Ist es möglich, dass eine Maschine denkt? – Ich selbst bin der Ansicht, dass nur und ausschließlich einer Maschine zu denken möglich ist und in der Tat nur SEHR SPEZIELLE Arten von Maschinen, nämlich nur Gehirnen und solchen Maschinen, die über dieselben kausalen Kräfte wie Gehirne verfügen.”
    (S. 263 Piratenversion; Hervorhebung durch mich)

    Für die KI ist das Material egal, zumindest das der Hardware. Der Geist wird von den Algorithmen erzeugt, die auf alle möglichen Architekturen implementiert werden können. Diese Algorithmen ließen sich im Prinzip auch mittels “einer Rolle Klopapier und einem Stapel kleiner Steinchen” (S. 258) ausführen.

    Menschen sind laut Searle aber keine Objekte auf denen Algorithmen ausgeführt werden, man kann sie nicht Programmieren. Sie sind anders als Computer. Weder Computer noch Toilettenpapier besitzen die nötigen Eigenschaften um Geist zu produzieren, sie werden auch nicht mittels der Algorithmen dazu in die Lage versetzt.

    Aus diesem Grund wirft Searle den KI-Forschern ja vor, sie würden eine bestimmte Form des Dualismus vertreten, man könne Geist und Körper trennen (in Form von Algorithmus und Computer). Er ist in dieser Hinsicht Monist, glaubt dass Geist und Gehirn sich eben nicht trennen lassen. Für Maschinen, die von uns konstruiert werden, um Geist zu erzeugen, muss dieser Zusammenhang schon bei der Materialauswahl berücksichtigt werden.

  30. @KRichard: Ausschluss

    In Metzingers Satz geht es um das Ausschließen der Schaffung künstlichen Bewusstseins. Dazu muss ich nicht zwingend wissen, was Bewusstsein ist.

    Wenn ich ausschließen möchte, natürliches Bewusstsein zu schaffen, brauche ich auch nicht zu wissen, was genau das ist, dazu reicht Empfängnisverhütung.

  31. @Joker /Funktionalismus

    »Searle argumentiert gegen den Funktionalismus. Das Material ist nicht egal, es ist mit entscheidend. Auch wenn unterschiedliche Materialien, also nicht nur biologische, in Frage kommen, um Geist zu produzieren, so ist die nötige “kausale Kraft” eng mit dem Material verbunden.«

    Wiki zum Funktionalismus: “So könnte ein Computer oder Roboter mentale Zustände haben, wenn er nur die gleichen funktionalen Zustände realisiert wie ein Lebewesen mit Bewusstsein.”

    Das würde ich auch so sehen, dass es bestimmte Anforderungen an das Material gibt, wenn wir eine denkfähige Maschine bauen wollen. Schließlich soll die Maschine ja aus sich heraus Geist “erzeugen” können. Und nicht nur ein Programm abarbeiten. Mir ist also nicht ganz klar, inwiefern Searle gegen den Funktionalismus argumentiert, wenn er doch sagt, im Prinzip könnten auch mit nichtorganischen Materialien die gleichen funktionalen Zustände wie im Gehirn realisiert werden.

    »Für die KI ist das Material egal, zumindest das der Hardware. Der Geist wird von den Algorithmen erzeugt, die auf alle möglichen Architekturen implementiert werden können. «

    Dann würde Searles “Rassismus” also nur darin bestehen, dass er bestreitet, dass Algorithmen Geist erzeugen können?

  32. @ Balanus: Licht und Schatten

    “Mir ist also nicht ganz klar, inwiefern Searle gegen den Funktionalismus argumentiert, wenn er doch sagt, im Prinzip könnten auch mit nichtorganischen Materialien die gleichen funktionalen Zustände wie im Gehirn realisiert werden.”

    Searle spricht bei Menschen von geistigen, mentalen und intentionalen Zuständen. Wenn von funktionalen Zuständen gesprochen wird, dann können nur bestimmte Aspekte dieser Zustände, die “formalen Schatten” (S. 256), gemeint sein. Soweit es nur um diese Aspekte geht, die man beobachten kann, z.B. über das Verhalten oder das Sprechen, so gesteht Searle schon Computern zu, diese realisieren zu können.

    Deswegen ist für ihn der Turing-Test nicht aussagefähig. Selbst wenn ein Computer sich scheinbar perfekt in Chinesisch ausdrücken könnte, so sagt das, im Vergleich mit einem Menschen der perfekt Chinesisch spricht, nichts über die Gleichheit der Zustände in allen Aspekten, z.B. zeigt das nicht, ob Computer über Intentionalität und Bedeutung verfügen. Es zeigt nur, dass Computer den Schatten nachzeichnen können, den geistige Wesen werfen.

    Wir können vielleicht einmal in Zukunft mit geeigneten Materialien Maschinen konstruieren, die Geist erzeugen und Chinesisch so verstehen wie wir, aber auch deren Zustände wären dann nicht vollständig formal beschreibbar.

    Für den Funktionalisten sind alle Funktionen, die das System ausführt, vorgegeben durch den Algorithmus. Das Material ermöglicht zwar erst dessen Ausführung, gibt aber nichts Wesentliches mehr hinzu. Deswegen könnte man eben auch Klopapier und Steine benutzen. Das komplette Systemverhalten lässt sich demzufolge durch den Algorithmus formal beschreiben. (Wenn das Verhalten davon abweichen würde, wäre das System kaputt.)

    Ein Computer kann also nicht die gleichen Zustände wie im Gehirn realisieren, weil zwar seine Zustände vollständig formal beschreibbar sind, die Zustände des Gehirns aber nicht!

    Das ist der Widerspruch zum Funktionalismus. Ich hoffe, dir ist ein Licht aufgegangen.

  33. @Joker /Funktionalismus 2

    »Das ist der Widerspruch zum Funktionalismus. Ich hoffe, dir ist ein Licht aufgegangen.«

    Ja, doch, danke, und Searle schreibt es ja auch selbst, dass für Funktionalisten nur das Programm zählt.

    Der Ausgangspunkt war aber ein anderer.

    Ich zitierte Searle (“Und tatsächlich mag es möglich sein, Bewußtsein, Intentionalität und all das übrige mit Hilfe anderer chemischer Grundstoffe zu erzeugen als diejenigen, aus denen menschliche Wesen gemacht sind.” (S. 256, Kopie der Uni Bern)) und meinte, es käme eben auf die funktionale Struktur an, wenn ein System Intentionalität besitzen soll, und nicht auf das Material.

    Woraufhin du eingewendet hast, Searle würde gegen Funktionalismus argumentieren. Was hat nun meine “funktionale Struktur” mit dem Funktionalismus zu tun?

  34. @ Balanus: Strukturalismus

    Was hat nun meine “funktionale Struktur” mit dem Funktionalismus zu tun?

    Keine Ahnung! Was hat deine “funktionale Struktur” mit dem Strukturalismus zu tun?

    Was ist Struktur? Gibt es neben einer “funktionalen” auch eine “nicht funktionale”, die nur ein Gerüst liefert, aber nichts zur Funktion eines Dings, wie des Gehirns, beiträgt? Oder meinst du mit “funktionaler Struktur” auch wieder nur den “Schatten” einer Struktur, den Anteil, den wir bestimmten Funktionen direkt zuordnen können? So wie bei einem Atom im Wesentlichen die äußere Schale, die dortige Anzahl von Elektronen, funktional für das chemische Verhalten des Ganzen ist.

    Searle sagt, dass aus Gleichem Gleiches folgt. Das könnte man auch so umformulieren, dass man das Folgende als eine Funktion des Bestehenden, des momentanen Zustands, auffassen könnte, und man käme auch hier wieder auf den Begriff der Funktion. Das macht Searle aber immer noch nicht zu einem Funktionalisten (und die Funktionalisten nicht zu Formalisten, nur weil sie meinen, Geist formal beschreiben zu können).

    Wichtig für Searle ist nur, dass wir nicht ohne Weiteres von der Syntax zur Semantik gelangen können. Und ich vermute, dass er das Fehlende nicht in der (funktionalen) Struktur verwendeter Materialien sucht, sondern in dieser ominösen “kausalen Kraft”, die ihnen innewohnt.

    PS. Ist dir aufgefallen, dass die Schweizer zwar keine (funktionale) Marine haben, aber anscheinend Piraten?

  35. @Joker / Struktur und Funktion

    »Keine Ahnung! Was hat deine “funktionale Struktur” mit dem Strukturalismus zu tun? «

    Mag sein, dass der Begriff nicht richtig trifft, aber es geht schon in die Richtung eines Strukturfunktionalismus oder eines Funktionalstrukturalismus, wie wir sie von der soziologischen Systemtheorie her kennen.

    Doch davon verstehe ich nicht viel. Aber im Falle der Denkmaschine Gehirn scheint es mir evident, dass hier Funktion und Struktur eine vermutlich untrennbare Einheit bilden (btw., nicht funktional sind m.E. die Strukturen des Gehirns im andauernden Zustand fehlender Energieversorgung). Und nach meinem Eindruck und Leseverständnis ist genau das Searles Kernaussage, dass eben mit andersartigen Strukturen nicht die gleichen Funktionen realisiert werden können.

    @P.S. Ja ja, die Schweizer, haben keine Marine, aber immerhin ein paar Piraten (wenn man die Banken mal außen vorlässt).

  36. Empirie

    Searle schrieb:

    “And indeed it might be possible to produce consciousness, intentionality, and all the rest of it using some other sorts of chemical principles than those that human beings use. It is, as I said, an empirical question.

    [Und tatsächlich mag es möglich sein, Bewußtsein, Intentionalität und all das übrige mit Hilfe anderer chemischer Grundstoffe zu erzeugen als denjenigen, aus denen die menschlichen Wesen gemacht sind. Das ist, wie gesagt, eine Frage der Empirie.]” (S. 256 )

    Was ich hier nicht verstehe, wie kann das eine empirische Frage sein?
    Wenn ich wissen möchte, ob ein Material supraleitend ist, dann erniedrige ich die Temperatur und schaue wann der elektrische Widerstand verschwindet. Aber wie kann ich feststellen ob das Material geeignet ist, um Verstehen zu ermöglichen?

    Es handelt sich aus meiner Sicht eher um eine normative Frage. Wir schreiben uns Geistfähigkeit gegenseitig zu, weil wir von uns selbst auf andere schließen. Wir haben Geist, das suggeriert uns die Erste-Person-Perspektive. Den Schluss auf andere Personen rechtfertigen wir über eine Ähnlichkeitsrelation. Wir Menschen sind uns in Material, Struktur und Verhalten sehr ähnlich. Wie problematisch das Ganze wird, sehen wir wenn z.B. Wachkomapatienten nicht mehr das gewohnte Verhalten zeigen. Das Material ist sicher noch das gleiche, die Struktur mag sich schon etwas von der “normalen” unterscheiden. Mir ist kein Verfahren bekannt, nicht einmal ein Vorschlag wie ein solches Verfahren aussehen könnte, um zuverlässig sagen zu können ob der Patient noch etwas versteht. Auch bei Searle kann ich keinen Hinweis entdecken wie so ein Verfahren aussehen könnte.

    Auch den Schweizern sprechen wir ihre Intentionalität und Bewusstsein nicht ab, obwohl sie sich manchmal sehr formal (förmlich) verhalten.
    (Oder auch mal sehr komisch. Danke @Chrys, netter Link, den kann und werde ich weiterverwenden)

    Wenn es nun also nur eine normative Frage ist, dann könnte die KI durchaus in der Lage sein akzeptable Kriterien für Verstehen und sogar für Bewusstseinsfähigkeit zu liefern. Der Turing-Test ist auch meiner Meinung nach nicht hinreichend, um Verstehen bei einem System zu diagnostizieren, aber er liefert zumindest in einer Hinsicht eine Ähnlichkeitsrelation, die relevant ist für die zu erstellende Norm.

    @ Balanus schrieb:
    “Aber im Falle der Denkmaschine Gehirn scheint es mir evident, dass hier Funktion und Struktur eine vermutlich untrennbare Einheit bilden.”

    Das sieht mir auch ganz danach aus. (Hat man nicht erst unlängst bemerkt, dass die vermeintlich nur für Gehirn-Struktur zuständigen Gliazellen auch einen signifikanten Einfluss auf die Gehirn-Funktion haben) Daraus kann man aber nicht schließen – wie Searle das macht – dass Funktion und Struktur immer eine untrennbare Einheit bilden müssen, um Verstehen zu ermöglichen.

  37. @Joker, @Chrys

    @Joker /Empirie

    »Aber wie kann ich feststellen ob das Material geeignet ist, um Verstehen zu ermöglichen?«

    Das würde man wohl erst dann feststellen können, wenn man aus dem Material ein Gehirn fabriziert, dessen Reaktionen beobachtbar sind.

    Angenommen, man könnte ein Gehirn scannen (etwa von einer Biene) und es in einem speziellen 3D-Drucker reproduzieren, mit Materialen, dass ähnliche elektrische Eigenschaften aufweist, wie biologisches Material. Und man könnte dieses Kunsthirn einer enthirnten Biene einpflanzen. Wenn sich das Insekt mit dem Kunsthirn dann halbwegs artgerecht verhält (die fehlende Lernfähigkeit dürfte ein Problem darstellen), dann ist das Material vermutlich geeignet, um “Bewußtsein, Intentionalität und all das übrige” (Searle) zu erzeugen.

    So verstehe ich Searles Aussage: ” It is, as I said, an empirical question.”

    (Wenn man das Ganze dann beim Menschen machen würde, könnte man ihn ja direkt fragen, wie er sich fühlt, was er so empfindet. Ein Turing-Test würde sich erübrigen, da es ja keine Software gibt, sondern nur die spezifische Verschaltung der Kunstnervenzellen).

    @Chrys /Denkfehler

    Dieser so genannte “Flugzeugträger” ist doch nur das ausgeklappte Teil eines Schweizer Taschenmessers.

  38. @ Balanus: Missverständnis

    “Angenommen, man könnte ein Gehirn scannen …”

    Was muss denn da gescannt werden? Neuronale Strukturen, Blutversorgung, Zellaufbau, Mikrotubuli, Hormone, Neurotransmitter, Kalziumkonzentration? Wann dürften wir von einem nachgebauten, duplizierten Gehirn sprechen und nicht nur von einem simulierten oder modellhaften Gehirn? Wer sagt denn, dass das von dir angegebene Kriterium, das der ähnlichen elektrischen Eigenschaften, ein entscheidendes ist?

    Auch deine modifizierte Biene kann nicht überzeugen. Nehmen wir an, so eine Kunsthirn-Verpflanzung würde sogar bei einem Menschen gelingen. Selbst vollständig (sic!) artgerechtes Verhalten gilt laut Searle nicht als hinreichend um Intentionalität nachzuweisen, laut ihm sind Zombies möglich.

    Das alles ist nur nebensächlich. Viel wichtiger, die Frage ist überhaupt nicht, ob wir ein Gehirn nachbauen können. Das mag auch eine interessante Frage sein, aber hier im Blog geht es um die allgemeinere Frage. Es geht darum, ob auch etwas anderes als ein Gehirn Verstehen und Intentionalität erzeugen kann und wie wir das empirisch überprüfen können.

  39. @Joker /Élan vital

    »Es geht darum, ob auch etwas anderes als ein Gehirn Verstehen und Intentionalität erzeugen kann und wie wir das empirisch überprüfen können.«

    Dennett meint in seiner Antwort auf Searle, dass die System-Replik ein Schritt in die richtige Richtung sei, weg von Searles aktualisierter Version eines élan vital.

    Ich muss gestehen, dass auch mir die Vorstellung schwer fällt, ein System aus nichtbiologischen Materialien, also aus Kupferdrähten, Widerständen, Halbleitern usw., könnte bei entsprechender Komplexität und Architektur zur Selbstreflexion fähig sein. Ich fürchte, ich habe dem Vitalismus doch noch nicht so ganz abgeschworen.

    Andererseits ist aber völlig klar, dass eine Nervenzelle ein rein physisches Gebilde ist. Könnte man diese aus irgendwelchen Materialien nachbauen und entsprechend verschalten, dann würde sich die Frage, ob dieses künstliche Ding “Verstehen und Intentionalität erzeugen kann”, vielleicht gar nicht mehr stellen.

    Wenn solch ein Ding, dass ohne jede Software funktioniert, nach dem ersten Einschalten fragen würde: “Wo bin ich?”, oder sagen würde: “Ich fühle meinen Körper nicht mehr”, oder den Wunsch äußern würde, zu beichten (falls die Vorlage für den Nachbau religiös war), wer würde da ernsthaft bestreiten wollen, dass das Ding ebenso Intentionen erzeugen kann wie ein Menschenhirn?

    »Selbst vollständig (sic!) artgerechtes Verhalten gilt laut Searle nicht als hinreichend um Intentionalität nachzuweisen, laut ihm sind Zombies möglich.«

    Wenn man diese Position vertritt, dass man auch bei einem Menschen nie sicher sein kann, ob er wirklich Intentionalität besitzt, dann erübrigt sich doch jeder Versuch einer Überprüfung beim Kunsthirn.

  40. @ Balanus: Spekulatives Ende

    Vielleicht wird Verstehen ja möglich – auch für Wesen aus Kupferdrähten, Widerständen und Halbleitern – wenn neuronale Netze und Expertensysteme auf geeignete Weise, hierarchisch zu einer Baumstruktur verbunden werden. Teilstrukturen könnten sprachliches Wissen repräsentieren, andere visuelles und dritte (oder höhere Ebenen) müssten die Fähigkeit zur Abstraktion mit einbringen. Wesentlich ist natürlich auch so etwas wie räumlich-zeitliche und kausale Anschauung.

    Als Test für Verstehen würde ich gelten lassen, Metaphern zu bilden, und, weil der Blog so heißt, Analogien. Analogien zu bilden, von sich aus, ohne diese einprogrammiert bekommen zu haben; neue Analogien, aus ganz unterschiedlichen Wissensdomänen, das wäre ein Kriterium.

    Bewusstsein könnte entstehen, wenn bestimmte Schleifen bei den neuronalen Netzen zugelassen werden. Wenn wir den Verdacht haben, dass solche Rückkopplungen tatsächlich das Entstehen von phänomenalen Bewusstseins ergeben, dann könnte man in der Hinforschung nach analogen Strukturen beim Menschen suchen. Auch wenn es lange noch nicht so weit ist (weder in der KI, noch in der Hirnforschung), und überhaupt sehr spekulativ, die KI könnte in der Zukunft durchaus auch hierfür Kriterien liefern.

    Empirisch überprüfbar ist allerdings nicht, ob die Systeme über Bewusstsein verfügen, es wird nur empirisch überprüfbar sein, ob wir solchen Systemen Bewusstsein zusprechen.

    “Ich fürchte, ich habe dem Vitalismus doch noch nicht so ganz abgeschworen.”

    Das überrascht mich – und es wird Stephan Schleim sicherlich ebenso überraschen. Das musst du ihm unbedingt beichten.

  41. KI-Vitalismus

    Vielleicht sollte ich noch eine kurze Erklärung hinzufügen.

    Meine Vorstellung ist, dass wirklich intelligente Systeme (mit Verstehen, Intentionen, Selbstreflexion, subjektiven Eindrücken etc.) nur dann entstehen können, wenn sie in einem Wachstumsprozess begleitet von einem permanenten sensorischen Input heranreifen.

    Einen solchen Wachstumsprozess kennen wir derzeit nur von biologischen, sich selbst organisierenden Systemen. Deshalb vermute ich, dass Lebensprozesse (vitalistische Prozesse) für die Ausbildung einer echten, kreativen Intelligenz unabdingbar sind.

    Ja, Joker, Zustimmung, die Fähigkeit zur kreativen Analogiebildung dürfte ein gutes Kriterium für die KI sein.

    Danke, Tarek Richard Besold, für den anregenden Blog-Beitrag.

  42. Kann man tiefes Verständnis von simuliertem Verständnis unterscheiden
    Searl behauptet, einem Programm, das so arbeitet, wie er es im “chinesischen Zimmer” darlegt, fehle das tiefere Verständnis für ein Problem.
    Der Arxiv-Artikel A MISANTHROPIC REINTERPRETATION OF THE CHINESE ROOM
    PROBLEM
    macht hier einen interessaten Einwand: Auch Menschen geben oft vor, etwas zu verstehen, wobei sich bei genaurem Hinschauen entpuppt, dass sie ähnlich wie der Computer im chinesischen Zimmer, ein Verständnis nur vortäuschen. In einem gewissen Sinn ist vorgetäuschtes Verständnis sogar der Normalfall. Der Arxiv geht dann folgender Frage nach:

    This of course raises the question of whether it is possible to distinguish between understanding, and the imitation of understanding

    Dazu wird das Gedankenexperiment angestellt, bei dem ein allgemeines Publikum einen Experten auf einem bestimmten Gebiet von einem “angelesenen” Experten (einem Plagiator) unterscheiden muss. Der Artikel kommt zum Schluss, dass es keine sichere Unterscheidung geben wird.

    Dieser Gedanke ist vielleicht vielen vertraut in folgender Form: Wir sind intelligent, aber die Menschen, die nachkommen, die heutigen Schüler und Jungen sind lauter Deppen. Wie beweist man, dass die heutigen Menschen genauso intelligent sind.

Schreibe einen Kommentar