Das unverstandene Gehirn – Teil 3

In ersten Teil dieser Serie habe ich das Blue Brain Projekt kritisch beleuchtet und die These aufgestellt, dass es scheitern wird, weil die Grundlagen nicht stimmen. Im zweiten Teil habe ich diskutiert, wie ein intelligentes Computerprogramm aussehen könnte und warum ich es für unvermeidlich halte. In diesem Teil wird es um die Folgen der Erschaffung einer echten künstlichen Intelligenz gehen.

Nehmen wir an, es gelingt tatsächlich, beispielsweise im Rahmen des FACETS-Projekts, einen Computer aufzubauen, der den Turing-Test besteht. Ganz grob gesagt, kommuniziert ein Mensch dabei mit einem Computer oder einem Menschen. Nach einer fest gesetzten Zeit soll der Mensch angeben, ob sein Gesprächspartner ein Mensch oder eine Maschine ist. Kann er das nicht, hat der Computer den Test bestanden. Bisher ist zeichnet sich noch keine Maschine und kein Programm ab, dass diesem Kriterium auch nur nahe kommt.
Aber in absehbarer Zeit, vielleicht schon in zwanzig Jahren, wird es soweit sein. Und spätestens dann werden wir eine Reihe von bisher unbekannten Problemen haben. Einige Beispiele:
Eine intelligente Maschine ist notwendigerweise eine lernende Maschine. Sie müsste also wenigsten das Lernen durch Konditionierung und das Lernen am Erfolg beherrschen. Das Lernen am Erfolg setzt aber voraus, dass die Maschine so etwas wie Gefühle kennt. Sie müsste bestimmte Reize vermeiden und andere suchen, also Unbehagen oder Schmerz und Behagen oder Freude fühlen können. Sie müsste auf bestimmte Dinge hinarbeiten und andererseits die Vermeidung von anderen planen können. Sie müsste einen gewissen Selbsterhaltungstrieb haben, damit sie sich nicht unnötig in Gefahr bringt. Damit würde sie auch Angst kennen.
Eine intelligente Maschine wäre also auch eine fühlende Maschine, letztlich also ein denkendes und fühlendes Wesen. Oder wäre sie nur eine Simulation davon, eine seelenlose Nachahmung?
Müssten wir einem solchen Wesen nicht Rechte einräumen? Dürften wir ohne seine Zustimmung mit ihm experimentieren? Darf man es abschalten und sezieren? Dürfte man ihm Schmerzreize versetzen? Wie könnte man weiter daran forschen, wenn es jede Zusammenarbeit grundsätzlich verweigert?
Wenn man Menschenrechte aber grundsätzlich auf intelligenten und fühlenden Wesen anwendet, müsste man nicht auch Schimpansen, Gorilla, Papageien und Raben einschließen? Sie alle sind zu beträchtlichen Intelligenzleistungen fähig.
Müssten wir damit rechnen, dass die intelligenten Maschinen eine Art Mystik entwickeln, dass sie vielleicht den Menschen als Werkzeug eines allmächtigen Gottes betrachten, der von jeher vorhatte, intelligente Computer zu erschaffen? Fragen des Zusammenlebens von Menschen und intelligenten Maschinen sind immer wieder in Science Fiction behandelt worden, zum Beispiel in den klassischen Roboterstories von Isaac Asimov, oder in dem berühmten Film Blade Runner des Regisseurs Ridley Scott nach der Romanvorlage Träumen Androiden von elektrischen Schafen von Philip K. Dick. In der aktuellen Fernsehserie Battlestar Galactica kämpfen die Menschen gegen intelligente Maschinen, die Zylonen, die sie selbst als Arbeitssklaven erschufen, die aber erfolgreich dagegen rebellierten. In einem Überraschungsangriff löschen sie die Menschen fast vollständig aus und verfolgen die wenigen Überlebenden in den Weltraum. Die Zylonen werden teilweise als religiöse Fundamentalisten gezeichnet, welche die Auslöschung oder Unterwerfung der Menschheit als göttliche Pflicht ansehen.
Was geschieht, wenn das Backup eines solchen Computerprogramms in die Hände von Staaten gerät, die keinerlei Gedanken an Menschenrechte verschwenden, sondern nur hoch intelligente Helfer beim Aufbau ihrer Rüstung brauchen? Wenn es erst einmal denkende Maschinen gibt, werden gerade solche Staaten alles daran setzen, sie in die Finger zu bekommen.
Intelligente Maschinen würde die Möglichkeiten und die Gefahren für die Menschheit vervielfachen. Aber gilt das nicht für jede große Erfindung? Das Auto und das Flugzeug haben uns in einer vorher unvorstellbaren Weise die Welt geöffnet, aber der Energiebedarf sorgt für die Freisetzung gefährlicher Mengen Kohlendioxid. Was meinen Sie, gibt es Erfindungen, die man besser nicht macht, oder sind technologische Durchbrüche unvermeidlich, sobald sie in Reichweite geraten? In diesem Fall sollten uns möglichst gut darauf vorbereiten, uns schon bald mit intelligenten Maschinen auseinandersetzen zu müssen.

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

Kommentare Schreibe einen Kommentar

  1. Schutz vorhanden

    Für neuartige Maschinen/Erfindungen gibt es bereits einen Schutz: das Patentrecht.

    Ein intelligentes Computerprogramm müsste auch Kreativ sein. Kreativität ist aber u.a. ein Ergebnis von Fehlern; dabei wird durch falsche Zuordnung etwas Neues geschaffen.
    Ein felerhaftes Computerprogramm wäre aber nicht intelligent.

  2. Was gibt Anlass zu vermuten, dass das Gehirn in 20 Jahren deutlich besser verstanden ist als heute? Ich spekuliere mal, dass die Intelligenz nicht automatisch mit mehr Quantität, also mit Geschwindigkeit oder Anzahle der Verknüpfungen in der Maschine kommt.

  3. @ KRichard

    So einfach ist das leider nicht. Ein lernendes neuronales Netz arbeitet nicht wie ein algorithmisches (schrittweise abzuarbeitendes) Computerprogramm. Vielmehr lernt es durch Wiederholungen, ähnlich wie biologische Nervensysteme. Es stellt Assoziationen her und könnte auf diesem Wege kreativ sein, einfach indem es neuartige Assoziationen findet, auf die noch niemand gekommen ist.
    Das Patentrecht war schon immer eine stumpfe Waffe. Um ein Patent einzureichen, muss man die zugrunde liegenden Methoden aufdecken, was wiederum alle Konkurrenten dazu bewegt, ähnliche Entwicklungen knapp außerhalb des geschützten Bereichs zu beginnen. Software allein ist in Europa nicht schutzfähig.

  4. @ adenosine

    Es geht nicht um menschliche Intelligenz. Wie ich im zweiten Teil ausgeführt habe, wird die maschinelle Intelligenz kaum menschlich sein. Es geht darum, dass es dann Maschinen gibt, die etwa auf dem Niveau eines Menschen abstrakte Probleme lösen können und Einsicht zeigen. Das sollte in zwanzig Jahren möglich sein.

  5. Das Erfinden

    Das Erfinden besteht aus Kreativität und Kritikfähigkeit.

    Die Evolution besteht aus Mutation und Selektion.

    Die Maschine muss zuerst wilde Kombinationen herstellen, und dann die unbrauchbaren Kombinationen aussortieren.

  6. @Thomas Grüter: Auswahl

    Herr Bednarik hat es angesprochen: ein intelligentes System muss in der Lage sein, aus Neuschöpfungen die unbrauchbaren Kombinationen auszusortieren.

    Ein Mensch macht dies in Wechselwirkung mit seiner Umwelt. Dabei gibt es Menschen, welche kreative neue Kombinationen (Gedanken, Erkenntnisse) zulassen und weiterverfolgen – und es gibt Menschen, die nicht bereit sind, Neues zu akzeptieren. (Weil man sich eventuell blamieren könnte. Neue Gedanken sind für diese Leute nur dann akzeptabel, wenn mindestens zwei belegbare Literaturquellen dafür existieren – um es einmal überspitzt zu formulieren.)

  7. mixed reality

    Ein anderer Grund, der gegen die Möglichkeit menschenähnlich intelligenter Computersimulationen spricht, ist unser ´bewusstes Erleben´.

    Das bewusste Erleben von Menschen ist eine ´mixed reality´, welche situationsabhängig in unterschiedlichen Prozentanteilen aus aktuellen Sinneseindrücken und Erinnerungen besteht; welche überdies noch mit einem aktuellen Selbstbild korrigiert/verifiziert werden.

  8. @Bednarik

    Hallo,
    Sie schreiben:

    Warum ist das Einfache schwieriger als das Schwierige?

    Es ist wohl offensichtlich schwer an einfache Dinge zu glauben, denn die weiß man ja und man braucht viele davon, es könnte in Einzelfällen sogar dazu führen, dass man sein Leben ändern muss.

    Da bleiben wir dann oft lieber beim Glauben, denn der ist bar von desillusionierender Gewissheit.

    Der alte Herr und sein Sohn, sind ja eher in den Ruhestand geschickt worden oder werden zumindest durch kalvinistische Logikerweiterung aufgehübscht.

    Selig sind die geistig armen, da setze ich mich gern mit an den Hut. 🙂

    Gruß Uwe Kauffmann

  9. Ton ohne Hohn

    Hallo,
    Sie schreiben:

    Es geht nicht um menschliche Intelligenz. Wie ich im zweiten Teil ausgeführt habe, wird die maschinelle Intelligenz kaum menschlich sein. Es geht darum, dass es dann Maschinen gibt, die etwa auf dem Niveau eines Menschen abstrakte Probleme lösen können und Einsicht zeigen. Das sollte in zwanzig Jahren möglich sein.

    Das ist doch mal eine Anwendung, ein Videorecorder der seiner Besitzer versteht, wenn wir das schaffen, dass wär doch mal was, oder?

    Seien wir doch mal ehrlich, echte Entwicklung gibt es immer nur wenn ein Produkt dabei herauskommt.

    Und da in 20 Jahren die ersten Öllampen ausgehen, wird es Neuroputing wohl lange Zeit nur zum Einsatz in neuronalen Steuerungen, also in der Robotik, Informationsverarbeitung und in Steuerungen von Netzen die mit Intelligenz einfach besser funktionieren
    (Strom,Verkehr….), zum Einsatz kommen.

    Das in diesem Kontext natürlich Blue-Brain erst recht ein Schlag in Wasser ist, Hmmpf (Schulter zuck).

    Gruß Uwe Kauffmann

  10. … Hallo … wer (was) ist da?

    Der Turing-Test ist insofern zweifelhaft, da er vom Interviewer abhängig ist, also sicher auch zum „Intelligenztest“ für selbigen werden kann (amüsant oder?)! Ich würde mich diesbezüglich eher „fürchten“, wenn uns eine Maschine beim Test unbedingt davon überzeugen möchte, dass sie, trotz aller Intelligenz immer noch eine Maschine ist – und ihr das auch noch abgenommen wird. Insgesamt erinnert mich so ein Testscenario ein wenig an Blade Runner …
    Wie soll die Menschheit mit intelligenten Maschinen, Robotern oder Drohnen umgehen … vielleicht finden wir eine Lösungsansatz, wenn wir der Frage nachgehen: wie verhalten wir uns, sollte ET eines Tages doch noch eine Kommunikation mit uns beginnen. Wie wollen wir herausfinden, ob an der anderen Seite der Strippe eine Maschine oder ein Wesen zu uns spricht? Andererseits, ist diese Frage überhaupt von entscheidender Bedeutung?
    Ein weiteres Detail stört mich. Warum muss eine intelligente Maschine als solche existieren. Es reicht doch das „Program“ selbst aus, bzw. es würde doch ein intelligentes „Netzwerk“ ausreichen. Wie wäre es mit der fernen Zukunft des Internets? Natürlich wäre dann die Bezeichnung „Internet“ völlig daneben, logisch. Doch, so scheint mir, sind die Anfänge ernsthaft vollzogen. Wir haben Viren. Alles was sie inzwischen „tun“, ist mit echten Viren vergleichbar! Die nächste reale Stufe wird sein, dass sie sich in bestehende Codes völlig integrieren können um so die ursprüngliche Funktion (oder Teile davon) entsprechend ihrer „Aufgabe“ umzugestalten. D. h. eine bestehende Software könnte „mutieren“ … auf welche Weise auch immer. Sicher wird es unzählige Fehlschläge geben, die meisten mutierten Programme werden „sterben“. Doch ein einziger gelungener Versuch wird ausreichen, eine Lawine in Gang zu setzten. Ich bin überzeugt, in diversen Kämmerlein wird hart daran gearbeitet.
    Was auch geschehen mag oder könnte, der Mensch sollte im Umgang mit intelligenten Systemen jeden Vergleich (vor allem im humanen, also menschlichen Bereich) mit sich selbst als „Vorbild“ meiden. Das führt immer wieder in die Irre oder zu allzu „vermenschlichten“ Spekulationen. Siehe oben, Turing Test.

    mfG

  11. @ KRichard

    In der englischen Wikipedia gibt es einen guten Artikel über Kreativität von Computern mit zahlreichen Verweisen auf Originalarbeiten. Eigentlich geht es in dieser Folge des Beitrags auch eher um die Frage, wie man mit intelligenten Computern umgeht, wenn es sie tatsächlich geben sollte – einfach mal als Gedankenspiel.

  12. @ Siegbert Müller

    Der Turingtest ist natürlich nur eine Faustregel, kein sicheres Unterscheidungsmerkmal. Stellen wir uns einfach vor, dass es bei zunehmender Intelligenz der Maschinen in der nahen Zukunft Wettbewerbe darin geben könnte, wer die besten Ergebnisse bei der sicheren Unterscheidung erzielt, bis schließlich irgendwann die Maschinen Teile ihrer Intelligenz abstellen müssen, damit überhaupt noch eine Aussage möglich ist. In diesem Zusammenhang darf ich darauf verweisen, dass seit mehr als 10 Jahren kein Schachweltmeister mehr die besten Schachprogramme geschlagen hat.
    Ein Alien könnte sogar noch fremder sein als ein intelligenter Computer. Wenn Menschen einen Computer bauen, richten sie ihn auf eine irdische, von Menschen bewohnte Umgebung aus, in der er auch trainiert wird. Eine außerirdische Umgebung könnte so fremd sein, dass eine Verständigung mit Aliens schon am Fehlen gemeinsamer Begriffe scheitert.

  13. pieck mich ich bin eine Amöbe

    Hallo,
    ist jemandem schon einmal der Gedanke untergekommen, dass sich eine solche Maschine darum kümmern könnte, was in der Psyche eines Menschen vorgeht?
    Wir sind auch nur lernprogramiert, ein Paar dezent gestreute Informationen und Herrchen
    geht dahin wo die Jacken hinten zugemacht werden.
    Und Schach ist schiere Rechenarbeit, zumindest für Computer, es ist also nur eine Frage der Zeit, wann Menschen nicht mehr gegen Maschinen gewinnen können.

    Herr Grüter schreibt:
    Eine außerirdische Umgebung könnte so fremd sein, dass eine Verständigung mit Aliens schon am Fehlen gemeinsamer Begriffe scheitert.

    Das halte ich für übertrieben. Leben geht immer mit dem Verbrauch von Energie einher, mit Selbstreproduktion überall im All gibt es die selben Elemente und überall gelten die selben physikalischen Gesetze.

    Ich gehe mal davon aus das es wenn es Wessen die wie von Herr Grüter beschrieben, die in einer nicht komunizierbaren Umgebung existieren, überhaupt kein Kontakt zustande kommen würde.

    Gruß Uwe Kauffmann

    (*Realität aufbohren, verdammt jetzt ist das Loch zu groß.*)

  14. @ T. Grüter … Maschinenverständnis

    Schachcomputer sind so eine Sache, man(n oder auch Frau) kann viel Spaß damit haben. Einerseits finde ich einen „Wettbewerb“ zwischen Mensch und Maschine (siehe z. B. Schach) einen „Vergleich“ mit ungleichen Möglichkeiten. Andererseits zeigt die Praxis, das der Mensch vom Umgang mit (mehr oder weniger) intelligenter Software, eigenartiger Weise „Lernsoftware“ genannt, profitieren kann (Ganz zu schweigen von der Ausbildung durch Simulatoren aller Art). Darüber hinaus ist der Umgang mit solcher Lernsoftware (oder Simulatoren) dann am effektivsten, wenn es spielerisch abläuft. Ich möchte hierkeine Diskussion über Computerspiele usw. anfangen, doch sehe ich hier den größten „Entwicklungsschub“ hinsichtlich intelligenter Maschinen. Wie gesagt, auch intelligente Maschinen müssen zwangsläufig Lernen und Erfahrungen sammeln. Und das, davon bin ich überzeugt, gelingt am Besten im „spielerischen“ Umgang zwischen Mensch und Maschine.
    Lernen bedeutet jedoch, über das reine Daten sammeln (speichern) hinaus vor allem, dass gelernte in die Tat umzusetzen um herauszufinden, was es „bedeutet“, ob es nützlich, gefährlich usw. ist. Erst so kann es bewertet, miteinander verknüpft und eventuell (in ferner Zukunft) auch „Emotionen“ zugeordnet werden. Das setzt aber voraus, das Maschinen eigenständig Entscheidungen treffen und vor allem handeln (können) müssen! Maschinen müssen also befähigt werden, mit ihrer Umwelt „eigenverantwortlich“ zu interagieren …
    Hinzu kommt … so wie bei uns Menschen in den untersten Schichten des Gehirns „Überlebensprogramme“ (Nahrungsaufnahme, lebenswichtige Körperfunktionen, Sexualität, körperliche Unversehrtheit usw.) alle anderen Aktivitäten und Entscheidungen quasi überstimmen oder gar außer Kraft setzen können (müssen!), muss auch eine intelligente Maschine autark ihr Überleben sicherstellen können. Vor dem Hintergrund, dass diese Maschine zwangsläufig auch solche Erfahrungen macht, dass sie unter Umständen in „Gefahr“ geraten kann (und Gefahren bewerten kann), wird es äußerst Problematisch davon auszugehen, eine solche Maschine dazu zu bringen, ihre Funktion teilweise einzuschränken oder sie gar wohl möglich abzuschalten. Wir müssen uns also darauf einstellen, dass eine solche Maschine (wie wir Mensch) auch lernen wird, sich so zu verhalten, dass ihr keine Gefahr für „Leib und Leben“ droht … HAL lässt grüßen …
    Ungeachtet dessen halte ich die Risiken, die sich daraus für ein Miteinander mit solchen Maschinen ergeben für geringer oder kalkulierbarer, als die, die wir seit Anbeginn der Menschheitsgeschichte im Umgang mit Menschen gewohnt sind. Was jedoch niemanden davon abhalten sollte, sich auf „Verhandlungen“ (im Sinne von Auseinandersetzen) mit Maschinen vorzubereiten, woraus sich konsequenter und quasi gezwungenermaßen Weise auch ganz von selbst entsprechende Verhaltensnormen (ggf. eine entsprechende „Ethik“) ableiten.

    Ich bin jedenfalls überzeugt, die “Konkurenz” intelligenter Maschinen nutz auch unserer Entwicklung (persönlich, wie auch insgesamt). Ein Versuch ist es jedenfalls Wert.

    mfG

  15. Bei Simulatoren oder Lernsoftware wird der Mensch mit programmiertem menschlichem Wissen konfrontiert. Das Spannende an der künstlichen Intelligenz ist doch aber, dass die Maschine die Menschheit mit neuen, selbsterlangtem Wissen versorgt.

Schreibe einen Kommentar