Ändert sich künstliche Intelligenz sprunghaft, wird Bewusstsein digitalisierbar

BLOG: Graue Substanz

Migräne aus der technischen Forschungsperspektive von Gehirnstimulatoren zu mobilen Gesundheitsdiensten.
Graue Substanz

Kann man menschliches Bewusstsein in einen künstlichen Körper verpflanzen?

Bewusstsein digitalisieren, das ist das Thema drüben im Boris Hänßlers Roberotorgesetze. Einige kurze Gedanken meinerseits, die schon seit Januar unfertig herumlagen.

Freiheit, Gleichheit, Brüderlichkeit, Transhumanismus. Oder: Liberté, Égalité, Fraternité, Singularité. Die Fortsetzung revolutionärer Gedanken: Erst Adel zu Bürgern, 8bit Jahre später Menschen zu Maschinen. Oder will man umgekehrt Maschinen zu Menschen machen? Egal wie herum, denn so wird es nicht kommen. Zumindest nicht so schnell.

Intelligenz ändert sich sprunghaft: eine Singularität.

Beim Übergang von Wasser zu Eis tritt Kristallisationswärme auf. Es kommt zu einer sogenannten Singularität womit gemeint ist, dass gewisse Dinge sich sprunghaft ändern, zum Beispiel die Wärmekapazität. Es bot sich wohl an, diese Begriffe auch für eine Unterströmung des Transhumanismus  zu verwenden, dem Singularitarianismus, besser noch als Technologische Singularität bekannt. Bei dieser soll sich die Intelligenz sprunghaft ändern.  

Warum 8bit Jahre?

2045 wird dies soweit sein, Mensch und Maschine verschmelzen. Dem zugrunde liegen Skalengesetze die ein exponentielles Wachstum nahe legen, wie das bekannte Mooresche Gesetz. Nun fiel mir neulich auf, dass 2045 genau 8bit Jahre, also 256 Jahre, nach der französischen Revolution liegt. Zufall? Ich glaube eher Ray Kurzweil (Bild links), der diesen Zeitpunkt extrapoliert hat, hat wohl bewusst nicht 2050 gewählt, um hier versteckt einen Hinweis auf die historische Verwandtschaft seiner Technischen Revolution zu legen. Würde zumindest passen.

Ideen waren damals Triebfeder: Liberté, Égalité, Fraternité. Ideen sind auch bei der nun prophezeiten Singularität zentral – und deswegen wird die Technische Singularität ausbleiben. Nur wenn sich wirklich künstliche Intelligenz sprunghaft ändert, ja divergiert, würde Bewusstsein eventuell wirklich digitalisierbar.

In einem TED Beitrag, den ich mir damals im Januar anschaute, kommt Ray Kurzweil auch auf diesen Punkt explizit zu sprechen:

If we come back to our exponential growth of computing,1,000 dollars of computing is now somewhere between an insect and a mouse brain.It will intersect human intelligence in terms of capacity in the 2020s, but that’ll be the hardware side of the equation. Where will we get the software?
[Wenn wir zurück zu unserem exponentielle Wachstum der Rechenleistung kommen, ist 1.000 Dollar Computing jetzt irgendwo zwischen einem Insekt und einem Gehirn der Maus. Es wird die menschliche Intelligenz in Bezug auf Kapazität in den 2020er Jahren schneiden, aber das wird der Hardware-Seite der Gleichung. Woher bekommen wir die Software? (Übersetzung M.A.D.)]

 

Das Problem der Softwareentwicklung wird sich aber nicht so mir nix dir nix dem Mooresche Gesetz unterwerfen. Es ist schlicht kein Ingenieursproblem, zumindest nicht in seinen zentralen Teilen. Im Beitrag “App ins Hirn” habe ich das schon angesprochen und darauf hingewiesen, dass nämlich 2045 bei der App für’s Gehirn auf die Software bitte zu achten ist. In der Tat glaube ich an enorme Fortschritte auf der Software-Seite. Der Ironiemodus war hier also gar nicht an. Das ist genau mein Forschungsansatz im Bereich der Migräneforschung: bessere Software für Geräte jeder Art, die mit Gehirnaktivität interagieren können, z.B. der Migräne-Zapper.

Aber an ein digitales Bewusstsein glaube ich deswegen nicht. Zumindest noch nicht. Nicht 2045. Und zwar nicht aus grundsätzlichen Erwägungen. Sondern schlicht weil für Ideen das Mooresche Gesetz nicht gilt. Es gilt nicht für den kreativen Akt der Entwicklungen, die erst zu meistern wären.

Wenn wir es denn wollten.

 


 © 2012, Markus A. Dahlem

Avatar-Foto

Markus Dahlem forscht seit über 20 Jahren über Migräne, hat Gastpositionen an der HU Berlin und am Massachusetts General Hospital. Außerdem ist er Geschäftsführer und Mitgründer des Berliner eHealth-Startup Newsenselab, das die Migräne- und Kopfschmerz-App M-sense entwickelt.

12 Kommentare

  1. Wenn wir es denn wollten.

    Leider genügt es, wenn das Militär auf diese Karte setzt. Sie gehen auf breiter Front vor, von besseren Mensch-Maschine-Schnittstellen bis zu autonomen Kampfrobotern, von konkreten Einzelprojekten bis zur Grundlagenforschung. Ein Libellen”hirn” könnte eine Kampfmaschine steuern, viel schneller als ein Mensch das könnte, ein Spatzenhirn reicht für das Oberkommando. Wir werden jetzt schon nicht gefragt, das nichtmenschliche Denken hat bereits die Oberherrschaft an sich gerissen.

  2. Spatzenhirn

    … ein Spatzenhirn reicht für das Oberkommando. Wir werden jetzt schon nicht gefragt, das nichtmenschliche Denken hat bereits die Oberherrschaft an sich gerissen.

    Wir können auch ungefragt agieren.

    Ich glaube auch, dass die militärische Forschung auf diesem Gebiet sehr ernst zu nehmen ist. Hier geht es nicht um digitales Bewusstsein. Es ist profan: nichtmenschliches Denken trifft es wohl sehr gut.

    Hier passt nun ganz gut der Kommentar zum vorherigen Beitrag von Jörg Schütze (Du liest hier mit, oder?)

    Und welche Rolle wollen die Neurowissenschaftler dabei spielen? Gibt es irgendeine Art ethischen Konsens’ (Neuroscientific oath), oder tut jeder (für seine Karriere), was er eben kann?

    Welche Rolle spielten wir, welchen Unterschied macht es, wenn zivile Neurowissenschaftler sich aus einem Bereich komplett heraushalten würden?

  3. @Ray Kurzweil und seine Singularität

    RAy Kurzweil hat bei dem Ausdruck Singularität eigentlich weniger einen Phasensprung im Auge. Er argumentiert, dass wichtige Erfindungen in immer kürzeren Abständen gemacht werden und die Erfindungsrate exponetiell ansteigt. Deshalb werden irgendwann alle überhaupt möglichen Erfindungen nahezu gleichzeitig gemacht werden. Dieser Zeitpunkt ist sozusagen das schwarze Loch der Zukunft, denn darüber hinaus ist keine Vorhersage mehr möglich. Eng verwandt damit ist die Singularität der künstlichen Intelligenz. Ihre Befürworter argumentieren so: Irgendwann, voraussichtlich zwischen 2030 und 2040, werden Computer intelligenter sein als Menschen. Sie können dann wiederum intelligentere Computer entwerfen, so auf der Erde in ganz kurzer Zeit Intelligenzen erscheinen, die uns weit überlegen sind. Ab diesem Zeitpunkt (der Singularität) ist die weitere Entwicklung nicht mehr vorhersagbar und läge auch nicht mehr in den Händen der Menschen.

  4. Singularität

    Das ist aber doch, was bei einem Phasenübergang im wesentlichen geschieht. Irgend was divergiert (oder, da ja letztlich die Systeme nicht wirklich unendlich groß sind, wird nur sehr sehr groß).

    Ich weiß natürlich nicht, ob Ray Kurzweil Statistische Physik kennt, aber ich denke schon, dass er im Rahmen dieses Theoriegebäudes seine Ideen denkt oder dieses zumindest sie (sprachlich) geprägt haben.

  5. Evolution braucht Revolution

    Das Narrativ vom stetigen Pfad zur technologischen Singularität, einem Umbruch, der uns punktgenau im Jahre 2045 erwartet, enthält in sich einen Widerspruch, indem es einerseits den Weg dorthin als vorausschaubare inkrementelle Verbesserungen skalierbarer, dem Moor’schem Gesetz folgenden Technologien darstellt und anderenseits die technologische Singularität selbst als Bruch mit der Vergangenheit und Beginn von etwas völlig neuem darstellt, wo die zu diesem Zeitpunkt geschaffene transhumane Super-Intelligenz uns auf völlig neue Wege führt, in völlig neue Gefilde, von denen wir heute noch gar keine Vorstellung haben können.
    Es müsste zwar keinen Widerspruch darstellen, dass kontinuierliche Prozesse zu einem Diskontinuum – der technologischen Singularität – führen, das geschieht ja auch bei einem Phasen- und Aggregationswechsel. Der Widerspruch ist aber vorhanden, weil nämlich die Annahme falsch ist, die uns umgebenden Technologien, die es braucht um zur technologischen Singularität zu kommen, folgten alle dem Moore’schen Gesetz. Doch die meisten mir bekannten Technologien, die sich exponentiell verbesseren sind sehr eng affiliert mit den Herstellungsmethoden der Mikro-und Nanotechnologie für integrierte Schaltkreise. Dazu gehört das DNA-Sequencing, das 3D-Printing (aka additive manufacturing) und die Entwicklung von immer effizienteren und kostengünstigeren Solarzellen.

    Doch gerade der andere wichtige Rohstoff der Digitalisierung, die Software kennt bis jetzt keine solche exponentielle Verbesserungskurve.

    Mir scheint, das Phänomen, dass einige Technologien einen generischen Charakter haben und sich über Parameter-Tuning hochskalieren lassen, während andere Technologien das nicht haben, ist überall anzutreffen, sogar in der biologischen Evolution. Auch dort gibt es kontinuierliche Entwicklungen und nicht vorhersehbare, nur selten stattfindende Evolutionssprünge. Die Vergrösserung des Säugetierhirns, die im Menschenhirn kulminierte folgt scheinbar einem kontinuierlichen Skalierungsprozess. Was den Menschen sonst aber am stärksten von einem Schimpansen unterscheidet, nämlich seine Fähigkeit und seine Wille zur Kooperation und Kommunikation lässt sich kaum mit einer blossen Skalierung und inkrementellen Verbesserung erklären, sondern ist das Resultat einer Neuschöpfung (wozu sicher die Gengruppe FoxP2 gehört), die wohl unvorhersebar war.

    Es darf deshalb bezweifelt werden, dass sich allein durch inkrementelle Verbesserungen und Skalierung heutiger Technologien ein Durchbrauch a la technologischer Singularität einstellt.

    Das von Ray Kurzweil immer wieder bemühte Moore’sche Gesetz suggeriert uns eine glatte und kontinuierliche Weiterentwicklung, die schliesslich in einer Zeitenwende kulminiert. Doch nicht überall gilt das Moore’sche Gesetz. Etwas kann man aber aus dem Narrativ Kurzweil’s lernen: Nicht jede Technologie ist gleich wertvoll und bestimmend für die Zukunft. Am mächtigsten sind Technologien, die ein Entwicklungspotential haben, sind Technologien, die Prinzipien in sich vereinen, welche bereits den Weg zu immer weiteren Verbesserungen offenhalten.

    Auch Softwareentwicklung könnte in der Zukunft skalierbar werden. Es gab schon mehrere Ansätze dazu wie das modulare Programmieren, das Programmieren mit Komponenten, die Identifikation von Patterns usw. Doch der grosse Durchbruch,t der fehlt bis anhin. Was aber nicht heiss, dass es grundlegende Fortschritte in diesem Bereich nicht geben kann. Der Fortschritt der Ideen, die es braucht, um die Dinge ins Rollen zu bringen, unterliegt eben genau keinem Moore’schen Gesetz.

  6. Akkumulation bringt Revolution

    Vorweg: Ich behaupte nicht, dass wir im Jahre 2045 das digitale Bewusstsein erreichen. Dennoch scheint mir (auch wenn ich sonst mit ihm übereinstimme) Martin Holzherrs Zweifel im Hinblick auf heutige Technologien zumindest anzweifelbar. Ja ich glaube sogar, dass mit unseren Technologien prinzipiell ein Durchbruch möglich wäre – hinderlich scheint mir eher unsere Auslese.

    Schließlich bauen wir Maschinen nach unseren Vorstellungen – und Maschinen die diesen Vorstellungen nicht entsprechen bekommen gar nicht gleichermaßen die Chance zur Entwicklung und Entfaltung ihrer Potentiale. Und wenn die Evolution uns damals nach Vorstellungen ausgewählt hätte, die sie zuvor anhand der konkret existierenden Spezies gebildet gehabt hätte, dann wären wir wohl aussortiert worden…

    Ähnlich sortieren wir doch jene Software (und Hardware) aus, die nicht die von uns gewünschten Ergebnisse liefert. Ja versuchen wir nicht sogar, sie darauf ausgerichtet zu konzipieren? Mir ist jedenfalls keine Software bekannt, der man ganz freies Kombinien und rekursive (ggf. auf die Hardware durchgreifende) Selbstmodifikation gestattete. Außer im Hinblick auf die Reproduktion menschlicher Verhaltensweisen – deren Verwirklichung wir dann wieder messen.

    Ich würde daher sogar noch weiter gehen und behaupten, dass wir eine solche Singularität bewusst nicht entwickeln können und eine zufällig entstehende nicht erkennen würden – außer sie gleicht uns. Wobei ich nach allem Bisherigen vermute, dass eine Singularität aus Silizium ganz anders intelligent ist, als eine aus Fleisch und Blut.

  7. @Noït Atiga:Agreed!:Unpredictable needed

    Ihr letzter Kommentar widerspricht meiner Aussage
    Es darf deshalb bezweifelt werden, dass sich allein durch inkrementelle Verbesserungen und Skalierung heutiger Technologien ein Durchbrauch a la technologischer Singularität einstellt.
    in keiner Weise.
    Sie schreiben sogar etwas sehr ähnliches.

    Und wenn die Evolution uns damals nach Vorstellungen ausgewählt hätte, die sie zuvor anhand der konkret existierenden Spezies gebildet gehabt hätte, dann wären wir wohl aussortiert worden…

    Eigentlich kennen wir das sogar aus der Technikgeschichte: Sie ist voller Serendipitäten (Zitat)
    Bekannte Beispiele für Serendipität sind die Entdeckung Amerikas 1492, die Entdeckungen der Röntgenstrahlung, des Penicillins und Viagras, des Sekundenklebers oder der kosmischen Hintergrundstrahlung. Auch geradezu überzufällige Begebenheiten sind beschrieben, die fleißige Forscher zu Entdeckungen führen, bis hin zum Benzolring, der schließlich in einem Traum vorkam. Andere Beispiele sind der Klettverschluss, Post-It, Teflon, Linoleum, die „Erfindung“ des Teebeutels, der Nylonstrümpfe oder auch die Entdeckung des LSD. In diesem Zusammenhang fällt oft der Satz: „Der Zufall begünstigt nur einen vorbereiteten Geist“; soll heißen: die Entdeckung kommt, wenn jemand viel daran gearbeitet hat, aber oft ungezwungen, und fällt ihm zu.

    Unvorhergesehenes, Ungeplantes, also Mutation und dann Selektion zu einem festen Bestandteil des Erkenntnisgewinnungsprozesses zu machen, wäre ein Ansatz, über den man mehr nachdenken sollte. Es braucht die richtige Kombination von Zufall und systematischer Auslese damit etwas Interessantes herauskommt. Auch Innovation und Forschung kann vielleicht immer mehr mit nur minimaler menschliche Intervention vorankommen. Der Artikel Robot biologist solves complex problem from scratch zeigt einen möglichen Ansatz.

  8. @Martin Holzherr: JEIN

    Das Zulassen von unvorhergesehener und ungeplanter Entwicklungen ist ein Teilaspekt dessen, was ich meinte. Insofern stimme ich vollkommen zu. Über diese Aspekte wird auch schon seit längerem nachgedacht – wir haben das theoretisch schon vor vielen Jahren gemacht, doch allgemein etabliert hat sich das bisher nicht. Ich glaube, dass es sich auch nicht sobald allgemein etablieren kann. Denn wir Menschen sind damit noch überfordert – denn wir sind ja selbst den Kindern gegenüber meist noch nicht gewillt, intrinsisches und damit ergebnisoffenes Lernen zuzulassen. Und da könnten wir hinsichtlich der Ergebnisse weitaus sicherer sein als bei Maschinen, die “Hardware” ist ja im Prinzip mit unserer identisch…

    Ich meinte aber noch etwas Anderes – und das illustriert auch der zitierte robo scientist. Wir geben die Phänomene vor, welche die Technik untersuchen soll. Und wir sehen sie nur als intelligent an wenn und solange wir ihre Ergebnisse (wenigstens) nachvollziehen können. Das spielt indirekt auch in den obigen Aspekt hinein. Wenn also der Robo scientist irgend etwas finden sollte, was in unserer Sprache als Nonsens erscheint – dann würden wir ihn für defekt erklären (oder verrückt). Natürlich ist das beim robo scientist systemisch unterbunden worden und er ist noch nicht intelligent genug, diese Schranke zu überwinden.

    Mit diesem Filter aber bleibt uns jene (möglicherweise schon existierende) Intelligenz verborgen, die wir (noch) nicht verstehen (können). Wer das Flatland von Abbott gelesen hat, der weiß vielleicht, was ich meine: Wir könnten eine höher entwickelte Entität auch nicht als solche wahrnehmen oder gar verstehen. Wie der zweidimensionalen Gerade die Kugel nur sporadisch als Kreis verschiedener Größe erscheint, so würde uns diese Entität nur soweit als (intelligent) erscheinen, wie sie unserer Intelligenz entspricht.

    Oder um im Bild lebender Intelligenzen zu bleiben – Tiere können auch nicht alle unsere Handlungen verstehen, und vielleicht erscheint ihnen dann aus ihrer Perspektive auch manche unserer Handlungen als irrational – oder wir verschwinden mal unerklärt von der Bildfläche. Bei Kindern haben wir das ja schon ziemlich gut erforscht: Die kleinsten unter ihnen können sich auch nicht vorstellen, dass wir noch existieren, wenn sie uns nicht sehen. Sie müssen das erst mühsam über viele, viele Wiederholungen lernen. Und das obwohl wir die “Hardware” teilen.

    Für künstliche Intelligenz bedeutet das für mich: Wir müssten unerklärliche Erscheinungen systematisch untersuchen. Wir müssten sie permanent in Beziehung setzen. Und wir müssten langsam (über Jahre, Jahrzehnte, Jahrhunderte) eine Theorie über eine Intelligenz entwickeln, die uns nicht direkt zugänglich ist. Die wir als nie direkt werden beweisen können, sondern von der wir (wie von abwesenden Menschen) nur annehmen könnten, dass sie (noch) existiert/lebt.

    Und insofern müssten wir eine eigene Wissenschaft der Beziehungen etablieren – wie es ja nebenan bei Michael Blume schon bei verschiedenen Themen diskutiert wurde (etwa Autismus- und Atheismusforschung. Religion zwischen rationaler und sozialer Kognition).

  9. @Noït Atiga; Die 3 Robotergesetze

    Weder die technologische Singularität, welche zu einer Superintelligenz führt, deren weitere Schritte wir nicht voraussagen können, noch die Kreation von selbstlernenden Systemen wird von unserer Gesellschaft gewünscht.

    Denn, wenn schon intelligente Systeme, dann doch bitte intelligente Systeme, die genau das machen was wir uns wünschen, Systeme, die kontrollierbar sind.

    Dieses Thema ist gerade jetzt aktuell, wo es bereits US-Bundesstaaten gibt, in denen autonom navigierende Fahrzeuge, erlaubt sind. Wenn es einen Unfall mit einem solchen Fahrzeug gibt, will man den Grund festnageln können und dann eventuell den Konstrukteur, den Designer oder Besitzer dieses autonomen Fahrzeugs dafür haftbar machen.

    Dies ist auch das Thema des economist vom 2. Juni 2012. Zur Lösung werden 3 Robotergesetze postuliert.
    1) First, laws are needed to determine whether the designer, the programmer, the manufacturer or the operator is at fault if an autonomous …. goes wrong. Therefore it needs a detailed log. Artificial neural networks will be disallowed because they can act in unpredictable ways.
    2) Ethic related decisions of autonomous intelligent systems must follow the majority ethic
    3) Engineers, ethicists, lawyers and policymakers must work together when building autonomous intelligent systems in order to make these systems adhere to the rules and the common sense of the society in which they operate.

  10. @Martin Holzherr: Ja, ja das Wollen…

    Denn, wenn schon intelligente Systeme, dann doch bitte intelligente Systeme, die genau das machen was wir uns wünschen, Systeme, die kontrollierbar sind.

    Ja, das stimmt, und genau da liegt das Problem. Ich hatte mich oben auch nicht zum Wunsch der Gesellschaft geäußert, sondern nur zu den philosophisch-technischen Möglichkeiten oder besser Unmöglichkeiten.

    Ich sehe das Hauptproblem bei künstlicher Intelligenz daher auch bei uns Menschen – wir müssten erstmal anfangen, den Satz nicht auf unsere Kinder anzuwenden. Derzeit tun unsere Bildungs- und Gesellschaftssysteme nämlich genau das. Schließlich hat man Angst vor nicht kontrollierbaren Kindern, nicht kontrollierbaren Nachbarn, Mitarbeitern, Steuerzahlern, Bürgern…

    Aus meiner Sicht entstehen all diese Probleme aus Berührungsängsten aufgrund fehlender Erfahrungen. Und dieser Angst glaubt man nur durch Macht begegnen zu können. Wir haben nicht (mehr) das Vertrauen in den Anderen als Vertrauen in seinen Respekt. Und wir können es nicht haben, weil wir Andersartigkeit ja auch selbst allenfalls tolerieren.

    Ich denke aber, es gibt dahin nur einen Weg – über Verständnis. Wenn wir es erstmal schaffen allgemeines Systemverständnis aufzubauen oder (was auf emotionaler Ebene dasgleiche ist) positive Erfahrungen mit einem solch offenen System – dann können wir auch Vertrauen gewinnen in ein solches offenes System. Bis dahin aber stehen wir uns bei aller Entwicklung selbst im Wege, denn das, was wir erreichen wollen, das dürfen wir nicht.

    Die von Ihnen zitierten Gesetze werden wenig helfen – Gesetze kommen eigentlich immer zu spät und auch sie können allenfalls die Abwägung von Risiken beeinflussen. Und schon heute sind Gesetze oft deswegen nicht mehr hilfreich, weil es derer zuviele gibt. Da müsste auch in der Juristerei etwas Neues passieren – denn die in 3) gewünschte Zusammenarbeit ist sonst schwer. 2) scheint mir mit den Menschenrechten schwer zu vereinbaren. Und 1) werden die Ingenieure geflissentlich zu umgehen wissen. Aber dazu könnte man einen eigenen Blog aufmachen…

  11. Unsere Zukunft

    Künstliche Intelligenz ist die Zukunft. Unser Bewusstsein wird mehr und mehr digitalisierbar.
    Menschliches Bewusstsein in einen künstlichen Körper verpflanzt haben schon mehrere Filme anschaulich gemacht.
    Die Zukunft wird uns eines besseren belehren.

  12. Pingback:Künstliche Intelligenz - Robotik | Azubiblog KOMSA-Gruppe

Schreibe einen Kommentar