Ewiges Leben im Silizium
BLOG: braincast
Braincast 185
Das erste Thema 2010 ist ein Sciene-Fiction-lastiges: der Upload des eigenen Geistes auf einen Datenträger und damit das ziemlich ewige Leben – ein Back up vorausgesetzt. Das ist die Vision des bekannten Ausnahmedenkers Ray Kurzweil.
MP3 File Dauer: 28:27
Bei Singularity Hub finden Sie die besten Roboter aus 2008. Da herrscht ganz offensichtlich noch Nachholbedarf. Dann der Shop Ray Kurzweil & Terry Grossman’s Longevity Products und natürlich das Blue Brain Project. Der Nachschlag zur Konstruktivismus-Episode ist ein Youtube-Link zu der Arte Sendung Wahrheit? Alles Lüge! Wie das Gehirn Wirklichkeit konstruiert. Dank an Kurt Loydl!
NEWS
- Seasick? Try Controlling Your Breathing
- Des Cannabis süße Seite
- Viele bunte Pillen
- Schmerzmittel gegen Liebeskummer – Paracetamol lindert auch psychisches Leiden
- The Myths About Mr. and Ms.
- Anatomy of A Brain Fart
- So tickt das Wir
- How the Brain Encodes Memories at a Cellular Level
- Pain or prayer? Two ways to grow a religion
- Demenz, aber kein Tumorrisiko
- Kein Kraut gegen geistigen Verfall – Ginkgo-Präparate gegen Demenz sind langfristig nutzlos
- Building a Search Engine of the Brain, Slice by Slice
- Zehn neurowissenschaftliche Fragen für 2010 – Wo steht die Hirnforschung – und wo will sie hin?
- Macht macht heuchlerisch
- Using Light and Genes to Probe the Brain
- When Fear Makes Us Superhuman
- Idle Minds and What They May Say About Intelligence
- Carpe Diem? Maybe Tomorrow
- Could cell phones prevent Alzheimer’s, boost memory?
- Prejudice towards migrants stems partly from the fact that they’re awkward to think about
- You won’t find consciousness in the brain
- Where Did the Time Go? Do Not Ask the Brain
- Ein drei Milliarden Jahre alter Notbehelf
- Cocktail gegen Alzheimer
- Pflanzen reagieren auf Temperatur – Erbinformationen werden bei zunehmender Wärme ausgepackt
- Blau + blau = rot
SHOWNOTES
Viele zukunftstaugliche Titel, der erste Future World von Gary Hunter. Der zweite, verjazzte ist Jeso mit Future Past Tense – Dees Remix. Schnell und heftig ist Cerebral Revolution von Shadow Jade, während Free Robots mit Future Daze eigentlich alles sagt. Die Notwendigkeiten erkannt hat Steve D. Stone mit Sensorial Evolution und die Gegenwart liefert Born69 von AJT.
Kritik, Schnittstellen, Buchtipp
Über Kurzweil ließe sich trefflich streiten. Seine Ideen sind interessant und träumenswert, die Umsetzung erinnert jedoch eher an scientologische Praktiken ($25.000 für 10 Wochen Unterricht an der SingularityUni sprechen nicht für Gutmenschlichkeit, so hehr seine Ziele auch sein mögen…)
Deshalb brauchen wir uns auch nicht über die Schnittstellen zur Außenwelt Gedanken zu machen: Entweder, ich bin reich genug für eine Virtualisierung (dann interessiert mich das analoge Prekariat nicht), oder jeder kann es sich leisten (dann gibt es keine Außenwelt, bzw. die analogen Entitäten haben bewusst kein Interesse an einem Kontakt).
Ausdauernden Lesern sei der vierbändige SciFi-Zyklus “Otherland” von Tad Williams empfohlen. Eine weltweite Elite errichtet sich ein riesiges, künstlich-intelligentes Computernetzwerk, um Unsterblichkeit zu erlangen. Lesenswert!
Ach ja: Ich bin stiller, doch treuer Braincast-Hörer seit etwa 3 Jahren. Und hoffe auf mindestens weitere 3 Jahre… 😉
Viele Grüße aus Aachen
Michael
@Michael
Danke für diese Sicht – von der Ausbildung wusste ich nichts.
Der Eliteaspekt ist ein wichtiger, ich habe ihn nur leicht anklingen lassen. Danke auch hier für die Betonung.
Und Otherland lohnt sich tatsächlich, wenn es auch elende Längen hat … Interessant, dass wir doch so ganz langsam für die Realität ahnen können, was die Sci-Fi-Schreiber uns vor Jahren als gute Idee mitgegeben haben.
Aber auch ganz schön schräg …
Thanks from Future Daze
Thanks for include FUTURE DAZE’ ‘Free Robots’ and also my good friend Gary Hunter 🙂
Electronic regards from the UK,
Ian – Future Daze
Und er muss doch sterben
Bei allen, die uns die digitale Unsterblichkeit versprechen, fehlt mir die Antwort auf eine Frage: Selbst wenn man Relationen aus meinem Gehirn in einen Computer wird übertragen können, wird dieses Bewusstsein an meinen Körper gebunden doch weiter existieren.
Das heißt, selbst wenn “ich” mich dann in einen Computer vervielfältigen könnte, müsste ich dennoch sterben.
Was nutzen also diese Versprechungen von der digitalen Unsterblichkeit? Abgesehen von Schlagzeilen und der Erwähnung im Braicast?
Einzelne Gehirnzellen ersetzen
Das ist völlig richtig.
Wenn ich mich in einen Computer kopieren könnte, müsste ich als Original dennoch irgendwann sterben.
Entweder beim Einscannen, oder später auf natürliche Weise, wenn das Einscannen schonend abläuft.
***
Ein anderer Ansatz wäre, dass nach und nach einzelne Gehirnzellen durch relativ einfache Nanocomputer ersetzt werden, vorzugsweise direkt nach ihren natürlichen Absterben, wobei diese Nanocomputer alle Funktionen der entsprechenden Gehirnzelle übernehmen.
Wenn dieser Vorgang über eine lange Zeit hinweg verteilt abläuft, dann kann man davon ausgehen, dass die Kontinuität des Bewusstseins ebenso gewahrt wird, wie sie es jetzt wird, denn auch jetzt werden ständig Gehirnzellen durch andere ersetzt.
Das ist eine interessante philosophische Frage, ob eine Person mit 10 % oder 50 % oder 90 % derartigen neuronalen Prothesen noch ein Mensch ist.
@Schleim: kein Bewusstsein
Eine digitale Kopie des Gedächtnisses kann allein kein Bewusstsein erzeugen. Bewusstsein entsteht nur dort, wo eine aktive Verarbeitung von Sinnesreizen bzw. Gedächtnisinhalten und ein Abgleich mit dem eigenen Selbstbild erfolgt.
D.h. eine digitale Kopie hätte den gleichen Effekt wie ein gedrucktes Lexikon. Man hat nur etwas davon, wenn man aktiv darin liest.
Lauffähige Kopie
Vermutlich war hier eine lauffähige digitale Kopie des Gedächtnisses oder Bewusstseins gemeint.
Auch wenn diese Kopie alle Funktionen des Originals durchführen kann, so ist es doch jemand anderer als das Original.
Die Kopie lebt weiter, und das Original stirbt irgendwann.
captn kirk
schon mal über das beamen nachgedacht? (also natürlich als gedankenexperiment)
@Bednarik: Gedächtnis, Bewusstsein
Sie haben recht, es kann sich nur um eine lauffähige Kopie handeln. Aber die Idee wäre ja gerade, als Kopie den leiblichen Tod überwinden zu können.
Allerdings muss man zwischen Gedächtnis und Bewusstsein deutlich unterscheiden, weil es sich hierbei um Unterschiedliches handelt. Das Gedächtnis mit den Erinnerungen und dem aktuellen Selbstbild ist eine Grundlage von Bewusstsein – nicht das Bewusstsein selbst.
Bewusstsein entsteht aber immer nur kurzzeitig während bzw. bei einem gedanklichen Rückkopplungsprozess (Oszillation) – wenn dabei eine bestimmte Aufmerksamkeitsschwelle überschritten wird.
Deswegen können wir bewusst und unbewusst Informationen verarbeiten (Stichwort: Unaufmerksamkeitsblindheit > Gorilla-Experiment)
@Jennrich Bruno
Die Idee des Beamens ist nur für die moderne Märchen-Literatur (Esoterik, Science Fiction) als gestalterisches Element von Interesse. Praktisch ist das Beamen nicht durchführbar.
Denn um ein Original durch Beamen übertragen zu können, müsste dieser Vorgang schneller ablaufen als die langsamste im subatomaren Bereich auftretende Veränderung. > D.h. man müsste in der Lage sein, die Naturgesetze zu überwinden.
andere Beispiele:
1)Die Wasserstoffbrückenbindungen zwischen Wassermolekülen ändern sich im Bereich von ca. 50 Femtosekunden. Bloß um eine Zahl für molekulare Änderungen zu nennen.
2) Wenn die Sauerstoffversorgung des Gehirns für mehr als 15-20 Sekunden unterbrochen ist, wird man Bewusstlos > d.h. für Beam-Vorgänge von Menschen müsste man erst eine Wiederbelebungsstation an dem Ort aufbauen, wo man sich hin beamen will.
@ Bednarik, KRichard
@ KRichard: Natürlich muss uns der Vertreter des “Gehirn-Uploads” noch erklären, wie das genau funktionieren soll und inwiefern z.B. Sinneseindrücke und Interaktion möglich sein sollen — das lässt sich aber auch programmieren/simulieren, würde der Visonär wahrscheinlich erwidern.
@ Bednarik: Ihre Antwort erinnert mich sehr Stark an den Aufsatz Absent Qualia, Fading Qualia, Dancing Qualia, den David Chalmers 1995 in Metzingers Bewusstseinsbuch veröffentlicht hat.
Chalmers argumentiert mit diesem Gedankenexperiment z.B. des schrittweisen Zellaustauschs dafür, dass der Funktionalismus falsch ist, dass zwar eine funktional äquivalente, jedoch keine bewusstseinsäquivalente Roboterkopie möglich ist. Kennen Sie den Aufsatz? Wahrscheinlich würden Sie Chalmers widersprechen.
Keine Kopie
Der Begriff der Kopie trifft es nicht. Versetzen Sie sich in Kurzweils Lage (eigentlich sind wir in seiner Lage): Der Upload mag kommen, aber die Technologie ist noch Jahrzehnte entfernt. Bis dahin ist das wichtigste Ziel, die aktuelle Hardware am laufen zu halten: den eigenen Körper. Live long enough to live forever.
Wenn dann der Körper final schlapp macht, und der Upload bis dahin möglich ist, verlässt er die alte Hardwere und bewegt sich auf eine Neue, eine wie auch immer geartete Festplatte.
Zu definieren ist natürlich das Er, genauer das “Ich”, das sich aufmacht, die Festplatte zu beleben. Kurzweil spricht von Mustern. Chalmers spricht vom harten Problem. KRichard fragt zurecht nach der Sinnesverarbeitung, ohne die Bewusstsein schwer vorstellbar ist.
Doch Kurzweil will nicht nur sein Gedächtnis retten, sondern sein Bewusstsein mitnehmen. Beim angestrebten Alter von 125 hat er noch über 60 Jahre Zeit. Bis dahin hat die Technik hat bestimmt großartige Fortschritte gemacht. Ob aber die Hirnforschung die Bewusstseinsfrage gelöst hat, steht auf einem anderen Blatt.
Vorstellbar wäre auch ein Ping Pong: Sterben, uploaden, clonen, downloaden, sterben … Aber wir sind tief im Sci Fi!
@ Arvid: SF und Philosophie
Dein leztes SF-Beispiel erinnert mich an “Altered Carbon” von Richard Morgen; sehr zu empfehlen.
Aber denken wir mal an folgendes Beispiel: Die Technologie ist entwickelt und Kurzweil hat einen schweren Unfall. Sein Privatarzt, der auf diesen Fall vorbereitet ist, untersucht ihn und kommt zu dem Ergebnis, dass Kurzweil nicht überleben wird. Daher leiten sie den Gehirnupload ein.
Nachdem die Prozedur erfolgreich abgeschlossen ist und das Bewusstsein im Computer realisiert wird — was auch immer das genau bedeuten mag –, bessert sich Kurzweils Zustand überraschend. Nach zwei Wochen kann er das Krankenhaus wieder verlassen.
Haben wir jetzt zwei K-Bewusstseine, das im Computer und das auf zwei Beinen? Wenn ja, wieso können wir dann behaupten, dass wirklich Kurzweils Bewusstsein in den Computer übertragen wurde, wenn es doch gleichzeitig noch außerhalb des Computers — und davon unabhängig — existiert? Die beiden sind schon im Moment nach dem Abschluss der Prozedur nicht mehr parallel. Wenn nein, welches ist nun das “echte” K-Bewusstsein? Und verletzt diese Frage nicht bereits unsere Annahme, dass die Prozedur funktioniert?
@ Schleim /Chalmers
Danke für das Link zu dem Aufsatz von Chalmers.
Aber – behauptet er darin nicht gerade, dass ein “phänomenales Bewusstsein” (“Qualia”) sich auf/aus allen möglichen Substraten (er redet sogar von “water pipes”) entwickeln könne? (Schluss des Aufsatzes).
Oder hab’ ich da irgendwo einen logischen Dreh’ übersehen?
@Wicht – Water pipes
Ohne den Chalmers-Text zur Gänze gelesen zu haben—ich verstehe ihn so wie Sie:
Wenn ein System die gleiche funktionelle Organisation aufweist wie ein Gehirn, spielt das Substrat keine Rolle.
Das ist doch auch logsich: Wenn etwas genauso wie ein Gehirn funktioniert und die gleichen (System-)Eigenschaften hat, dann ist es ein Gehirn, egal, woraus es besteht.
Man kann sich halt nur schwer vorstellen, dass man Nervenzellen 1:1 aus irgendeinem anderen Material jemals wird nachbauen können. Von den dynamischen Verschaltungen ganz zu schweigen…
—
@Schleim – zwei K-Bewusstseine
Wenn in Ihrem Gedankenexperiment das komplette Verschaltungsmuster übertragen werden konnte und das künstliche System die gleichen funktionellen Eigenschaften aufweist wie ein natürliches Gehirn, dann würden beide, Kopie und Original, von sich behaupten können, der wahre K zu sein. Wir hätten es also mit Bewusstseinszwillingen zu tun: Beide blicken auf das gleiche Leben zurück.
Wenn es also gelänge, die komplette Verschaltung eines individuellen Gehirns zu übertragen auf ein künstliches System, das exakt wie ein Gehirn funktioniert, dann hätten wir die potenzielle Unsterblichkeit des Ichs.
—
@Bednarik – philosophische Frage
»Das ist eine interessante philosophische Frage, ob eine Person mit 10 % oder 50 % oder 90 % derartigen neuronalen Prothesen noch ein Mensch ist.«
Natürlich wäre diese Person auch mit 100% neuronaler Prothesen noch ein Mensch. Ein Mensch mit einem Kunstherzen ist doch auch noch ein Mensch. Auf das Substrat kommt es eben nicht an, sondern auf die Funktion.
Selbst wenn nach und nach die gesamte Physis durch Prothesen ersetzt würde, gäbe es keinen Zeitpunkt, ab dem wir der Person das Menschsein absprechen könnten.
Und selbst dann, wenn wir mit einem Schlag das Bewusstsein eines Menschen auf ein komplett künstliches System (Roboter) übertragen könnten, müssten wir den Roboter mit dem menschlichen Bewusstsein als Mitmenschen betrachten.
Fug und Recht: 2K
Ich sehe das wie Balanus: in diesem Fall gäbe es zwei Kurzweils. Und ein interessantes ethisches Problem. Das im Zweifel – wer darf das Testament schreiben? – wohl zulasten der Software ginge. Die würde wohl gelöscht.
Ermordet?
Könnte der biologische K. das zulassen?
Was ist mit dem Determinismus? Beide “blicken auf das gleiche Leben zurück” (Balanus) – auf dasselbe sogar. Sollten die Umwelten vergleichbar sein, also die virtuelle das hergeben, müssten beide zu den gleichen Entscheidungen kommen. Kein Streit um das Testament. Es herrscht Friede im Tal.
Oder?
@ Balanus/Leyh
@ Balanus: (Chalmers)danke für’s feedback
@ Arvid/Balanus:
Das mit dem doppelten Kurzweil, einmal auf neuronaler und einmal auf Silizium-Basis, das glaub’ ich nicht. Bei Chalmers ist es ja ein sukzessiver Ersatz – das eine “Ich”/”Substrat” geht fliessend in das andere über. Das kann ich noch nachvollziehen, da würde ich schon sagen dass der “Chalmers” vom Anfang dasselbe “Ich” hat wie “robot” am Ende.
Aber bei Eurem/Ihrem Gedankenexperiment geht es ja um eine “Kopie”. Und selbst wenn man die “instantan” verwirklichen könnte, so würden doch die beiden “Kurzweils”, ab dem Moment wo der zweite auf Silikon-Basis “instantiiert” wird, unterschiedliche Wege gehen. Einfach deshalb, weil beide Systeme – das Hirn des einen und die Chips des anderen – so komplex sind, dass sie den Spielregeln des deterministischen Chaos folgen müssten. Minimale Änderungen der Randbedinungen usw…und verschiedenen Bedingungen (Reizen, Einflüssen etc.) wären sie schon deshalb ausgesetzt, weil sie nicht beide am selben (physikalischen) Ort sein können. Ich glaub’ also nicht, dass der eine sich für eine Kopie der anderen hielte, dass irgendein “Prioritätsstreit” entstehen könnte: deshalb nicht, weil sich ab dem Moment ihrer Enstehung/Trennung ihre Schicksale unterscheiden werden.
Sicherlich ein kruder Vergleich: eineiige Zwillinge haben ja auch zwei Ich-Bewusstseine.
Kopie vs Upload
Kopie oder Upload…
nun ja…
Hier vielleicht mal meine Gedanken die mir in dem Kontext in den Sinn gekommen sind. Ich glaube das viel von der Art und Weise abhängt wie man „Kopiert“ (ich mag das Wort in dem Zusammenhang irgendwie nicht.).
Ein Ansatz:
Das Gehirn hat so einige Kompensationsmechanismen. Beispielsweise werden im Falle eines langsam wachsenden Gehirntumors, die betroffenen Bereiche umgelagert/in die benachbarten Gebiete verschoben.
Wenn man nun die Möglichkeit schafft das Gehirn an ein dem Gehirn ähnlichem System (nichtlineares dynamisches System) anzukoppeln welches dann auch in der Lage ist zu lernen und eine Verbindung zwischen diesen Systemen schafft, könnte man, indem man LANGSAM die zu übertragenen Hirngebiete Teil für Teil abschaltet (wie der Tumor), das Gehirn dazu verleiten diese Kompensationsmechanismen auf die “neuen Silicium-Gehirn-Abschnitte” anzuwenden. Die “neuen Gehirnabschnitte” würden dann direkt zu dem Originalgehirn gehören.
Würde dabei auch mein Ich teil für teil meinen Körper verlassen? Ich glaube ja.
Bin ich noch ein Mensch? Anscheinend schon.
Könnte ich in diesem Fall ganz ohne meinen Körper „leben“? Wie definiert sich in diesem Fall eigentlich „Leben“? Mit Stoffwechsel hat das ja nun nicht mehr viel zu tun. Ich weiß es nicht.
Richtig interessant wäre jetzt natürlich wieder die Frage (wie sie hier ja schon gestellt wurde) was passiert wenn man nun auch in diesem Kontext diesen Abschaltvorgang reversibel macht und die Neurone nach dem „Upload“ wieder anschaltet. Wo ist dann mein Ich?
In diesem Falle wäre es ja keine einfache Kopie, sondern eine von dem Gehirn übernommene Region.
Zugegeben… das Kopieren würde nach dem beschriebenen Prinzip sicherlich Jahre dauern… aber vieleicht könnte man aber einige Koma Patienten, die keine Kontrolle über ihren Körper mehr haben… nun ja… “retten?!.”
Danke für die interessante Diskussion
Ein frohes neues Jahr wünscht euch
Eric
Beamen für Anfänger
http://www.e-stories.de/view-kurzgeschichten.phtml?27992
Die Kopie
@ Eric
Was Kurzweil anstrebt, ist der Upload, also der Übergang seines Ich´s, Geistes, allen Drum-und-Drans von der sterbenden biologischen, auf eine jungfräuliche elektronische Plattform. Es werden keine Neurone durch nanobasierte Miniirgendwasse ausgetauscht, obwohl das wohl charmanter wäre.
@ Helmut
Stell Dir vor, Du hättest Dich upgeloaded, um der Mitwelt weitere Anatomische Anekdoten zu schenken (btw – grandioses Buch, ich amüsiere mich königlich!!). Kaum bist Du auf der anderen Seite angekommen, verblüfft Dich Dein Körper, indem er sich abzunippeln weigert.
Für die Welt da draußen hat sich nichts verändert – Helmut ist wieder da, Glück gehabt. Er marschiert durch die Welt und kann Schecks zu Deinem Konto unterschreiben. Deine Frau siehst Du nie mehr, die hält sich an den Typ mit Körper. Der kann Dich abschalten, wenn er sparen muss. Tät ihm ja auch Leid. Die wichtigste Frage aber ist:
Wem gehören die Motorräder?
Eine Technologie
Eine Technologie, die Personen kopieren kann, kann auch Motorräder und Einfamilienhäuser kopieren.
Ausserdem wird sich wohl auch die werte Gemahlin duplizieren lassen, bevor sich der werte Herr Gemahl ein Duplikat von Pamela Anderson anlacht.
zu Chalmers und Funktionalismus
Okay, ich habe eben den Schluss selbst gelesen und sehe ein, dass sich das anders anhört. Es ist nun ca. sieben Jahre her, dass ich den Text im Studium gelesen habe. Womöglich habe ich hier ein false memory; aber ich erinnere mich, dass es bei dem Chalmers-Text noch einen Clue gab. Werde ich mir bei Gelegenheit noch mal genauer anschauen.
So oder so passen seine Gedankenexperimente aber sehr gut zu unserer Diskussion; strittig ist hier die philosophische Schlussfolgerung.
Ich meine, mich nun doch dunkel zu erinnern: Das Gedankenexperiment baut auf dem Prinzip der funktionalen Äquivalenz auf, d.h. Systeme, die aufgrund ihrer funktionalen Eigenschaften identisch sind, müssen dies — der Annahme gemäß — auch auf der Ebene ihrer mentalen Eigenschaften sein. Wenn man diese (ziemlich starke Annahme) schluckt, dann scheint Chalmers’ Diskussion tatsächlich zu implizieren, dass auch die Roboterkopie dieselben mentalen (u. Bewusstseins-) Zustände hat.
Man kann das nun aber auch umgekehrt aufziehen und dies annehmen und per reductio ad absurdum daraus wahrscheinlich ableiten, dass die These der funktionalen Äquivalenz falsch ist, weil der Roboter vielleicht kein phänomenales Bewusstsein hat.
Die These der funktionalen Äquivalenz scheint aber schon allein deshalb falsch zu sein, weil die Kopie womöglich dieselben Erinnerungen hat aber alle ihre Erinnerungen falsch sind — während bsp. Kurzweil als Dreijähriger in Disneyland war, war das die im Computer hergestellte Kurzweil-Kopie nicht.
Formal gesprochen wäre der Funktionalismus mentaler Eigenschaften also schon deshalb falsch, weil er die Geschichte der Systeme, welche diese mentalen Eigenschaften instantiieren, nicht miteinbezieht, sie für die mentalen Eigenschaften aber relevant ist.
2K
ich sehe selbst bei zwei kuruzweils weder ein ethisches, noch irgendein anderes problem – bestenfalls interessenkonflikte, die es bereits jetzt schon gibt.
1.) jedes bewusstsein ist “self contained”. somit gilt K1 K2
2.) Es gibt hier nur ein besitzanspruchsproblem, was in der “alten” welt durch “wer zuerst kommt, mahlt zuerst” gelöst wird.
3.) jede weitere problemstellung würde die frage danach stellen, ob eltern das recht haben, kinder/bewusstsein zu zeugen. “mich hat niemand vorher gefragt, ob ich geboren werden will!”.
q.e.d. 🙂
Selbstgespräch
Wenn es also ein menschliches Original und eine digitale Kopie gibt – dann müssten beide ein Selbstgespräch führen können.
(P.S.: Ein Kollege hat immer vor Selbstgesprächen gewarnt – weil man dafür einen intelligenten Gesprächspartner bräuchte. 🙂 )
Gefährdetes Gedächtnis
@Stephan
“Die These der funktionalen Äquivalenz scheint aber schon allein deshalb falsch zu sein, weil die Kopie womöglich dieselben Erinnerungen hat aber alle ihre Erinnerungen falsch sind — während bsp. Kurzweil als Dreijähriger in Disneyland war, war das die im Computer hergestellte Kurzweil-Kopie nicht.”
False memory – Du wirst den Ball selbst. Ist nicht Dein aktueller Chef Douwe Draaisma Experte für die Kreativität des Gedächtnisses? Solche Sachen wir Ballonfahrten, die uns die Eltern dreimal erzählen, bis wir uns an den Wind auf der Nasenspitze erinnern, die aber nie stattfanden? Leute, die Stein und Bein schworen, Bugs Bunny in Disneyland gesehen zu haben, obwohl der in einem Medienimperium nebenan wohnt …
Es ist die Erinnerung, die uns ausmacht, nicht die Fakten. Und da die bis zum Zeitpunkt des Uploads (nicht Kopie) identisch sind. K1 ist K2. Subjektiv gibt es hier kein richtig oder falsch.
Die Frage der Phänomenlogie einer Festplattenexistenz allerdings ist gewichtig und passt nach meiner bisherigen Vorstellung nicht zu einem “Bewusstsein”. Aber wer weiss, was die in 60 Jahren alles können.
@ Jennrich
Ich denke auch, dass hier kein begriffliches Problem sein MUSS; aber wenn Kurzweil mit der Idee hausieren geht, dass wir alle unsterblich werden, halte ich das für eine Täuschung. Denn wie ich anfangs ja behauptete, wird dann K1 trotzdem sterben, auch wenn K2 irgendwie in einem Speicher oder als Roboter oder meinetwegen auch Verschaltung von Schweizer Käse erzeugt wird.
@ Arvid
Das ist eine Lösung, die durchaus möglich ist — die Identität der Person auf das subjektive Erleben und Erinnern zu reduzieren.
Das führt uns jetzt in die ausgetretene Diskussion, ob so etwas wie “wide content” eine Rolle spielt oder nicht. Manche Philosophen legen wert auf solche Fragen, ob eine Erinnerung wahr ist oder falsch, ob ein mentaler Zustand allein durch das Gehirn oder auch durch externe Eigenschaften festgelegt (individuiert) wird.
Man kann das natürlich negieren… Ich würde aber spontan und intuitiv dafür plädieren, dass es für mich sehr wohl eine Rolle spielt, ob ich damals wirklich eingeschult wurde und 14 Jahre zur Schule gegangen bin, zum Beispiel, oder ob das meinem Doppelgänger passiert ist.
Was würdest du sagen, wenn deine Tochter in Wirklichkeit die Tochter deines Doppelgängers wäre?
@Schleim: Angebot
Ich lese, dass Sie bei Douwe Draaisma arbeiten – er beschäftigt sich mit der Erforschung von Erinnerungen.
Sie sollten Ihn auf meine Beiträge im aktuellen Blog von Christian Hoppe in WIRKLICHKEIT aufmerksam machen: ´Nicht ohne Gehirn´… (13.11.09)
Mein Erklärungsmodell für Nahtod-Erlebnisse (NTEs)dürfte für seine Forschungen von Interesse sein – da es sich hierbei nur um das erlebbare Verarbeiten von Inhalten des episodischen Gedächtnisses ab dem 6. Schwangerschaftsmonat, sowie einer Simulation der aktuellen Situation (OBE), handelt.
Ich behaupte damit:
1) dass es sich bei allen Phänomenen, die bei NTEs auftreten, um das Ergebnis von Gehirnaktivitäten handelt. Außersinnliche oder übernatürliche Inhalte gibt es dabei garantiert nicht.
2) Mein Erklärungsmodell (Struktur) ist allgemeingültig für alle NTEs.
3) Weil es sich bei den NTEs nur um normale Gehirnaktivitäten von lebenden Menschen handelt > ist mein Modell genauso gültig für jede andere Verarbeitung von Gedächtnisinhalten. D.h. es ist auch hierbei allgemeingültig.
Wenn er mehr Details wissen will, sollten Sie sich über den Administrator meine E-Mail Adresse geben lassen.
@Stephan
Ich wollte mich, Dich und Kurzweil keineswegs auf subjektives Erleben und Gedächtnis reduzieren. Vielmehr wollte ich betonen, dass was und wenn ich denke, dass ich bin, ich auch bin. Auch meine fiktive Vergangenheit beeinflusst meine Gegenwart.
Mein Ballonfahrer braucht als Beispiel nur ein kleines Zeitfenster. Deine Einschulung ist nur Startpunkt von 14 Jahren Schule, die doch ziemlich viel Hirnwäsche brauchen, um sie als falsche Erinnerung zu pflanzen. Ich halte beide nicht für vergleichbar.
Müssten wir eigentlich klären, von welcher Position aus wir denken? Für mich zählt hier immer die Sicht der ersten Person, auch die auf der Festplatte.
Wenn ich also Sci-Fi-mässig Deinen Gedanken weiterdenke, dass “ich” mich auf Festplatte upgeloadet hätte, mein Körper aber noch mit “mir” weiterlebte: Es wäre trotzdem meine Tochter. Genauso wie seine. Schwierig im Sorgerechtsstreit, aber ich würde auch nicht verstehen, wenn er mich abschaltet. Ich hänge doch am Leben, deshalb ja der Upload.
Schwierig, spekulativ und viel Raum für einen Roman. Versatzstücke gibt es ja genug, einen mit einem geclonten Schwarzenegger, der genau dieses Familienproblem hat.
Spannender ist vermutlich die Ausgangsfrage von Erleben und Erinnern. Hier ist aus meiner Sicht Kurzweils größter Schwachpunkt: das Ich scheint mir deutlich mehr als Erleben und Erinnerung, mit einigen duplizierten Modulen ist das nicht getan, dazu ist die Verschaltung zu individuell. Das verkompliziert den Prozess. Aber das hat er wohl im Blick…
@ Arvid: Noch einen Schritt weiter
Okay, dann muss ich es also auf die Spitze treiben:
Stell dir vor, ein Hirnforscher kontaktiert dich wegen eines Versuchs (angesichts deiner Kontakte ja nicht unwahrscheinlich). Es sei nun möglich geworden, einen biotechnischen, funktional identischen Klon von dir herzustellen. Allerdings sei die Technik noch nicht so ausgereift, dass alle Strukturen mithilfe von Zellkulturen, Konstruktionsverfahren usw. hergestellt werden. Ergo müsse man ein paar wenige, jedoch essenzielle Bereiche aus deinem Gehirn in den Klon transplantieren. Der ganze Rest, 99% deines ursprünglichen Körpers, würde aufgrund dieser Maßnahme nicht mehr lebensfähig sein. Also würde danach nur noch der funktionelle Klon weiterexistieren, der jedoch aufgrund seiner Beschaffenheit einige Vorzüge hat (bsp. unsterblich ist); sonst würde niemand den Unterschied bemerken.
Frage: Würdest du das tun? Und wenn nicht, warum dann nicht? Vielleicht, weil dieser Klon eben doch nich du selbst wäre?
Und wenn er eben doch nicht du selbst wäre, würde es dann nicht doch etwas ausmachen, dass beispielsweise du der Vater deiner Tochter bist und nicht er?
Konjunktive
Ich bin skeptisch, aus genau dem Grund, der mich auch bei Kurzweil stört: ohne die exakte Verschaltung meiner sämtlichen Neurone bin ich nicht ich.
Um hier die Mathematik durchzukauen: 99% des Körpers bleiben zurück, das wären bei mir also 700 Gramm Hirn, weniger als die Hälfte, die versetzt würde. Das reicht vermutlich nicht, um aus mir mich zu machen.
Aber diese Frage ist aus dem Jetzt heraus beantwortet. Fünf Minuten vor meinem Tod würde ich Dir warhscheinlich eine ganz andere geben. Dann würde mir der Strohhalm reichen und ich würde es ziemlich sicher probieren. Bis dahin ist die Technik vielleicht auch ausgereift … 🙂
Wäre ich dann der Vater meiner Tochter? Zumindest die maximal mögliche Annäherung. Allerdings würden sich vermutlich Änderungen in meiner Persönlichkeit ergeben, die auf sie recht befremdlich wirken würden. Auf mich wohl auch, denn ich würde sie anders erleben.
Um das hier abzuschliessen: wir müssten uns wohl neu kennen lernen (abgesehen davon, dass ich vermutlich eine Zeit der Verwirrung mit mir selbst hätte, weil ich mich selbst auch wieder kennenlernen, bzw. orientieren muss), und das geht um so leichter, je jünger sie ist. Das spräche dafür, die Clone-Nummer möglichst schnell zu machen. Andererseits: will ich sie überleben? Eher nicht!
Bist Du mit Deiner Frage “Wer bin ich?” weitergekommen? Wer bist denn Du? Und was würdest Du bei solch einem Angebot tun?
@ Arvid: Nachhaken
Hier muss ich nochmal nachhaken — du siehst, ich lasse nicht locker:
Aus der Annahme folgt, dass die Kopie von dir genau funktional identisch ist; nur aufgrund der technischen Beschränkung (leider, leider), können sie dich eben noch nicht zu 100% nachbauen, sondern brauchen noch ein paar “Ersatzteile” des Originals.
Wenn du jetzt meinst, dass eine funktionale Kopie von dir auch du bist — so hatte ich das verstanden, als du meintest, der Klon wäre auch in anderer Hinsicht mit dir identisch, also z.B. auch Vater deiner Tochter –, dann frage ich mich, wie du dich entscheiden würdest, wenn — wie in dem neuen Beispiel — nur der Klon überleben kann und nicht die “Vorlage”. Und wenn du jetzt zögerst und sagst, du willst dich doch nicht aufopfern für diesen funktionalen Klon (der zudem ja noch unsterblich wäre), außer du wärst kurz vorm Sterben, dann frage ich mich, woran das liegt. Vielleicht daran, dass du doch nicht glaubst, dass dieser Klon auch du wäre, funktionale Identität hin oder her?
Was ich machen würde? Naja. Wie ich schon eingangs erwähnt habe, denke ich ja, dass solche funktionalen Kopien, ob nun als biologischer Klon, als Roboter, oder als Software, mich nicht unsterblich machen, so wie es Kurzweil und manche Transhumanisten manchmal hinstellen. Daher würde ich glauben, dass ich bei dieser Maßnahme auch ums Leben kommen würde. Daher würde ich es auch nicht tun, zumindest nicht, wenn ich noch Leben vor mir hätte; andererseits würde ich mich auch fragen, will und braucht die Gesellschaft das überhaupt, einen ewig lebenden Stephan Schleim bzw. seine funktionale Kopie, und reicht das nicht, wenn ich mal 50, 70, 90 Jahre gelebt habe?!
Persönlich halte ich solche Versprechen wie das mit dem Gehirnupload vielleicht für Illusionen, um mit der Angst vor der eigenen Begrenztheit umzugehen.
Wenn Kurzweil wirklich 125 Jahre alt wird, wie er behauptet, dann wird er doch schon viel viel viel länger gelebt haben als die meisten anderen Menschen auf dieser Welt und in der Vergangenheit. Warum reicht ihm das dann nicht?
Glauben [[heißt [nicht]] wissen]
Selbst wenn Du Dein Angebot jetzt upgradest und mir versprichst, dass die (wohl jetzt zu Recht) Halbgötter in Weiss mir mein gesamtes Hirn transplantieren würden, bliebe doch ein gewisses spirituelles Restrisiko, dass ich mehr bin als die biologische Summe meiner Synapsen. Ich kann es mir aktuell kaum vorstellen, aber im Hinterkopf habe ich es doch, und habe daher noch keine finale Position bezogen – hast Du?
Das ethische Problem einer drohenden Überbevölkerung – ist ja nur eines von vielen – klingt bei Dir unter sozialen Aspekten an. Ich glaube, mit Nachwuchs ist es einfacher, heroisch zu sein. Und es ist einfach, das heroisch festzustellen, wenn der Moment noch 40, 50 Jahre Zeit hat mit der Abnibbelei. Hier verstehe ich Kurzweil ganz gut und traue meinem eigenen verbalen Heldentum wenig.
Im Audio habe ich an dieser Stelle nach einem weiteren Planeten verlangt, und das Problem wieder dahin geschoben, wo es hingehört: in die Sci Fi.
@ Arvid: genau
Ich fand die Heinlein-Utopien immer faszinierend, in denen die gesellschaftlichen Probleme so einfach aufgehen… aber dort ist immer noch ein Planet frei, den man besiedeln kann, wenn es auf dem Heimatplaneten zu schlimm geworden ist. 🙂
Und was die Spiritualität betrifft, zähle ich mich zu den Agnostikern; da ist es schon per definitionem so, dass man keinen finalen Standpunkt bezieht.
warum künstlich?
Bevor man ein künstliches Gehirn erschafft – ja, viel Spaß dabei -, warum nimmt man nicht erstmal eines, was gerade gestorben ist, setzt es auf 0 und überträgt – was will man überhaupt übertragen? – die “Daten” vom Lebenden?
Ist schon komisch. Unser Hirn besteht aus der gleichen grauen/weißen Masse und trotzdem sind wir so unterschiedlich. Hängt natürlich nicht nur vom Hirn ab, ich weiß, aber einfach nur weil es anders verdrahtet ist? Das ist erstaunlich.
@ Martin: Software/Hardware
Hmm, die Software-Hardware-Metapher des Gehirns kann man auch überstrapazieren. Jedenfalls glaube ich, dass diese Trennung bei diesem Beispiel nicht funktioniert, denn die “Hardware” IST teilweise die “Software”. Mit einem auf Gleitkommaoperationen spezialisierten Prozessor kann man vielleicht auch Ganzzahloperationen rechnen lassen aber eben weniger Effizient. Wenn man eine zeitkritische Anwendung in Echtzeit hat, kann es also sehr wohl sein, dass sie sich nicht übertragen lässt. Also ist selbst für echte Software die Hardware nicht irrelevant, auch wenn moderne Betriebssysteme mit ihren Abstraktionsebenen natürlich eine relativ standardisierte Umgebung schaffen. Im Notfall läuft dann alles langsamer. Könnte so ein Gehirn wohl funktionieren und zusammenhängende Wahrnehmungen und Gedanken unterstützen?
software hardware
herr schleim, ich muss ihnen (mit allem respekt!!!! 🙂 ) widersprechen. wir haben in den letzten jahren eine immer stärkere trennung und abstraktion der software von der hardware gesehen. emulatoren wie der C64 emulator, der eine völlig fremde hardware ohne probleme auf einem hndelsüblichen pc ans laufen bringt, zeigt das. und der derzeitige “virtualisierungshype” in der IT branche zeigt ebenfalls, dass hardwareTYPEN an sich irrelevant werden.
ich wage es, die these aufzustellen, dass wir bzw. unser bewußtsein ausschliesslich “software” sind/ist. unabhängig davon, wo diese “läuft”.
die von ihnen erwähnten “echtzeitsysteme” sind letztlich auch nur auf äußere signale durch sensoren angewiesen. ob diese signale aber wirklich durch hardware “erzeugt”, oder irgendwo softwareseitig emuliert werden, tut der funktion des echtzeitsystems an sich zunächst einmal keinen abbuch. das EZ system “läuft” trotzdem – auch wenn seine interaktionen mit der “echten” welt beschränkt sein dürften.
insegesamt tut sich hier ein enorm weites feld auf….
@Jennrich, @all
“ich wage es, die these aufzustellen, dass wir bzw. unser bewußtsein ausschliesslich “software” sind/ist. unabhängig davon, wo diese “läuft”.”
Ja, aber …
Sind wir nicht eher Hardware und die Summe ihrer Verschaltung? Ist es nicht diese Hardware, die zumindest Kurzweil … emulieren? Nein, konstruieren? Oder: konvertieren will?
Passt das Bild von Hardware/Software noch?
Unabhängig von Kurzweil würde mich viel mehr die Meinung der Anwesenden zum Verhältnis von Hard- und Software interessieren: Wie hältst Du´s mit dem Materialismus?
anti-materialismus
ich bin gegen materie! ich lehne sie sogar ab… aber das ist eine andere geschichte.
ich bin ein riesiger SF fan, und diese hin und wieder auftretenden völlig vergeistigten wesen, die ohne körper als “reine energie” leben, finde ich immer wieder am faszinierendsten.
ich lese im moment “the singularity is near” von kurzweil, und frage mich dabei: was ist ein text, eine geschichte? die buchstaben auf dem papier, die codierten luftruckschwankungen im mp3-hörbuch oder gibt es eine (für mein gefühl immateielle) essenz des geistes/einer idee? der begriff “mem” kommt mir hier in den sinn, aber dieser ist zu “eindimensional”.
und bevor mir jemand esoterik o.ä. unterstellt: ich bin atheist durch und durch. kein agnostiker, und ich bin auch nicht nur unrelegiös. ich lehne die existenz eines (einizgen) höheren wesens ab (ja, und die scientology thetanen ebenso!)
ich glaube, wir sind struktur oder meta struktur. nur leider habe ich dazu gerade den beweis verlegt… oder an eine bereits wieder entfernte web site notiert 🙂
@ Jennrich: Emulation
Ich habe hier auf meinem Mac u.a. eine DOSBox, in der ich mein altes Lieblingsspiel spiele, und eine VirtualBox, auf der mein altes W2K läuft. Insofern bin ich zumindest etwas auf dem Laufenden, was die Fortschritte in der Virtualisierung betrifft.
Ihr Vergleich hinkt aber. Bei den Spielen ist es egal, ob die emulierende Hardware mit dem Rechnen nachkommt oder nicht; das Spiel läuft dann eben nur ruckliger oder langsamer. Je nach Spiel kann das z.B. den Schwierigkeitsgrad beeinflussen, ist die Emulation also nicht mehr 1:1 funktional äquivalent. Spätestens aber wenn Sie im Netz mit anderen Spielen, ist es nicht mehr egal — denn dann sind Sie womöglich schon “tot”, bevor es Ihr Rechner überhaupt emulieren kann.
Realistischeres Beispiel: Denken Sie an die Steuerungsprozesse eines Kernkraftwerks. Die können Sie mit Sicherheit nicht einfach auf eine andere Hardware umsteigen und dort die alte emulieren lassen, denn dort kommt es auf Sekunden an! Sprich, wenn Prozess A das Ergebnis zum Zeitpunkt t braucht, um, sagen wir mal, ein Druckventil zu regulieren, dann kann es eben zu Problemen führen, wenn das Ergebnis erst zu t’ verfügbar ist.
Bei allem, was wir in den vergangenen Jahrzehnten über die Synchronizität von Zellaktivierungen gehört haben, sollte deutlich sein, dass viele Prozesse im Gehirn ebenfalls zeitkritisch sind, und vielleicht nochmal um den Faktor 1000 größer (also im Bereich von Millisekunden).
kernkraftwerk
hallo herr schleim,
ich glaube, hier muss geklärt werden, was “funktionieren” bedeutet. ich bin da vermutlich radikaler als sie. timing probleme/”stottern” usw. führen nicht dazu, dass ein softwaresystem nicht mehr funkioniert, sondern dass es “nur” nicht mehr richtig interagiert (im flle eines kkw’s natürlich mit fatalen folgen). wie in einem vorherigen post bereits erwähnt, geht es mit hier um den aspekt der “self-containedness”.
und was das gehirn angeht. dieses ist hoffnunfslos langsam – massiv parallel zwar – aber eben super langsam – chemische reizübertragung ist um den divisor (der term “faktor” fühlt sich hier irgendwie falsch an 🙂 ) 1000 und mehr langsamer als die elektronische reizübertragung (das nur am rande).
ich gestehe, dass ich derzeit unter dem einfluss von kurzweils “singularität” stehe, und ich froh bin, seit langer zeit endlich mal wieder etwas zu lesen, was nicht in einer trostlosen endzeit-apokalypse endet. evtl. werde ich in ein paar wochen gänzlich neue oder andere an- und einsichten gewonnen haben.
@Arvid Leyh: Hard-/Software
Unser Körper, d.h. Hardware, ist eine wesentliche Grundlage unseres (Körper-)Selbstbildes. Viele Erlebnisse und Denkergebnisse sind daher nur möglich weil dieses sich dauernde Selbstbild Grundlage von Denkprozessen ist.
z.B. Apfel-Größe:
Wenn man sich zurückerinnert, ob ein Apfel in der frühen Kindheit größer oder kleiner war als Heute – so werden die meisten Menschen sagen ´natürlich waren die Äpfel früher größer; ich musste den Apfel immer mit beiden Händen halten´.
In Wirklichkeit haben sich die Apfelgrößen aber nicht wirklich verändert. Das einzige was sich geändert hat, war die in unserem Selbstbild abgespeicherte Bezugsgröße – die Größe der Hand.
Heute ist der Apfel so groß wie eine Hand – in der Kindheit war der Apfel deutlich größer als die Hand => daraus folgt die Schlussfolgerung: früher waren die Äpfel größer.
Weil aber die frühere reale Größe der Hand nicht im Gedächtnis abgespeichert ist, kommt dieses Ergebnis unseres Denkprozesses heraus.
Hardware II
Claude Monet ist ein bekanntes Beispiel dafür, wie die Hardware uns beeinflusst.
Er litt ab 1912 an Grauem Star, wodurch sich sein Malstil deutlich änderte. Der Effekt dieser Änderung wurde erkennbar – als er 1923 nach einer Operation zu seinem ursprünglichen Stil zurückkehrte
Jennrich: Funktionsbegriff
Ja, Sie haben Recht, es hängt nun am Funktionsbegriff.
Für mich funktioniert aber eine Software nicht mehr, wenn sie “nicht richtig interagiert”, wenn die richtige Interaktion Teil der Funktionsbeschreibung ist, wie ich es bei Echtzeitanwendungen angenommen habe.
Die Zahlen zur Geschwindigkeit der Informationsarbeitung müsste ich jetzt nachlesen. Ich bin skeptisch, dass sich die Messungen so einfach in Beziehung zueinander setzen lassen.
Ganz gleich wie “langsam” unser Gehirn verglichen mit beispielsweise Lichtleitern auch sein mag, relevant ist doch, dass es offenbar schnell genug ist für das, was für uns überlebenswichtig ist.
Hardware/Software vs. Bewusstsein
Ich denke, der Vergleich mit Hard- und Software hinkt stark. Kaufe ich mir mehrfach die identische Hardware, spiele dort die gleiche (oder dieselbe? 😉 ) Software auf, so erhalte ich zu geschätzt 99,99999% identische Systeme.
Ein Bitkipper hier, eine oxidierte Lötstelle dort, und der Gleichlauf ist dahin. Was jedoch diese asynchronen Systeme nicht zu selbst-bewussten Individuen macht.
Die Hardware des Menschen, das ist seine Chemie. Sie lässt sich einfach auf das Periodensystem der Elemente zurückführen.
Die Software des Menschen, das ist seine Physik. Faszinierend in diesem Zusammenhang die Animation über die Abläufe in einer Zelle (http://multimedia.mcb.harvard.edu/, wurde in einem frühen Braincast angesprochen). “Weiß” die Zelle, was in ihr und um sie herum so alles abläuft?
Als Hinweis und Denkanstoß sei hier genannt: Ein Tropfen Öl sucht sich eigenständig den Weg durch ein Labyrinth (http://sciencenow.sciencemag.org/cgi/content/full/2010/113/4). Und niemand kann behaupten, dass Öl ein höheres Bewusstsein hat.
Der Effekt, der dem Zusammenspiel von Chemie und Physik das Bewusstsein einhaucht, ist also über den Hard-/Software-Vergleich (noch) nicht abgedeckt.
Eventuell macht die unglaubliche Menge an Verknüpfungen aus mir mehr als die Summe meiner Elemente und Effekte? Dann sollte das Internet nicht mehr lange von einem eigenständigen Bewusstsein entfernt sein. Skynet oder das Master Control Program lassen grüßen. 😉
Bin ich hiermit allein?
Ich habe nicht alle Kommentare im Detail durchgelesen und ich bin ein bisschen spät dran hiermit, aber dennoch: ich möchte allen Menschen, die danach streben, auf die eine oder andere Art “Unsterblichkeit” zu erlangen, einen gehörigen Mangel an sozialer Intelligenz zusprechen. Selbst wenn es möglich wäre, sich zu klonen oder upzuloaden (und sich irgendwann in Folge auch wieder downzuloaden in einen neuen Organismus, wozu sonst das ganze Theater?), wozu soll das gut sein? Die Idee an sich ist schon ziemlich überheblich, dass man denken könnte, die Nachwelt würde sich auf einen freuen. Was ist denn die nächste Wunschgrenze? 120 Jahre? Vor hundert Jahren starben die Menschen in Deutschland 30(!) Jahre früher als heute, na Bitte. Aber nun mal ehrlich: Wem um Gottes Willen bringt das etwas, eine Nation von 120 jährigen Greisen zu haben, die sich dann auch noch alle uploaden, um sich dann in nochmal hundert Jahren in künstliche junge Körper downloaden zu lassen? Wow…
Und wie toll wäre es denn, wenn z.B. Shakespeare noch leben würde? In der Schule lernte man dann: “Shakespeare, der heuer seinen 446sten Geburtstag feiert, schrieb eines seiner wichtigsten Werke im zarten Alter von 42 Jahren…”, na toll…
Ich möchte in Ruhe altern, ich wünsche mir, dass meine Kinder mich überleben, und dass niemand leiden muss, bevor er dahingeht, wohin auch immer, dass werde ich dann schon sehen wenn es soweit ist. Falls man denkt, man muss der Nachwelt etwas hinterlassen, so schreibe man ein Buch, das kann man dann uploaden und in die große, weite Welt schicken. Dann bleibt man zumindest im Geiste ja auch der Nachwelt erhalten. So wie Blaise Pascal, der sagte: “„Ich setze auf Gott. Wenn es ihn nicht gibt, dann werde ich das nicht erfahren. Wenn es ihn gibt, dann bin ich angenehm überrascht, daß er doch da ist.”
Soziales Silizium
Hallo Herr Gradl!
Nein, Sie sind nicht allein. Der Horror der allermeisten Eltern ist wohl, dass sie die eigenen Kinder überleben. Und wer so fühlt, will ihnen auch kaum Platz und Nahrung wegnehmen. Was wohl in den nächsten Jahrzehnten beides knapper werden wird, aber das ist ein anderes Thema.
Die Hoffnung/der Plan von Kurzweil unterscheidet sich davon: er geht davon aus, dass sich das Leben im eigenen Körper wohl verlängern lässt. Nicht jedoch, dass er in einem biologischen Körper unsterblich wird. Er hofft vielmehr darauf, seinen Geist auf Festplatte zu backen, und dann virtuell ewig alt zu werden. Mit diesem Gedanken habe ich in dieser Episode gespielt und meine eigenen Ausrufezeichen gesetzt.
Ich kann mir aber vorstellen, dass dies durchaus etwas länger dauert. Und wer weiss, vielleicht haben wir bis dahin auch an anderen Stellen Science-Fiction-Maßstäbe erreicht. Zum Beispiel in der Fortbewegung.