Homo Deus: Gehirn-Upload, Unsterblichkeit, Künstliche Intelligenz

Was ist dran an den Versprechen – oder Horrorszenarien – des Transhumanismus?

Auf Vorschlag eines Kollegen aus der Anatomie will ich ein paar Gedanken über den Transhumanismus zur Diskussion stellen. Dieser Kollege hatte gerade das neue Buch des israelischen Geschichtsprofessors Yuval Noah Harari gelesen: „Homo Deus: Eine Geschichte von Morgen“. Dieses erschien bereits 2015 auf hebräisch, ist inzwischen in acht Sprachen übersetzt und in Deutschland gerade ein Bestseller.

Von Trans-, Post- und Über- und Gottmenschen

Eine These ist, laut besagtem Anatomen, dass es Intelligenz ohne Bewusstsein geben könne. Auf der Wikipediaseite zum Buch finden sich (unter anderem) die weiteren Thesen, beim Humanismus handle es sich um eine Religion, die die Menschen im 21. Jahrhundert dazu motivieren solle, nach Unsterblichkeit, Glück und Macht zu streben. Nun stehe uns mit neuen Technologien eine Ablösung der Menschheit durch einen Übermenschen – oder eben den Homo Deus, den Gottmenschen – mit übernatürlichen Fähigkeiten wie der Unsterblichkeit bevor.

Es geht also um Ideen, die seit Längerem unter den Stichwörtern Transhumanismus oder Posthumanismus diskutiert werden. Ersteres ist das, was den Menschen, so wie er jetzt ist, übersteigt (lat. trans = hinüber); Letzteres das, was nach dem Menschen kommt (lat. post = danach). Solche Vorstellungen, griechisch als hyperanthropos oder lateinisch als homo superior , durchziehen die westliche Ideengeschichte. Am bekanntesten ist wahrscheinlich Nietzsches Übermensch aus seinem Buch „Also sprach Zarathustra“, mit dem der Philosoph möglicherweise eine eigene Religion gründen wollte.

Philosophie trifft Technologie

Nun haben wir es, wenig überraschend, mit Visionen neuer Technologien zu tun. Dabei kann man an den Informatiker und Futurologen Ray Kurzweil denken, demzufolge die baldige Zukunft so anders sein wird, dass wir sie uns vom heutigen Standpunkt aus nicht einmal vorstellen können. An der Universität Oxford sind Transhumanisten in der Form des Future of Humanity Institute auch akademisch verkörpert. Zu dem Hinüber-, Danach- und Übermenschen kommt nun also Hararis Gottmensch.

Dabei lässt sich die These, dass es Intelligenz ohne Bewusstsein geben könne, am einfachsten beantworten: Abgesehen von der Frage, was „Intelligenz“ eigentlich ist, leben die meisten von uns inzwischen im Alltag mit solchen Intelligenzen. Sollte man einen Schach- oder Gocomputer, der die Großmeister besiegt, etwa nicht als intelligent bezeichnen? Oder Routenplaner, die in Sekundenschnelle den besten Weg für alle Verkehrsmittel berechnen? Spamfilter? Algorithmen für Themen- und Freundschaftsvorschläge auf Facebook?

Künstliche Intelligenz

Was sollte Intelligenz bedeuten, wenn diese Systeme und viele andere alle nicht intelligent wären? Die heutige allgemeine Bedeutung ist (laut Duden): die Fähigkeit, abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten. Das wirft wiederum die Fragen auf, was „vernünftig“ ist und was „Denken“; Fragen die ganze Regalmeter füllen.

Lateinisch intellegere ist das Verstehen, das wiederum aus inter und legere zusammengesetzt ist, also aus dem Wählen zwischen (man ergänze: verschiedenen Alternativen). Die genannten Systeme sind dazu in der Lage, zwischen Alternativen zu wählen, und sie tun dies sogar sinnvoll, zum Teil sinnvoller und effizienter als Menschen. In diesem Sinne sind sie intelligent.

Vielleicht zielte die These des Kollegen aus der Anatomie eher auf die Frage, ob es menschliche Intelligenz ohne Bewusstsein geben könne. Meine spontane Gegenfrage: Wozu, wenn doch die künstliche Intelligenz so gut funktioniert?

Gehirn-Upload zur Unsterblichkeit

Damit kommen wir zu dem von manchen Transhumanisten in Aussicht gestellten Gehirn-Upload. Könnten wir so unsterblich werden, indem wir die natürlichen Grenzen unserer biologischen Körper verlassen und uns in verteilte Datenspeicher, in die Cloud speisen lassen?

Ja und nein. Bei näherer Betrachtung ergibt sich meiner Meinung nach eine große Ernüchterung: Wir können auf unendliche Weise, sogar schon heute, Strukturen unserer Körper digitalisieren und abspeichern. Ein Digitalfoto einer billigen Kamera reicht dafür schon. Was haben wir davon? Die Idee der Transhumanisten zielt natürlich nicht auf Strukturen unserer äußeren Erscheinung, sondern unseres Nervensystems.

Wundersame Welt des Gehirns

Allein das Gehirn eines Erwachsenen zählt in etwa 86 Milliarden Nervenzellen. Dazu kommen Billionen Synapsen mit ihren Verbindungen und viele andere Zellen und Stoffe, über die wir heute noch gar nicht so viel wissen. Heutige Scantechnologien, denken wir etwa an die funktionelle Magnetresonanztomographie, reduzieren diese Vielfalt im Sekundentakt auf einige Zehn- bis Hunderttausend Datenpunkte, die sich als Grauwerte darstellen und statistisch auswerten lassen.

Das wird für einen Gehirn-Upload sicher nicht reichen. Ein technologischer Durchbruch, mit dem wir, jedenfalls am lebenden Menschen, in neue Dimensionen vordringen könnten, ist nicht in Sicht.

Molekulare Simulation

Stellen wir uns aber vor, man könnte ein Nervensystem Molekül für Molekül scannen und digitalisieren. Dann hätte man eine Blaupause im Computer. Das ist tatsächlich das öffentlichkeitswirksame Ziel des Human Brain Project, nämlich die Simulation eines ganzen Gehirns auf molekularer Ebene auf einem Supercomputer im Forschungszentrum Jülich.

Ich wette, dass dies nicht gelingen wird, jedenfalls nicht bis 2023, wenn das für zehn Jahre ausgelegte Milliardenprojekt ausläuft. Nicht, dass ich den Kolleginnen und Kollegen den Erfolg nicht gönne, aber ich halte es einfach für technologisch (noch) nicht möglich.

Das Ding und sein Modell

Wahrscheinlich wird man mit irgendeiner Simulation kommen, die bestimmte Strukturen eines Gehirns implementiert, und dies öffentlich als Gehirnsimulation darstellen. Ähnlich verlief das auch mit dem Blue Brain Project Henry Markrams, der ebenfalls Direktor des Human Brain Project ist. Die Wissenschaftspolitiker, die die öffentlichen Gelder bereitgestellt haben, werden Beifall spenden. Sonst müssten sie ja einräumen, dass Sie sich an der Nase herumführen ließen.

Was uns so eine Simulation wissenschaftlich bringen wird, ist eine ganz andere Frage. Ist sie so komplex, wie das echte Gehirn, und das ist ja das Ziel der molekularen Simulation, dann wird sie auch nicht einfacher zu verstehen sein; ist sie von reduzierter Komplexität, dann wird sie eben auch nur ein reduziertes Verständnis ermöglichen. Man denke an das berühmte Zitat des Mathematikers und Kybernetikers Norbert Wiener:

The best material model of a cat is another, or preferably the same, cat.

Ihre ganz persönliche Computersimulation

Aber zurück zum Transhumanismus: Stellen wir uns vor, so ein Gehirn-Upload gelänge eines Tages. Es gäbe also nicht nur Sie, sondern auch eine vollständige Computerrepräsentation von Ihnen im Computer, inklusive aller funktionalen Eigenschaften. Das heißt, sie würde auch irgendetwas „tun“ und nicht nur als Nullen und Einsen im Computer abgelegt sein.

Dieses Ding wäre potenziell unsterblich, wenn man garantieren könnte, dass seine physikalische Realisierung (also unter anderem Speicher- und Prozessorarchitektur) unbegrenzt fortbesteht. (Für eine ähnliche und schließlich transzendentere Vision, die ohne materielle Grundlage auskommt, siehe den Science-Fiction-Roman „Diaspora“ von Greg Egan.)

Wohin mit dem Körper-Ich?

Der springende Punkt ist aber, dass Sie in Ihrem Körper dadurch in keiner Weise verändert sein würden. Es gäbe jetzt Sie und ein Computer-Sie. Ihre biologische Variante würde weiterhin dem natürlichen Zerfall unterliegen und irgendwann sterben; ihre Computerversion würde – unter den genannten Bedingungen – prinzipiell unendlich laufen.

Davon hätten Sie aber nichts, abgesehen davon, dass es vielleicht Ihr Ego tröstet, dass ein Abbild von Ihnen fortbesteht. Überzeugte Jünger des Gehirn-Uploads würden dieses Dilemma vielleicht dadurch lösen, dass sie ihren Körper nach dem erfolgreichen Scan zerstören, nach allgemeinen Vorstellungen also Suizid begehen. Die Entscheidung darüber sollte aber jedem selbst überlassen bleiben.

Zeitloser Ruhm

So stellten sich Künstler und andere Genies vergangener Jahrhunderte Unsterblichkeit vor: durch erlangen zeitlosen Ruhmes. Ein Beispiel hierfür ist Baltasar Graciáns „Criticón“, einer der ersten großen Romane der Neuzeit. In ihm erreichen die beiden Protagonisten, der vernünftige Kritiker und der fehlerhafte Mensch, schließlich die Insel der Unsterblichen. Gracián ist es in diesem Sinne bis heute gelungen, unsterblich zu sein.

Ich halte diese Unsterblichkeit und damit den Gehirn-Upload aber für Augenwischerei eines Egos, das sich nicht mit seiner eigenen Begrenztheit und Endlichkeit abfinden kann. Damit ist aber nicht gesagt, dass Ruhm und/oder das Schöpfen von Kulturgütern kein sinnvolles Ziel eines Menschenlebens sein können; so oder so wird das biologische Substrat, unser Körper, aber zerfallen und werden wir alle, auch die Transhumanisten, eines Tages sterben.

Cyborgs und künstliches Bewusstsein

Ein Zwischenweg könnte allenfalls eine Symbiose aus Biologie und Technologie sein, also echte Cyborgs. Gedankenexperimente, bei denen Zelle für Zelle durch eine funktional gleichwertige Siliziumstruktur ersetzt wird, wurden von Philosophinnen und Philosophen bereits vor Jahrzehnten diskutiert (man denke etwa an David Chalmers).

In diesem Fall würde es jedenfalls prinzipiell keinen Unterschied im Verhalten zwischen Ihnen und Ihrem Cyborg geben. Was das für Ihr Bewusstsein bedeutet, ist eine schwierigere Frage, die auch davon abhängt, was wir unter „Bewusstsein“ verstehen (man denke wiederum an Chalmers und seine berühmten Zombies oder Thomas Metzingers Gedanken über künstliches Bewusstsein).

Nano-, Informations- und Biotechnologie

Inwiefern es sich bei dem Cyborg-Szenario um eine realistische Zukunftsvision handelt, hängt von den zukünftigen Möglichkeiten der Nano- und Informationstechnologie ab. Damit ist freilich noch nichts darüber gesagt, wie vielen Menschen der Übergang in ein Cyborgbestehen offen stehen wird; und ob es sich dann nicht eher um ein Kollektiv halten wird wie bei den Borg von „Raumschiff Enterprise“.

In diesem Szenario sehe ich aber die einzige Variante für echte Unsterblichkeit; ohne Cyborgs könnte man allenfalls noch an biomedizinische Verjüngungskuren denken, die etwa in mehreren von Robert A. Heinleins Science-Fiction-Romanen eine Rolle spielen. Aber auch dann bleibt offen, wer davon profitieren kann. Darauf werde ich am Ende noch zurückkommen.

Der Jungbrunnen (1546) nach Lucas Cranach dem Älteren – ein Vorbild für die zukünftige Biomedizin?

Heute: Enhancement und Gehirndoping

Damit bleibt nur noch die letzte These: Wird es den Über- oder Gottmenschen geben? Und wenn ja, wie wird so eine Gesellschaft dann aussehen?

Sind diejenigen, die heute schon Psychopharmaka oder andere Drogen konsumieren, Transhumanisten? In Medien, Wissenschaft und Philosophie wird deren Verhalten wahlweise als „Enhancement“ oder „Gehirndoping“ beschrieben (Eine Million dopt regelmäßig am Arbeitsplatz).

Besseres Funktionieren oder Erleben?

Geschieht dies zum besseren Funktionieren am Arbeitsmarkt, dann sind diese Konsumenten in meinen Augen eher Präteritummenschen, also Menschen der vergangenen Zeit (von lat. praeteritum = vorübergegangene Zeit, Vergangenheit), wie bei der Amphetamin-Epidemie der 1940er bis 1960er Jahre oder den Frühzeiten der Industrialisierung: Die Körper passen sich an die Regeln der Zeit an (Buchtipps hierzu: Norman Ohlers „Der totale Rausch: Drogen im Dritten Reich“ sowie Nicolas Rasmussens „On Speed: The Many Lives of Amphetamine“).

Geht es hierbei um Bewusstseinserweiterung und „Psychonautik“, dann kann ich das eher als Transhumanismus begreifen, also das Übersteigen des heutigen Menschen; jedenfalls dann, wenn es nicht bloß um Spaß an der Freude geht, sondern um wirklich neues schöpferisches Tun. Streng genommen ist aber auch dies wiederum nicht neu, haben Naturvölker doch schon vor Urzeiten Psychedelika gebraucht und tun dies bis heute, sofern sie nicht durch unsere „aufgeklärten“ Vorfahren ausgerottet wurden.

Die Gesellschaftsordnung entscheidet

Die Frage, wie so eine Zukunft aussehen wird, entscheidet sich für mich weniger an den technologischen Möglichkeiten, als an der Gesellschaftsordnung – und dabei vor allem den Herrschafts- und Besitzverhältnissen. Dafür brauchen wir kritische Geistes- und Sozialwissenschaften, einschließlich Rechtswissenschaft und Ökonomik beziehungsweise Volkswirtschaftslehre, die manche Technophilen ja am liebsten als nutzlos abschaffen wollen (Schlagkräfte Gegenargumente finden sich in Nuccio Ordines „Von der Nützlichkeit des Unnützen“).

Anders formuliert: Schauen wir uns die heutige Gesellschaftsordnung an und die Rolle der Technologie in ihr – und extrapolieren wir dieses Bild in die Zukunft. Gehen wir also nach dem Induktionsverfahren vor, mit allen seinen Fallstricken (man denke an Karl Popper). Ja, wer sagt mir, dass nach einer Million Sonnenaufgängen auch beim einemillionundersten Mal die Sonne aufgehen wird? Niemand. Und doch wird die Sonne höchstwahrscheinlich morgen wieder aufgehen.

Wer besitzt unsere Daten?

Den Besitz an Daten haben heute Großunternehmen, viele davon US-amerikanisch, man denke an Amazon, Apple, Facebook, Google und Microsoft. Gesetze zum Schutze „geistigen Eigentums“ oder von Patenten gelten beinahe weltweit; wo sie noch nicht gelten, werden sie unter anderem über die Regeln der Welthandelsorganisation eingeführt: keine Kredite ohne unser westliches Recht.

Es mag weiterhin einige Glücksritter geben wie Bill Gates, Steve Jobs – mit Grüßen an die Transhumanisten: seine Milliarden konnten ihn nicht vor dem Tode retten; seine Witwe und Erbin ist nun die reichste Frau in der Technologiebranche – oder Mark Zuckerberg, die zur rechten Zeit am rechten Ort auf eine neue Technologiemode aufspringen und damit zu beinahe grenzenlosem Reichtum und viel Macht kommen.

Moderne Manipulation

Diese Milliardäre bieten uns viele Dienstleistungen „gratis“ an. Wir bezahlen mit unseren Daten. Warum? Damit wir berechenbarer werden, zur Zeit vor allem unser Kaufverhalten. Es geht um zielgerichtete Werbung; mitunter aber auch schon die gezielte Beeinflussung bei Wahlen, kurzum: Manipulation von Menschenmassen. Wir zählen nicht als die autonomen Subjekte der Aufklärung, sondern als Käuferinnen und Käufer von Produkten.

Diese Technologien bieten uns damit keine Befreiung oder Empowerment, sondern Unterwerfung, die wir nicht als solche Wahrnehmen, weil wir die Werte der Konsumgesellschaft verinnerlicht haben. Zum Vergleich: Einen Großteil des Lebens für die Karriere zu Opfern, wird von vielen Feministinnen heute als Emanzipation verkauft (Werbung für den Karrierefeminismus). Warum? Weil Karriere mit Sinn und Erfolg im Leben gleichgesetzt wird. Philosophen aristokratischer Herkunft sahen in Erwerbsarbeit dagegen eine Form von Sklaverei.

Von Daten zur Haftung

Ein aktuelles Beispiel ist die Automatisierung und Digitalisierung von Autos. Der derzeit diskutierte Gesetzesentwurf der Bundesregierung zieht noch nicht einmal in Betracht, dass die gesetzlich aufgezeichneten Fahrdaten den Fahrzeuginhabern gehören könnten – zur Diskussion stehen allein die Auto- und Softwarehersteller.

Natürlich können und werden solche Daten bei Haftungsfragen gegen die Fahrerinnen und Fahrer verwendet werden. Wieder bestimmen Gesetze, Lobbygruppen und Herrschaftsverhältnisse die Folgen einer Technologie. Diejenigen, die die Daten mit ihrem Verhalten produzieren, werden noch nicht einmal gefragt.

Vom Jetzt zur Zukunft

Warum also in aller Welt – das ist meine Frage an die Transhumanisten und die Schlussfolgerung des Induktionsverfahrens – sollten die Technologien der Zukunft in einer anderen und vor allem besseren Weise verwendet werden als dies heute der Fall ist, unter unseren heutigen Gesellschaftsbedingungen?

Vielleicht wird es Übermenschen geben; höchstwahrscheinlich wird der Großteil der Menschheit dann aber Untermensch sein, ob man sie so nennt oder (politisch korrekt) nicht. Wenn es also eines Tages Gottmenschen geben wird, die Harari in seinem „Homo Deus“ andenkt, werden fast alle anderen Menschen… wie sollen wir sie nennen? Vielleicht Sklavenmenschen sein.

An dieser Schlussfolgerung wird sich meiner Meinung nach so lange nichts ändern, wie sich an den Herrschafts- und Besitzverhältnissen nichts Grundlegendes ändert.

Zweite Natur ist menschengemacht

Gesetze sind von Menschen gemacht. Geld, geistiges Eigentum, auch Eigentum überhaupt, sind keine natürlichen Kategorien, sondern soziale Konstrukte. Sie beruhen auf menschlichen Entscheidungen und kulturell eingebettet, so zu unserer zweiten Natur geworden.

Vielen fällt das nur nicht auf, weil sie keine andere Welt kennen; und sie sich auch nicht vorstellen können.

Ich bestreite nicht, dass soziale Konstrukte großen Nutzen haben können. Ich bin auch dankbar für den Schutz meiner Person, meiner Wohnung und so weiter. Dass sie Menschen auf ganz unterschiedliche Weise nutzen können, wird mitunter aber zum Problem. In diese Gesellschaftsordnung werden die Technologien geboren – und fügen sich in mögliche Strukturen von Über-, Herren- und Gottmenschen auf der einen und Unter- und Sklavenmenschen auf der anderen Seite ein.

Daher werden nicht die Technologien, sondern die sozialen Strukturen entscheiden, ob die transhumanistische Vision als eine Utopie, ein Paradies auf Erden, oder eine Dystopie, eine Hölle für die Meisten, wirklich wird.

Hinweis: Dieser Beitrag erscheint parallel auf Telepolis – Magazin für Netzkultur.

Veröffentlicht von

www.schleim.info

Menschen-Bilder: Mensch, Gesellschaft und Wissenschaft Stephan Schleim blickt über den Tellerrand von Psychologie sowie Hirnforschung und diskutiert, was die Forschungsergebnisse eigentlich bedeuten. Besondere Aufmerksamkeit erhält dabei die Frage, wie sich Gesellschaft und Wissenschaft zueinander verhalten. Stephan Schleim hat an den Universitäten Mainz und Frankfurt u.a. Philosophie, Informatik und Psychologie studiert (Magister Artium, 2005). Nach einem Praktikum am Max Planck-Institut für Hirnforschung und einem Forschungsbesuch am California Institute of Technology ging er an die Universitätskliniken Frankfurt und Bonn, wo er mit der funktionellen Magnetresonanztomographie (fMRT) moralische und juristische Entscheidungen untersuchte. Sein ausgeprägtes theoretisches und ethisches Interesse führte zu mehreren Publikationen im Bereich der Neurophilosophie und Neuroethik. Am Institut für Kognitionswissenschaft in Osnabrück wurde er 2009 mit seiner Doktorarbeit "Norms and the Brain" promoviert. Seit Oktober 2009 war er Forscher in der Abteilung für Theorie und Geschichte der Psychologie an der Universität Groningen, seit 2010 als Assistant Professor für Theorie und Geschichte der Psychologie. Vom Oktober 2012 bis März 2013 war er Professor für Neurophilosophie an der Ludwig-Maximilians-Universität München. Seit 2015 ist Stephan Schleim Associate Professor in Groningen. Der Forscher und Autor ist auch als Wissenschaftsjournalist aktiv, veröffentlicht in verschiedenen deutschsprachigen Medien mit Übersetzungen ins Italienische, Niederländische und Portugiesische. 2008 erschien sein erstes Buch "Gedankenlesen – Pionierarbeit der Hirnforschung", 2011 sein Buch "Die Neurogesellschaft – Wie die Hirnforschung Recht und Moral herausfordert." Ausgewählte Beiträge erscheinen auch auf Telepolis – Magazin für Netzkultur, für das Stephan Schleim seit vielen Jahren schreibt.

60 Kommentare Schreibe einen Kommentar

  1. Gilgamesch strebte vor 5000 Jahren nach Unsterblichkeit und ist somit eines der (Zitat)Egos, das sich nicht mit seiner eigenen Begrenztheit und Endlichkeit abfinden können.
    Von allen Cyborg- und Transhumanisten-Visionen sind diejenigen für uns die interessantesten und erstrebenswertesten, die uns die Erfüllung jahrhundertealter menschlicher Wünsche, versprechen. Dazu gehört der Wunsch nach einem (sehr) langen Leben in einem immer gesunden Körper und ausgestattet mit einem kaum je an seine Erkenntnisgrenzen stossenden Geist.
    Zukünftige Technologie kann diese Wünsche eventuell erfüllen, sie kann aber auch den Menschen obsolet machen und gar durch etwas anderes ersetzen.
    Damit Technologie dem Menschen aber gefährlich werden kann muss sie mehr als intelligent sein – sie muss eigene Intentionen entwickeln und diese Intentionen dann auch in die Tat umzusetzen versuchen. Ja man kann sogar spekulieren, dass jedes intelligente Wesen, das eigene Absichten und Vorstellungen entwickelt dem Menschen gefährlich werden kann. Von solchen Wesen sind wir aber trotz heute schon zu beobachtenden intelligenten Leistungen noch weit entfernt.

  2. @Holzherr: gefährliche Technologien

    Nunja, eine Atombombe muss nicht erst eigene Intentionen haben, um dem Menschen gefährlich werden zu können (man denke etwa an die Terminator-Filme).

    Dazu gehört der Wunsch nach einem (sehr) langen Leben in einem immer gesunden Körper und ausgestattet mit einem kaum je an seine Erkenntnisgrenzen stossenden Geist.

    Dann finde ich es interessant, dass die Lebenserwartung in manchen Bereichen schon wieder fällt, trotz wissenschaftlichen Fortschritts und Wirtschaftswachstums.

    Auch Gesundheitstechnologie ist eben gesellschaftlich eingebettet.

    • Eine Atombombe wird immer von Menschen gezündet, ein menschenähnliches künstliches Wesen aber kann eigene Absichten entwickeln, die unvorhersehbar sind – genau wie heute schon jemand ein Terrorist werden kann ohne dass man dies voraussah.

    • Zitat:Dann finde ich es interessant, dass die Lebenserwartung in manchen Bereichen schon wieder fällt. Um jung und gesund 120 Jahre oder älter zu werden genügt eine gesunde Lebensführung nicht, dafür braucht es massive Interventionen ins Erbgut und Gesundheitssystem des Individuums. Der bekannteste Longevity-Guru, Aubrey de Grey, benennt 7 Eingriffspunkte (Behebung chromosomaler und mitochondrialer Mutationen, Enfernung von Junk, Verhinderung zellulären Verlusts, Entfernung seneszenter Zellen, Verhindern von unerwünschten Proteinverlinkungen).Die Forschung dazu wird momentan von 7 Milliardären (darunter facebooks Zuckerberg, die Google-Gründer, der Amazon-Gründer, Bill Gates ..) finanziert.

  3. Vielen Dank für die in Ihrem Beitrag erwähnten Buchtipps.
    Eine Anmerkung allerdings: In ‚Homo Deus‘ betont der Autor wiederholt, dass die technische Realisierung des Gottmenschen im Rahmen unserer derzeitigen gesellschaftlichen Situation nur einer kleinen Elite zugute kommen würde und die aktuelle Schere zwischen Arm/Reich bzw. Macht/Machtlosigkeit nur noch stärker ausweitet. Harari argumentiert dies auch in einem historischen Rahmen, was nicht verwundern sollte, da der Autor von Haus aus Historiker ist, also einer ‚unnützen‘ Fachgruppe angehört.

  4. Gehirn-Upload macht in der Tat wenig Sinn für ein sich uploadendes Individuum, denn der Upload ist im besten Fall eine gute Kopie – nicht aber das Original.
    Gehirn-Upload erhält aber den Hinterbliebenen eine Kopie, die sie eventuell kaum vom Original unterscheiden können. Schon heute gibt es Millionäre, die sich ihr geliebtes Haustiere (ein Hund oder eine Katze) haben klonen lassen. Die Alternative zum Gehirn-Upload wäre der humanoide Roboter, der genau gleich aussieht und sich genau gleich verhält wie das Original. In der TV-Serie Black Mirror gibt es eine Vision davon unter dem Titel „Wiedergänger“. Digitale Artefakte die als Memento nach dem Tod des Originals weiterexistieren gibt es ansatzweise schon heute über entsprechende Programme auf den sozialen Medien.

  5. Na,

    erstmal vielen Dank vom „besagten Anatomen“.
    (Oder „betagten Anatomen“? – Ach … die Sterblichkeit …)

    Mir will die Inzweisetzung von Intelligenz und Bewusstsein nicht so recht in den Kopg, ohne dass ich sie aber gleich in Eines setzen will. Du schreibst, dass es „intelligent“ / „vernünftig“ sein, „sinnvolle“ Entscheidungen zu treffen, da hast Du schon wieder den Sinn drin, den ich mir schon wieder nicht bewusstlos vorstellen kann.

    Ich dacht‘ mir halt, dass es so etwas wie eine Schnittmenge von Intelligenz und Bewusstsein gibt, und hätte dafür gerne den Ausdruck „Intentionalität“ gewählt – das Bewusstsein weiss, dass es von etwas handelt, weiss, dass das, womit es sich abgibt, immer einen Aspekt des Bezogenseins hat. Und Intelligenz, sofern sie nicht einfach nur leerlaufende logische Operation sein will (also „sinnvoll“ in Deinen Worten sein soll) braucht ja auch einen solchen intentionalen Bezug – und wenn’s die Gesetze der Logik selbst sind, die ihren Operationen den SInn (oder Unsinn) stiften.

    Nun ist’s halt notorisch schwierig, intentionale Zustände an jemandem anders als sich selbst zu erleben, und „Bewusstsein“ UND „Intelligenz“ wären nach dem, was ich gerade schrieb, BEIDE etwas, was man Maschine und Mitmensch (-geschöpf) nur a la Turing-Test zuschreiben kann.

    Andersherum: Sollte „Intelligenz“ tatsächlich der völlig intentionslose Vollzug logischer/algorithmischer Operationen sein, dann ist mir wiederum völlig schleierös, wie man – als Transhumanist – so etwas als „Erlösung“ verkaufen kann. „Deus Rechenmaschine“ um des Rechnens und Rechnen bis in alle Ewigkeit und zu den Rändern des Universums? Da hätt‘ ich mir die Überwindung des Elends des Menschseins aber anders vorgestellt.

  6. Zunächst einmal möchte ich den Autor loben, dass er ein so ketzerisches Thema wie Transhumanismus aufgegriffen hat und einer breiteren Öffentlichkeit zugänglich macht. Auch inhaltlich ist der Blogpost gelungen, spannt er doch einen Bogen von der Antike, über die Aufklärung bis zum Human Brain Project. Ein wenig Kritik sei aber dennoch gestattet: und zwar fällt es schwer, einen Anknüpfungspunkt zu entdecken. Also die konkrete Frage des OP auszumachen, die man beantworten kann, richtigstellen oder weiterrecherchieren kann. Mir fehlt ein wenig der Bug den es zu fixen gilt. Machen wir es konkreter: angenommen, jemand versucht gerade mit Biotinte ein menschliches Gehirn zu drucken, weiß aber nicht so richtig wie das mit den Synapsen gemacht wird. Dann wäre das ein Punkt den man zur Diskussion stellen könnte, wo vielleicht jemand Rat weiß.

    • Machen wir es konkreter: angenommen, jemand versucht gerade mit Biotinte ein menschliches Gehirn zu drucken, weiß aber nicht so richtig wie das mit den Synapsen gemacht wird. Dann wäre das ein Punkt den man zur Diskussion stellen könnte, wo vielleicht jemand Rat weiß.

      Sischer.

      Erst einmal stellt sich die Frage, ob die Welt, eine Welt, diese Welt serialisierbar (das Fachwort) ist.

      Dies geht nur, wenn ein System zu einem bestimmten Abfrage- oder Zeitpunkt als Ganzes erfasst werden kann ohne dass Inhalt verloren geht.
      In den Systemen der Formalwissenschaft ist dies notwendigerweise so, schlicht deshalb, weil nicht anders gedacht (und idF implementiert) werden kann.
      Insofern funktionieren Anwendungen der IT.

      Mal angenommen diese Welt sei serialisierbar, dann könnte sich diese Welt in jeweiligem eindeutig vorhandenen Zustand auf Lochstreifen (das Fachwort) vorgestellt werden, die auf Rollen in einem geeignet großen Raum abgelegt werden könnten.
      Wobei geeignete Gerätschaft mal diese oder jene (vorherberechnete) Rolle einlegt und sich so sukzessive die Welt ergibt.
      Ein extra-großes Rollenlager vorausgesetzt.

      Terry Pratchett hat in diese Richtung gedacht, ‚Thief of Time‘ (2002) geht zumindest in diese Richtung.


      Glücklicherweise, womöglich, kann das hier gemeinte erkennende Subjekt, der hier gemeinte Primat, als Weltteilnehmer (vs. Weltbetreiber) nur dbzgl. ausschnittsartig, näherungsweise und an Interessen (!) gebunden erfassen.
      Insofern geht hier i.p. Serialisierung per se gar nichts.


      Insofern kann Transhumanität nur Abomination bedeuten, weil nicht gewusst werden kann, was gemacht worden ist.
      I.p. „Gen-Reis“ und so bleibt Dr. W vglw. locker, weil hier Risk-Reward-Überlegungen vglw. zuverlässig greifen, politisch letztlich.
      Ansonsten könnte sozusagen schon die nächste „Gen-Kartoffel“ die letzte sein, gerne : zeitversetzt.

      MFG
      Dr. Webbaer

  7. „Intelligenz ohne Bewusstsein“ ist eine falsche Fährte. Beim Transhumanismus geht es um bewusste und intelligente Wesen, um Personen also. Entweder Personen, die immer noch Menschen sind oder aber um Personen, die wie Menschen denken und handeln können, die aber rein künstlich, genmodifiziert oder ein Amalgam von Mensch und Maschine sind.
    Den Begriff „Bewusstsein“ würde ich generell vermeiden, weil er von vielen Philosophen und Geisteswissenschaftlern mit allen möglichen Projektionen aufgepumpt worden ist.

  8. Sehr solide Analyse, sehr schön auch die Bearbeitung der Begrifflichkeit, sehr schön auch das Verständnis bestimmter Dienste des Webs.

    Beim Gehirn-Upload und dem sog. Human Brain Project muss Dr. Webbaer immer ein wenig lachen, denn die näherungsweise, ausschnittsartige und an Interessen (!) gebundene Erfassung eines Hirns und dessen idF sozusagen wilde Bedienung dieses Substrats mit Hilfe von Rechnern ist ganz eindeutig ein Vorhaben für die anderen.

    Sie, lieber Herr Dr. Schleim, haben einen verdammt schwierigen Job, den Sie, wie einige meinen, besonders gut philosophisch ausfüllen und dabei darauf verweisen, was nicht geht.

    Daher werden nicht die Technologien, sondern sie sozialen Strukturen entscheiden, ob die transhumanistische Vision als eine Utopie, ein Paradies auf Erden, oder eine Dystopie, eine Hölle für die Meisten, wirklich wird.

    Kollekt! Äh, korrekt! – ‚die sozialen Strukturen‘ ginge natürlich ebenfalls.

    MFG + schöne Woche noch,
    Dr. Webbaer

  9. Zitat: die sozialen Strukturen [werden] entscheiden, ob die transhumanistische Vision als eine Utopie, ein Paradies auf Erden, oder eine Dystopie, eine Hölle für die Meisten, wirklich wird.
    Stimmt, ist allerdings zu kurz gedacht. Im Transhumanismus, insbesondere aber der Singularität, steckt die Idee, dass etwas Grösseres kommt als wir es jetzt sind. Dieses Grössere, Mächtigere könnte uns Oldtimer glatt wegwischen, so wie der Homo sapiens wahrscheinlich den Neandertaler und einige andere Hominiden (z.B. die Denisova) verdrängt oder gar eliminiert hat. In einer Welt aber, in der es uns Alt-Menschen nicht mehr gibt, hat die Rede von den sozialen Strukturen keine Bedeutung mehr, denn ohne uns (Alt-)Menschen gibt es auch keine menschlichen sozialen Strukturen mehr.

    Die Idee der Singularität (dem Umwälzpunkt an dem sich alles ändert) gehört zu einer Auffassung vom Menschenschicksal, in dem wir einer Zukunft zustreben, die wir nicht kennen, sondern die wir erfahren werden und zwangsweise annehmen müssen. Das entspricht durchaus den Erfahrungen, die wir aus unserer Geschichte kennen. Nichts von dem was gekommen ist war vorausgeplant – weder der Imperialismus, noch die Industrialisierung, noch das dritte Reich. Es stimmt zwar, dass beispielsweise die Industrialisierung von Menschen geschaffen wurde, doch erst als die Voraussetzungen dafür da waren – und dann geschah es quasi von alleine. Von alleine in dem Sinn, dass jeder, der die Mittel dazu hatte, bei der Industrialsierung mitmachen und sie gestalten konnte, doch immer galt, dass wenn man selber nicht mitspielte, es einfach jemand anders war, der diese Rolle einnahm.

    Ideen wie der Transhumanismus oder die Singularität gedeihen allerdings besonders gut in einer globalisierten Welt. Dieses Denken in einer Weltkultur und Weltzivilisation, die sich weiterentwickelt, die alles ergreift und schliesslich alles umwälzt, bedeutet letztlich aber auch, dass die Menschheit alles auf eine Karte setzt. Wenn die Singularität zu etwas Gutem führt, dann fürt sie in dieser globalen Sicht zum Paradies auf Erden, wenn sie aber den Menschen überflüssig macht und ablöst, dann löst sie ihn auf der ganzen Erde ab.
    Eine globale Sicht erscheint heute vielen und gerade den Gebildeten als etwas besseres als das frühere lokale, regionale oder gar nationale Denken. Nicht bedacht wird dabei, dass ein Irrtum besonders schlimm ist, wenn davon die ganze Menschheit betroffen ist. Es ist kein Zufall, dass es in der Biologie nicht nur ein oder ein paar wenige Super-Lebewesen, sondern eine sehr grosse Vielfalt von Lebewesen gibt. Vielfalt ist eine Versicherung gegen ein Totalversagen. Anstatt eine Singularität anzustreben, die das Leben aller zwangsläufig verändert sollten wir eher eine Zukunft anstreben, in der es viele Optionen gibt. Die Option ein Alt-Mensch (homo sapiens sapiens laborans) zu bleiben oder aber ein Transhumaner zu werden. Eine gewaltsame Umformung jedenfalls sollten wir vermeiden. Das heisst, dass niemand und nichts die Macht bekommen sollte, das Schicksal aller Menschen nach seinem Gutdünken zu ändern.

  10. @Holzherr: naiv / Atombombe

    Eine Atombombe wird immer von Menschen gezündet…

    Haben Sie vielleicht von den Atomkatastrophen in Tschernobyl oder Fukushima gehört? Kernspaltungen können auch ohne menschliches Zutun in Gang gesetzt werden.

    Es gab in jüngerer Zeit auch Fehler beim Bestücken von Flugzeugen mit Atomsprengköpfen. Wenn so eines in Ihrer Wohngegend abstürzt…

  11. @Holzherr: langes Leben

    Tja, wird Geld allein reichen?

    Im Land dieser Milliardäre, von denen Sie schreiben, die Geld dafür bezahlen, dass wir (wirklich wir? oder nur sie?) 120 Jahre alt werden, gibt es inzwischen Landkreise mit einer Lebenserwartung wie im Sudan.

    Merke: Nicht alle Probleme lassen sich biomedizinisch lösen.

    Merke 2: Dass Milliarden allein nicht reichen, sehen wir z.B. in der Krebsforschung oder der neuropsychiatrischen Forschung. Trotz immenser Gelder sind die Erfolge… eher bescheiden.

    • Zitat:„Nicht alle Probleme lassen sich biomedizinisch lösen.“ Der biomedizinische Ansatz kann aber Grenzen überwinden, die ein sozialer/gesellschaftlicher Ansatz niemals überwinden kann. Dafür gibt es viele Beispiele. Bildlich gesprochen bleibt ein Wolf immer ein Wolf und ein Esel bleibt ein Esel. Die höchste Stufe, die ein Wolf erreichen kann ist die des Rudelführers, die höchste Stufe, die eine Gesellschaft erreichen kann ist die einer demokratischen, partizipativen Gesellschaft. Doch nach einer Aussage Jesus im neuen Testament wird es in jeder auch zukünftigen Gesellschaft Arme geben.
      Biologische Grenzen schliesslich lassen sich prinzipiell nicht überwinden – ausser man ändert die Biologie. Beispiel: Menschen werden grundsätzlich nicht älter als 120 Jahre, der Grönlandhai aber kann mehrere hundert Jahre alt werden. Die Longevity-Forschung will die biologischen Grenzen verschieben. Erste Forschungserfolge gibt es. So wurde ein (oder gar mehrere) Medikamente entwickelt, das die seneszenten Zellen entfernt. Damit werden mehrere Alterserscheinungen beseitigt und bei Mäusen ist gar eine Lebensverlängerung bis 20% zu beobachten.

  12. @Helmut: Intelligenz, Intentionalität, Bewusstsein

    Lieber Helmut, ich wollte es dir überlassen, den Namen hinter „dem Anatomen“ (ob er nun besagt ist, betagt oder sonst etwas) zu lüften.

    Zu deinen Fragen:

    Bei „sinnvoll“ (durchdacht, zweckmäßig, vernünftig) handelt es sich meines Erachtens um eine externe Zuschreibung. Sinnvoll nennen wir etwas, das wir von außen nachvollziehen können.

    Nehmen wir einmal an, ich würde am Bahnhof Rosenblätter verstreuen, um meine Silberfischplage zuhause zu bekämpfen. Das würden wir wohl nicht als sinnvoll betrachten (wieso Rosenblätter? wieso am Bahnhof?). Dabei könnte ich aber z.B. an einer Wahnvorstellung leiden und denken, in einer Ritze am Bahnhof wohne der Silberfischgott, den ich durch Opfern von Rosenblättern beschwichtigen kann. Das heißt, es könnte mir subjektiv als äußerst sinnvoll erscheinen.

    Bei Intentionalität könnte es ganz ähnlich zugehen.

    Diese ist, etwa nach Brentano, erst einmal Zielgerichtetheit und
    nicht nur absichtsvolles Handeln.

    Daniel Dennett hat mit seinem Entwurf der „Intentional Stance“ (meine Studierenden müssen das immer noch lernen) den Vorschlag gemacht, dass wir von Intentionalität reden, wenn wir ein Verhalten nicht auf der physikalischen oder algorithmischen Ebene erklären können.

    Das Verhalten eines Schachcomputers könnte in diesem Sinne durchaus intentional sein; aber auch zielgerichtet: denn er berechnet ja Züge, um zu gewinnen. (Daran ändert nichts, dass die Algorithmen zur Berechnung der Züge, die Spielregeln einschließlich der Zielbedingungen einprogrammiert sind. Beim Menschen nennen wir so etwas „lernen“.)

    Die größte Herausforderung sehe ich beim Bewusstsein. Was künstliches Bewusstsein bringen soll, sehe ich erst einmal nicht; vielleicht (oder wahrscheinlich) gibt es bestimmte kognitive Vorgänge, für die Bewusstsein erfoderlich ist (man denke an Reflexion). Ob solche Systeme im Vergleich zu den im Text beschriebenen „intelligenten Systemen“ in der Praxis relevant werden und dann ganz neue (ethische) Probleme aufwerfen, ist eine offene Frage.

    (Das allgemeine philosophische Thema hinter deinen Fragen und meiner Antwort ist, dass es Eigenschaften gibt (wie intelligent, sinnvoll aber auch verantwortlich, schuldig…), die wir unter bestimmten Voraussetzungen Entitäten in der Welt zuschreiben und nicht schlicht in der Welt sind, wie etwa unsere Sonne.)

    • Lieber Stephan,

      danke.

      Wir sind uns, glaub‘ ich, eigentlich (fast) einig, nur würd‘ ich eben „sinnvoll“, „bewusst“ und „intelligent“ und „intentional“ nicht (ausschliesslich) als Zuschreibungen fassen/definieren wollen, sondern erstmal als Selbsterlebtes, das man – im zweiten Schritt – den anderen Akteuren auch zubilligt, wenn ihr Verhalten entsprechend ist.

      Da bin ich dann halt wieder in meiner alten idealistischen Falle, die stets das Subjekt und das „principium individuationis“ (mit Schopenhauer zu sprechen) schon voraussetzt. Andererseits – und da wird’s transhumanistisch auch schoin wieder spannend – könnte man ja die „Migration der Bewusstseine“ auf abiotische Plattformen (des Kurzweils „Singularität“) auch als ein Versprechen verstehen, das Elend der Individuation zu überwinden, vielleicht könnte man wirklich eins mit anderen werden. Vielleicht auch nur mal spasseshalber, temporär. Statt (lyrisch/metaphorisch) in die Seele der Geliebten hinabzusinken, könnet man womöglich mal einen gemeinsamen Upload auf einen grossen Chip probieren, um zu erfahren, wie sich das anfühlt …

      • Der gemeinsame Upload nützt den unten gebliebenen Liebenden direkt nichts, denn upgeloadet werden Kopien. Allenfalls könnten die upgeloadeten Kopien den unten gebliebenen mitteilen, was sie erlebt haben. Noch besser wäre ein Transfer dessen was die upgeloadeten erlebten zurück ins Hirn der unten Gebliebenen.
        Ein Variante wäre der Upload mit Vernichtung der Originale. Das wäre in Zukunft vielleicht auch ökonomischer, denn in den Computer Upgeloadete verbrauchen nur etwas Strom, keine Nahrung und kein Haus und sie können ausgedehnte Reisen in fast Lichtgeschwindigkeit unternehmen – beispielsweise mittels eines Transatlantikkabels, das ihre Bits übermittelt.

  13. @Xiaolei Mu: Homo Deus

    Danke für Ihren ergänzenden Hinweis.

    Ich hatte in einer ursprünglichen Fassung drei oder gar vier Absätze darüber geschrieben, warum ich das Buch nicht selbst gelesen habe und auch nicht tun werde. Am Ende schien mir das aber von den wichtigen Thesen abzulenken.

    Dass der Autor dieses Problem – den ungleichen Zugang zu Verbesserungstechnologien – ebenfalls sieht, beruhigt mich (mit Blick auf den Autor; mit Blick auf die Zukunft ist es natürlich eher beunruhigend).

  14. @Manuel Rodriguez: Bugfix

    Erst einmal sollte man das Objekt, das es zu simulieren/kopieren gilt, vollständig beschreiben können.

    „Das Gehirn“ wird wohl nicht reichen; vielleicht nocht nicht einmal das Nervensystem, sondern ein ganzer Körper.

    An dieser Stelle im Text habe ich versucht, dies zu verdeutlichen:

    Allein das Gehirn eines Erwachsenen zählt in etwa 86 Milliarden Nervenzellen. Dazu kommen Billionen Synapsen mit ihren Verbindungen und viele andere Zellen und Stoffe, über die wir heute noch gar nicht so viel wissen.

    Mit anderen Worten: Es gibt noch so viele offene Fragen zur Funktion des Nervensystems, Zelltypen, über deren Arbeit wir nur unvollständiges Wissen haben (Beispiel: haben die Gliazellen wirklich nur versorgende Funktionen oder sind sie nicht vielleicht auch an kognitiven Aufgaben beteiligt?), dass es mir absurd scheint, an einen Gehirn-Upload zu denken.

  15. @Stephan Schleim / Molekulare Simulation

    »Das ist tatsächlich das öffentlichkeitswirksame Ziel des Human Brain Project, nämlich die Simulation eines ganzen Gehirns auf molekularer Ebene auf einem Supercomputer im Forschungszentrum Jülich.«

    Im HBP Werbeprospekt (Report to the EU Comission, April 2012) werden zwar Simulationen auf molekularer Ebene in Aussicht gestellt, aber, wenn man genau hinschaut, eher nicht bezogen auf das Gesamtkunstwerk. So ist da auf p. 23 die Rede von “molecular level models of cells, synapses and small areas of the brain,” während das Grosse und Ganze letztlich wieder unter der Annahme stattfindet, dass — sinngemäss — die Kuh eine Kugel ist.

    »Wahrscheinlich wird man mit irgendeiner Simulation kommen, die bestimmte Strukturen eines Gehirns implementiert, und dies öffentlich als Gehirnsimulation darstellen.«

    Klar, irgendwann wird eine Pressekonferenz stattfinden, wo irgendwer verkündet: “We did it!” Das gehört sich so. Die EU will schliesslich kein Flagship, das womöglich an die fehlkonstruierte Vasa denken lässt, die anno 1628 gerade mal 1300 Meter schaffte, bevor sie sang- und klanglos versank.

  16. @Chrys: Brain Simulation

    Wie üblich, von dir wieder ein guter und wichtiger Kommentar.

    Was du zitierst, ist aber nur ein erster Schritt, der, wenn men weiterliest, zu Folgendem führen soll:

    The platform would provide researchers with modelling tools, workflows and simulators allowing them to integrate very large volumes of heterogeneous data in multi-scale models of the mouse and the human brains, and to simulate their dynamics. (p. 23)

    Noch etwas weiter heißt es dann:

    These models should lead towards models of whole mouse and human brains, mixing simple and detailed neuron models. (p. 39)

    Und in sehr ähnlicher Weise noch einmal eine Seite weiter:

    These should lead to models of whole mouse and human brains, which would exploit the platform’s multi-scale capabilities. (p. 40)

    In der Abbildung darüber ist dann gezeigt, dass es bis zum Ende des Projekts möglich sein soll:

    …to build & simulate multiscale models of the human brain (p. 40)

    Die Crux ist, soweit ich das sehe, dass natürlich der Begriff der Simulation oder des Modells unspezifiziert ist. Ich kann auch sagen, meine Mikrowelle sei ein Modell für ein Menschengehirn, weil darin Wärme entsteht (das passiert auch im Gehirn). Unter allgemeinen Gesichtspunkten wäre das aber ein äußerst beschissenes Modell.

  17. @Helmut: Erfahrung vs. Zuschreibung

    …nur würd‘ ich eben „sinnvoll“, „bewusst“ und „intelligent“ und „intentional“ nicht (ausschliesslich) als Zuschreibungen fassen/definieren wollen, sondern erstmal als Selbsterlebtes…

    Hmm, guter Punkt.

    In meinem Silberfischbeispiel, in diesem Wahn, würde mir mein eigenes Verhalten als äußerst sinnvoll erscheinen; aber ist Sinnvollheit ein Erleben? (Und schrieb nicht Harari selbst im Homo Deus, Menschen würden Sinn erst in die Welt legen?) Und wie verhält sich dieses Erleben dann zur Zuschreibung, die das Verhalten eben als nicht sinnvoll ansieht?

    Jetzt sagst du: Schauen wir vom Subjekt aus.

    Je mehr ich mich ins Subjekt vertiefe, desto mehr gewinne ich den Eindruck, dass wir über Erfahrungen nur sehr beschränkt sprechen können.

    Die Schlussfolgerung könnte damit sein:

    Das, worüber wir sprechen, gibt es gar nicht „wirklich“; und das, was wir wirklich erleben, darüber können wir kaum sprechen.

    Das klingt vielleicht pessimistisch, ist es aber gar nicht; denn Erlebnisse können wir haben (und genießen), ohne sie in Worte zu fassen; dann vielleicht sogar viel besser!

    • Für den Idealisten wird halt umgekehrt ein Schuh draus:

      Dass ich als Subjekt jetzt in diesem Moment gewisse (intentionale) Bewusstseinszustände an mir erlebe, ist die allergewisseste, sicherste, selbstverständlichste, unhintergehbarste, am wenigsten bezweifelbare Wahrheit, die es gibt.

      Und auf diesem Stein – um es mit einem Zitat von Jesus zu sagen – ist halt die Kirche des Idealsimus errichtet.

      Das Fundament scheint mir tragfähig, das Gebäude (ab einer Bauhöhe, die über den Solipsismus hinausgeht) wird (wie alle -ismen) dann aber irgendwann doch wackelig.

  18. @Stephan Schleim

    Nun ja, manche mögen es für Multi-Scale Models halten, andere eher für eine Art von Etikettenschwindel.

    Apropos bescheidenes Modell. Durchbruch beim Künstlichen Leben? (Telepolis, 27. Dezember 2013):

    Das Openworm-Projekt berichtet von einem Durchbruch. Es sei erstmals gelungen, einen simulierten Wurm in Bewegung zu versetzen. […] Die kurze Bewegung dauert gerade einmal ein Drittel einer Sekunde, frisst aber 72 Stunden für die Computerverarbeitung, was wiederum zeigt, wie komplex Leben ist.

    Ja, das Leben ist schon ziemlich komplex. Nach meinem laienhaften Eindruck ist der Durchbruch dann einstweilen doch noch ausgeblieben, oder habe ich da was verpasst?

  19. @Brain Simulation
    Nach meinem Verständnis steckt hinter dem HBP etwas mehr als Etikettenschwindel. Ein zentrales Problem, was die Macher des Projektes umgehen möchten, sind die hohen experimentellen Hürden an lebenden Nervengewebe, die dem tieferen Verständnis neuronaler Aktivität im Weg steht.
    Die derzeitigen experimentellen Methoden in der Neurobiologie lassen sich grob in zwei Gebiete einteilen
    1. Die makrokopischen Methoden, unter denen die Hirnscans (fMRI u.a.), aber auch das EEG fallen. Vorteil ist ein globales Abbild der Hirntätigkeit. Nachteil ist geringe Auflösung (wenn es sich um ein bildgebendes Verfahren handelt ) und kaum qualitative Aussagen über die zellbiologische Natur der Hirnaktivität.
    2. Mikroskopische Methoden die meist unter dem Begriff der Elektrophysiologie zusammengefasst werden. Darunter fallen Methoden wie patch-calmp, voltage-clamp, Ableitungen durch scharfe Elektroden etc. Vorteile sind den Hirnscan Methoden genau entgegengesetzt und die emprische Datenerhebung beschränkt sich oft nur auf eine einzige Nervenzelle oder im Falle des patch-clamps sogar auf ein beschränktes Areal einer Nervenzelle. Sie sind außerdem im Gegensatz zu Hirnscan Methoden stark invasiv.
    Zwischen diesen beiden methodischen Extremen gibt es natürlich noch einen gewaltigen Zwischenraum und nach meinem Wissen handelt es sich hier immer noch um experimentelles terra incognita. Ich möchte hier nicht detailiert auf die technischen Schwierigkeiten eingehen, aber ein zentraler Faktor, weshalb die Forscher die äußerst geringe Reichweite (eine bis eine Handvoll Zellen) der elektrophysiologischen Methoden nicht signifikant erweitern können liegt an der Empfindlichkeit des biologischen Substrats.
    Soweit ich es sehen kann, wollen die Chefs beim HBP dieses Problem umgehen, indem sie an virtuellen Nervenzellen und ganz besonders an Netzwerkclustern von virtuellen Nervenzellen (das ist ein entscheidender Teil des experimentellen terra incognita) all die verschiedenen Tests durchführen, die ihnen die lebenden Nervenzellen verwehren, weil sie die dumme Tendenz haben, während den Versuchen zu sterben.
    Diese Vorgehensweise hat natürlich eine offensichtliche Schwäche, die in diesem Thread bereits genannt wurde. Stichwort Kuh = Kugel. Die Tatsache, dass die Projektleiter beim HBP diese Schwäche in Kauf nehmen, ist meiner Ansicht nach ein guter Indikator, wie beschränkt die derzeitigen neurobiologischen Methoden immer noch sind.

  20. Man muss fairerweise sagen, dass sich das Human Brain Project vom Hype der Anfangstage , nach viel Streit, mittlerweile entfernt hat. Ein „Hirn-Upload“ ist nicht das Ziel; es geht darum, durch verschiedene Modelle mehr über das Organ zu verstehen, Simulation ist dabei ein Tool, kein Ziel an sich.

    Siehe dazu z.B. ein Interview mit Katrin Amunts, das ich für Laborjournal geführt hatte (S. 14):
    http://www.laborjournal-archiv.de/epaper/LJ_16_10/files/assets/common/downloads/Laborjournal_2016_10.pdf

    (berechtigte Kritik am HBP gibt’s aber natürlich trotzdem zur Genüge, aber das ist eine andere Baustelle).

  21. @Zauner: Amunts und das HBP

    Lieber Herr Zauner, vielen Dank für den Hinweis auf Ihr gelungenes Interview mit Katrin Amunts, die ich bei einigen Treffen kennen und äußerst schätzen lernen durfte (das letzt ist nun aber leider auch schon wieder bald vier Jahre her).

    Die Idee von der großen Gehirnsimulation ist also vom Tisch. Nunja, dann habe ich meine Wette also schon gewonnen.

    Ein fader Beigeschmack bleibt aber, wenn die Forscherinnen und Forscher im Wettbewerb mit 69 anderen Projekten unter anderem mit dieser Vision einen der ersten beiden Preise gewonnen haben und jetzt sagen: So haben wir das gar nicht gemeint!

    Das muss man aber wohl eher Markram vorwerfen als Amunts.

    Zu deren Schlussfolgerung:

    Ich würde mich freuen, wenn die wissenschaftliche Öffentlichkeit ihre Neugier und ihre Offenheit bewahrt, um auch risikoreiche Forschung zu unterstützen. Nur in einer kreativen, offenen Atmosphäre kann Wissenschaft wachsen und können neue und mutige Vorhaben gedeihen. Ich möchte mit dem HBP so einen Ort schaffen. Dafür bin ich angetreten.

    Dann will ich aber doch noch einmal an die z.B. damals von Peter König geäußerte Kritik erinnern, was man mit der Milliarde außerhalb eines einzigen Großprojektes alles hätte fördern können.

    Forscherinnen und Forscher stehen in einem immensen wettbewerb; es ist doch klar, dass wenn eine Milliarde in so ein einziges Großprojekt investiert wird, das Geld dann an anderer Stelle fehlt.

    Ob man mit so einer exklusiven Plattform „Offenheit“ schafft oder gerade ein Ingroup-Outgroup-Verhältnis erzeugt, also ein Gefälle zwischen Gewinnern und Verlierern, steht auf einem ganz anderen Blatt.

  22. @Chrys, Mu: gute Diskussion

    Danke für die inhaltlich gute diskussion.

    @Xiaolei Mu: Dem kann ich wenig hinzufügen.

    Ich erinnere aber noch einmal an das Manifest „führender Hirnforscher“ von 2004. Darin war versprochen worden, innerhalb der nächsten zehn Jahre gerade auf der mittleren Ebene einen großen Durchbruch zu erzielen.

    Vielleicht darf ich im Zusammenhang damit auf eine eher populärwissenschaftliche und eine wissenschaftliche Arbeit mit meiner bescheidenen Mitarbeit verweisen:

    Memorandum „Reflexive Neurowissenschaft“

    Methodological Problems on the Way to Integrative Human Neuroscience

  23. @Chrys, Mu: Etikettenschwindel

    Aber beim Vorwurf des „Etikettenschwindels“ kommt mir doch noch ein kritischer Gedanke:

    Erst zwingen wir (das ist jetzt das wissenschaftspolitische System) Forscherinnen und Forscher zum Erfolg, dazu, sich mit Visionen und Versprechen zu überbieten, um im Wettbewerb um Forschungmittel zu gewinnen (siehe dazu auch meine Reaktion @Zauner)…

    …und dann werfen wir ihnen Etikettenschwindel vor.

    Wir fair ist das?

    Der eine oder die andere wird wissen, dass ich hier oft genug Übertreibungen in der Wissenschaftskommunikation kritisiert habe (siehe z.B. die Kategorie aufgepatst!).

    Aber ja – wenn man die Systemeigenschaften so definiert, dann sieht man eben vermehrt dieses Verhalten. Verhalten = Organismus x Umwelt.

    (Das erinnert mich an die wissenschaftstheoretische Diskussion zwischen Hilary Putnam und Bas van Fraassen über den wissenschaftlichen Realismus: Putnam meinte, der Erfolg wissenschaftlicher Theorien lasse sich nur dann verstehen, wenn sie zumindest annähernd wahr sind – das „no miracle“-Argument.

    Darauf Bas van Fraassen: In gewisser Weise ist es ein tautologisches Argument, denn Wissenschaft selektiert schlicht die erfolgreichsten Theorien – die sich, wie wir historisch gesehen haben, hinterher oft genug als falsch erweisen können.)

  24. @Stephan Schleim:
    „Ein fader Beigeschmack bleibt aber, wenn die Forscherinnen und Forscher im Wettbewerb mit 69 anderen Projekten unter anderem mit dieser Vision einen der ersten beiden Preise gewonnen haben und jetzt sagen: So haben wir das gar nicht gemeint!“

    Ja, das sehe ich auch so. Mag sein, dass das Projekt jetzt mehr Sinn ergibt und tatsächlich etwas Sinnvolles bei rumkommt – nicht im Sinne des einen großen Durchbruchs, sondern vieler kleiner Schritte in die richtige Richtung.

    Auch Amunts Argumentation, dass man zur Überbrückung der Skalen und wegen der immensen Datenflut koordinierte „Big Science“ braucht, kann man vielleicht nachvollziehen.

    Das ändert aber alles nix daran, dass das Projekt in der jetzigen, schon etwas konfusen Aufstellung niemals ein „Flaggschiff“ geworden wäre .

  25. @Zauner: unehrliches Flaggschiff

    Dann würde das Prinzip „ehrlich währt am längsten“ für die Topprojekte des European Research Council nicht unbedingt gelten; und hätte sich wahrschienlich vor allem Markram selbst geschädigt.

    Aber nunja, der war vor dem Projekt ja auch schon umstritten… und kann trotzdem das, was dabei herauskommt, irgendwie doch auch als seinen eigenen Erfolg verbuchen.

  26. Zitat Helmut Wicht: „Bewusstsein“ UND „Intelligenz“ wären nach dem, was ich gerade schrieb, BEIDE etwas, was man Maschine und Mitmensch (-geschöpf) nur a la Turing-Test zuschreiben kann.
    Das ist mit Sicherheit so – und es ist uns allen sogar bestens vertraut. Was jemand auf der Platte hat, zu was jemand oder etwas fähig ist, das merken wir an einer Vielzahl von Zeichen. Unter anderem an der Übereinstimmung zwischen (mitgeteilten) Handlungsabsichten und Ergebnissen von Handlungen einer Person.
    Wer dagegen aufgrund einer Theorie einem Subjekt Intelligenz und Bewusstsein zuschreibt oder es ihm verwehrt, der will damit für sich und seinesgleichen eine Sonderstellung, dem geht es um die Machtfrage. Insbesondere, wenn man jemandem zwar Intelligenz zugesteht, aber ihm etwa kein Bewusstsein zugesteht. Einige europäischen Eroberer und Kolonisatoren haben den Eingeborenen beispielsweise das volle Menschsein nicht zugestanden, wobei als Beweis dafür schon die andere Hautfarbe reichte. Der Film Planet der Affen demonstriert dies mit einer Umkehrung der Verhältnisse zwischen Menschen und Affen indem es die Geschichte von Astronauten erzählt, die in einer Erdzukunft landen, wo Affen die Rolle von Menschen eingenommen haben und die in einer Postapokalypse vegetierenden früheren Menschen als Tiere wahrgenommen werden, die von den Affen in Käfigen gehalten werden. Es gibt aber unter den Affen einige Tierpsychologen, die in den Menschen ein Missing Link zu den Affen sehen (Zitat)Der Orang-Utan Professor Zaius hält hingegen nichts davon und verweigert dies in seiner Funktion als Minister für Wissenschaft und zugleich oberster Verkünder des Glaubens. Cornelius hatte einst bei einer Expedition in die sogenannte „verbotene Zone“ Spuren einer bislang unbekannten, alten Kultur entdeckt und die Theorie aufgestellt, dass die Affen von einer niederen Art von Primaten – möglicherweise von den Menschen – abstammen könnten. Er darf dies jedoch nicht mehr öffentlich vertreten, da Zaius diese Theorie zur Ketzerei erklärt hat.
    Hier wird den Menschen also aus ideologischen Gründen nicht nur die Affigkeit verwehrt, sondern Menschen dürfen nicht einmal als Vorfahren der nun herrschenden Affen gesehen werden, denn etwas so Primitives wie einen Menschen als Vorfahren der Krone der Schöpfung, der Affen, zu sehen ist ein Sakrileg.
    Letztlich hilft die Ideologie aber nicht. Wer sich intelligent verhält und Bewusstsein zeigt, der ist intelligent und hat Bewusstsein. Keine Ideologie oder Theorie kann das ändern.

  27. @Stephan Schleim / 10. Mai 2017 @ 19:48

    Insofern der kritische Gedanke wohl darauf abzielt, dass es dabei systemisch an der gesamten Community liegt, ob ein marktschreierisches Trommeln für gewisse Vorhaben, welches mitunter die Grenze zum Scharlatanismus ungeniert überschreitet, eher belohnt oder bestraft wird, da schliesse ich mich an.

    Vielen Dank auch für die Links (10. Mai 2017 @ 19:39). Das muss ich zwar noch in Ruhe lesen, aber mein erster Eindruck ist, dass ich mich da gleichfalls voll und ganz anschliessen kann.

  28. @Wicht: Idealismus

    Dass ich als Subjekt jetzt in diesem Moment gewisse (intentionale) Bewusstseinszustände an mir erlebe, ist die allergewisseste, sicherste, selbstverständlichste, unhintergehbarste, am wenigsten bezweifelbare Wahrheit, die es gibt.

    Diese Erkenntnis oder Wahrheit will dir ja auch niemand wegnehmen.

    Sie hilft uns meines Erachtens aber nicht weiter, wenn wir es mit der Frage zu tun haben, welchen Entitäten (etwa auch künstlichen Systemen) wir Intentionalität, Bewusstsein usw. zuschreiben sollen.

  29. @Chrys: Spielregeln

    Insofern der kritische Gedanke wohl darauf abzielt, dass es dabei systemisch an der gesamten Community liegt…

    …und an den Spielregeln, also den Systemeigenschaften.

  30. @Stephan Schleim / 11. Mai 2017 @ 12:49

    »Sie [die subjektive Erkenntnis von Helmut Wicht] hilft uns meines Erachtens aber nicht weiter, wenn wir es mit der Frage zu tun haben, welchen Entitäten (etwa auch künstlichen Systemen) wir Intentionalität, Bewusstsein usw. zuschreiben sollen.«

    Doch wie kommt Helmut Wicht wohl dazu, einem (noch lebenden) Artgenossen Intentionalität, Bewusstsein usw. zuzuschreiben?

    Weil er dem anatomiekundig ins Hirn schaut? Nein, glaub‘ ich nicht. Er nimmt eine solche Beurteilung gewiss nicht anders vor als jeder von uns es ganz routinemässig alle Tage tut. Wie also kommt so eine Beurteilung zustande?

    Und erst wenn uns dieser Fall klar ist, können wir meines Erachtens sinnvoll danach fragen, wie wir es mit Entitäten, die wir als Nicht-Artgenossen einordnen, diesbezüglich halten sollen.

    • Ist die Antwort auf die Frage, nach welchen Regeln wir fremden Entitäten ein Bewusstsein / Intelligenz / intentionale Zustände zuschreiben, nicht durch die „theory of mind“ gegeben?

      Wenn ich mir das Verhalten einer fremden Entität dadurch (besser) erklären kann, dass ich annehme, sie habe, so wie ich, intentionale Zustände, wenn dies meine Interaktion mit dieser Entität erleichtert: dann schreibe ich ihr diese Zustände zu.

      Was aber natürlich nicht heisst, dass sie sie auch HAT. Es bleibt beim „als ob.“

      Deshalb find‘ ich ja die technologischen Versprechungen der abiotischen intelligenten/bewussten Plattformen so spannend – ich würd‘ mich gern mal mit jemandem zusammen, der ich nicht bin, auf so etwas hochladen lassen, um auszuprobieren, wie es sich in einem anderen Kopf anfühlt.

  31. @Helmut: „Theory of Mind“

    Nehmen wir an, ich erkläre meine Fähigkeit, rechnen zu können, damit, dass es in meinem Gehirn ein „Rechenmodul“ gibt.

    Wie ist das Rechenmodul definiert? Als die (kleinstmögliche) Einheit, deren Funktionieren hinreichend fürs Rechnen ist.

    Das scheint mir doch sehr zirkulär: Ich kann rechnen, weil ich ein Rechenmodul habe, und dass es ein Rechenmodul ist, weiß ich, weil ich damit rechnen kann. (Und wenn sich jemand am „Modul“ stört, dann nennen wir es eben ein Netzwerk.)

    Insofern denke ich, dass „Theory of Mind“ schlicht eine Form der Beschreibung für eine Fähigkeit ist, von der wir ja wissen, dass wir sie haben: nämlich das Verhalten anderer und ihre psychischen Zustände sinnvoll zu beschreiben.

    • Aber die ToM ist doch keine Theorie über die eigenen, sondern über die psychischen Zustände ANDERER Leute.
      Ich versteh‘ Deine Replik nicht.
      Mal abwarten, was Du über das „Fremdpsychische“ schreiben wirst..
      Gute Nacht
      Helmut

  32. @Chrys & Helmut

    Es juckt mich ja jetzt schon in den Fingern, vorm Schlafengehen noch eben einen kurzen Beitrag übers Problem des Fremdpsychischen zu schreiben…

    Ob es gelungen ist, seht ihr morgen auf den SciLogs.

    Aber dass das dem Schlafen förderlich ist, wage ich zu bezweifeln.

  33. Thema „Fremdpsychisches“

    Ist diese Diskussion nicht eigentlich obsolet? Sind wir nicht alle, die wir in Elternhäusern aufgewachsen sind, in der sicheren Intuition aufgewachsen, dass das uns umgebende und betreuende Bewusstsein weit größer und verlässlicher ist als unser eigenes, sich erst entwickelndes? Ist es nicht geradezu etwas affig, im Nachhinein so zu tun, als hätte es das nie gegeben, und jedes fremde Bewusstsein müsste überhaupt erst ausgewiesen werden?

    Was soll diese Diskussion? An welcher Stelle geht sie über eine vollkommen sinnlose Klügelei hinaus?

    Lieber Stephan Schleim, meiner Ansicht nach können Sie es sich vollkommen ersparen, sich über „Fremdpsychisches“ auszulassen.

    Das ist ein konstruiertes Problem, das in der Praxis nicht existiert, sondern nur im Rahmen einer materialistischen Voreingenommenheit auftaucht: Man schließt aufgrund der eigenen ideologischen Voreingenommenheit aus, dass Lebewesen fremde Gefühlszustände wahrnehmen können, weil das im materialistischen Schema nicht unterzubringen ist, und macht dann ein Riesenthema daraus, das man für „philosophisch“ erklärt.

    Langweilig.

    Jedes Kind, jeder Hund erlebt selbstverständlich die Wahrnehmung fremder Gefühle und Wahrnehmungen. Einzig Materialisten blockieren diese Trivialität und wollen anderen die Begründungslast für den Beweis dieser Normalität auferlegen.

    Sich auf diese Herausforderung einzulassen ist vollkommen verschwendete Energie.

    Der Umgang mit diesem „Problem“ ist aus meiner Sicht einfach zu erledigen über die Zuteilung der Begründungspflicht, wobei der Materialismus als zugrundegelegte Metaphysik NICHT anerkannt zu werden hat.

  34. @fegalo: Scheinproblem?

    Jedes Kind, jeder Hund erlebt selbstverständlich die Wahrnehmung fremder Gefühle und Wahrnehmungen.

    Aha. Genauso, wie Kinder ihren Stofftieren Gefühle zuschreiben?

    Oder Tamagotchi-Fans ihrer digitalen Puppe?

    Ich verstehe; alles selbstverständlich.

    Und wer sagt eigentlich, dass diese „selbstverständlichen Wahrnehmungen“ stimmen? Haben Sie schon einmal Poker gespielt? Sich belügen lassen, ohne es zu merken?

  35. @fegalo: P.S. Materialismus

    Und warum soll ausgerechnet für einen Materialisten das Problem von besonderer Bedeutung sein?

    Der kann doch schlicht sagen: Ist die materielle Struktur (der Körper, das Nervensystem, das Gehirn, die Aktivierung in Region XY…) ähnlich, dann sind auch die mentalen Zustände ähnlich.

    Das ist das Analogieargument, das ich im Artikel über Ihr „Scheinproblem“ beschrieben habe. (Mit all seinen Problemen, etwa: Wie ähnlich ist ähnlich genug? Wie ähnlich müssen Tiere biologisch sein? Was ist mit künstlichen/nicht-biologischen Systemen?)

    Nein, Ihre Einwände kommen mir diesmal etwas kurzschlussartig vor.

  36. @ Stephan Schleim

    Also:

    – Kinder und Tamagotchibesitzer WISSEN, dass sie spielen. Es ist eine Als-ob-Situation, die sie freiwillig erzeugen, genau wie bei jemand, der im Kino heult oder Angst hat. Ein großer Teil unserer Kultur basiert auf der Bereitschaft, sich auf dieses Als-ob einzulassen.

    – Man WEISS, dass man belogen werden kann, wenn andere dazu Grund haben, und beim Poker ist geradezu Teil des Spiels, den Gegner zu täuschen. Damit ist in keiner Weise das Fremdpsychische als solches problematisiert.

    Wir steigen selbstverständlich in ein Flugzeug oder einen Bus, weil wir ohne jeden Zweifel sind, dass der Pilot/Fahrer uns sicher ans Ziel bringen WILL. Selbst im Falle des Germanwings- Piloten, der absichtlich die Maschine gegen den Berg gesteuert hatte, war Interesse im Spiel, und nicht etwa die Abwesenheit von Psychischem. Mit anderen Worten: Wir verwetten jeden Tag im Straßenverkehr uns sonst unser Leben auf die Überzeugung, dass in jedem Menschen und auch den Tieren Fremdpsychisches vorhanden ist, und dass es keine Terminatoren gibt. Wie überzeugt wollen Sie denn noch sein?

  37. @fegalo: Sie machen es sich zu einfach

    Jahrhundertelang hat man Tieren nichts Psychisches zugesprochen (man denke an die bekannten Ansätze bei Descartes oder Kant); das hat sich im 20. Jahrhundert geändert (man denke an Tierschutz in Forschung und Landwirtschaft, Verbot von Tierquälerei auch im Privaten usw.).

    Wenn es so einfach ist, Fremdpsychisches zu „sehen“, wie Sie unterstellen, warum haben Menschen in der Vergangenheit dann nicht gesehen, dass beispielsweise auch Kühe Gefühle haben und nicht nur (nach Descartes) seelenlose Automaten sind?

    Dass Kinder ihre Spielzeuge, vor allem ihr Lieblingskuscheltier, nur für Dinge halten, das halte ich für nicht so ausgemacht; wie würde so ein Kind reagieren, wenn man das Kuscheltier eben mal würgt, überfährt, mit dem Hammer behandelt (ohne es kaputt zu machen)?

    Auch für Spielfiguren im Computerspiel halte ich Ihre Sichtweise nicht ohne Weiteres für überzeugend. In dem Maße, in dem diese Figuren mit uns interagieren und eine Beziehung aufbauen, erscheinen sie uns irgendwann „beseelt“. Ich denke, dass in MMOs die Grenzen zwischen anderen menschlichen Spielern und Computersimulationen verschwimmen und auch in Zukunft, mit immer besseren künstlichen Intelligenzen, immer weiter verschwimmen werden.

  38. @fegalo: P.S. Beispiel Verkehr

    Wir steigen selbstverständlich in ein Flugzeug oder einen Bus, weil wir ohne jeden Zweifel sind, dass der Pilot/Fahrer uns sicher ans Ziel bringen WILL.

    Ich denke beim Besteigen eines Zugs oder Flugzeugs eigentlich nie an den Willen der Fahrerinnen und Fahrer bzw. Pilotinnen und Piloten, die ich weder sehe, noch kenne.

    Ich vertraue vielmehr auf den Induktionsschluss, dass mich die Verkehrsmittel auch beim 1001. Mal sicher ans Ziel bringen werden, weil sie das die letzten 1000 Male auch getan haben.

    Insofern ist es mir psychologisch gleich, ob diese Menschen durch künstliche Intelligenzen ersetzt werden, sofern die bloß zuverlässig funktionieren, auch wenn ich aus politischen Gründen dagegen bin.

  39. @ Stephan Schleim

    Ich glaube, Sie verwechseln da was. Der Ansatz von Descartes, dass Tiere nur Maschinen seien, war auch damals schon nicht mehrheitsfähig, sondern eine abstruse intellektuelle Sonderposition. Die ominösen Vivisektionen der Cartesianer waren bis dahin unüblich, das war eine neue Sicht der Dinge. Im Mittelalter dagegen hat man sogar zuweilen Tiere vor Gericht gestellt. Man hat ihnen damit Schuldfähigkeit unterstellt. Im Schnitt gilt: Jeder Bauer und Hundehalter behandelt seine Tiere intuitiv angemessen, wenn er kein Sadist ist. Das war schon immer so. Diese Thematik überschneidet sich seit geraumer Zeit in unseren Breiten vermutlich mit der Frage, ob Tiere eine unsterbliche Seele haben und das wurde in der Regel verneint. In Extrempositionen wurde dies ja sogar schon den Frauen abgesprochen. Ich denke, dass man die Positionen der Vergangenheit immer auch in diesem Licht betrachten muss.

  40. @ Stephan Schleim

    Beispiel Verkehr

    „Ich denke beim Besteigen eines Zugs oder Flugzeugs eigentlich nie an den Willen der Fahrerinnen und Fahrer bzw. Pilotinnen und Piloten, die ich weder sehe, noch kenne.“

    Da unterscheiden wir uns offensichtlich. Ich denke nämlich schon daran, gerade wenn die Situation vielleicht auch etwas heikel wird oder scheint. Im Gegensatz dazu würde ich vermutlich nicht in ein unbemanntes Flugzeug steigen. Und das Vertrauen, dass das Fliegen eine sichere Fortbewegungsart ist, bezieht sich für mich auf die Technik des Fliegens/des Flugzeugs, nicht auf die Intentionen des Piloten.

  41. @fegalo: Widerspruch

    Im Mittelalter dagegen hat man sogar zuweilen Tiere vor Gericht gestellt. Man hat ihnen damit Schuldfähigkeit unterstellt.

    Ich denke, dass Sie hier unseren Begriff der Schuldfähigkeit in eine Zeit übertragen, in der es ihn nicht gab, jedenfalls nicht so.

    Fälle, die mir bekannt sind, liefen übrigens darauf hinaus, dass man Maikäfer exkommunizierte, weil sie die Ernte vernichteten. Das tat man aber, weil man die Käfer für vom Teufel besessen hielt, und gerade nicht, weil man den Käfern selbst einen bösen Willen unterstellte.

    Und das Vertrauen, dass das Fliegen eine sichere Fortbewegungsart ist, bezieht sich für mich auf die Technik des Fliegens/des Flugzeugs, nicht auf die Intentionen des Piloten.

    Ist Ihnen klar, dass Sie sich hier gerade vehement selbst widersprechen? Einen Beitrag vorher schrieben Sie noch:

    Wir steigen selbstverständlich in ein Flugzeug oder einen Bus, weil wir ohne jeden Zweifel sind, dass der Pilot/Fahrer uns sicher ans Ziel bringen WILL.

  42. Ich bin mir sicher, das dieser „Homo Deus“ oder sonstige neuronalen Maximus irgendwie nicht mehr nur Science fiction ist.
    Die Sache mit dem Neuroanhancemend ist möglicherweise „fortgeschrittener“, als wir uns das denken. Ich gehe nicht davon aus, dass diese „Kulturtechnik“ zu den Dingen gehört, von denen sobald es funktioniert, alle erfahren werden. Dafür ist die Sache einfach zu heiss.

    Und vielleicht ist es ja auch so, dass diese Technik schon seit 2000 Jahren oder länger funktioniert. Etwa seitdem es die Idee von Gottgleichen gibt!?

  43. fegalo, Schleim,
    Selbstfahrende Autos, automatische Landungen bei Flugzeugen,

    Das Vertrauen in diese Techniken beruht letztlich auf dem Vertrauen in die Menschen, die diese Technik vervollkommnet haben, also auf uns selbst, wenn wir uns als Menschheit sehen.

  44. Schleim,
    ……Übermenschen,
    Wer alles hat und alles weiß, den packt der Überdruss.
    Der Mensch kann nicht auf den Intellekt reduziert werden. Irgendwann stellt sich jeder Mensch, viele wenigstens, die Sinnfrage. Wer bin ich, woher komme ich, wozu das alles, wohin gehe ich.
    Methodisch sind solche Diskurse sinnvoll, aber letztlich bilden Körper und Geist eine Einheit und das memento mori erinnert uns daran, dass es einen Gott gibt.

  45. @ bote 17

    „und das memento mori erinnert uns daran, dass es einen Gott gibt.“

    oder dass wir gerne einen hätten.
    (Ich meine das nicht ironisch)

  46. @ Bote17

    „Das Vertrauen in diese Techniken beruht letztlich auf dem Vertrauen in die Menschen, die diese Technik vervollkommnet haben, also auf uns selbst, wenn wir uns als Menschheit sehen.“

    Ich sehe uns nicht als Menschheit.

    „Wer Menschheit sagt, will betrügen“ (Carl Schmitt) – das gilt zumindest in der politischen Sphäre.

    Und von Vervollkommnung kann ja nicht die Rede sein. In einem lesenswerten Interview mit einem Brancheninsider (leider vergessen, wo das war) zeichnete dieser ein sehr ernüchterndes Bild von der Leistungsfähigkeit der selbststeuernden Autos. Die Berichte über die höhere Sicherheit derselben im Vergleich zu natürlichen Fahrern sind Ammenmärchen, weil die gar nicht der umfassenden Realität ausgesetzt würden, sondern einer sehr ausgesuchten. Und das ist doch auch kein Wunder. Denken Sie an den Berufsverkehr in Neapel. Was ist, wenn die gelbe Fahrbahnmarkierung in der Autobahnbaustelle zur Umleitung des Verkehrs abgerissen ist und im Wind flattert? Was macht das Auto, wenn am Straßenrand jemand steht und gestikuliert, um auf eine Gefahr oder dergleichen hinzuweisen. Und so weiter. Sie können sich gar nicht alle Fälle ausdenken, in denen der menschliche Fahrer spontan und vernünftig entscheiden muss, und was sich nicht automatisieren lässt.

    Stattdessen ergeht man sich in Moraldiskussionen, ob das Auto im Konfliktfall drei Rentner oder 1 Frau mit Kinderwagen über den Haufen fahren soll.

    Am Ende muss jeder selbst entscheiden, inwieweit er an die Möglichkeit glaubt und dem vertraut, dass man das Verhalten eines Fahrzeugs sinnvoll und sicher programmieren kann. Bei einer U-Bahn könnte ich persönlich mir das noch vorstellen, bei einem Auto oder gar einem Flugzeug nicht.

  47. fegalo,
    …..Wunsch und Glaube,
    wer sich berufen fühlt, hat die Wahl getroffen.

    Die automatisierte Technik macht den Menschen überflüssig. Dieser Entwicklung müssen wir ins Auge sehen.
    Wir geben damit ein Stück Selbstbestimmung ab. Weiß ich, ob die Londoner Tube nicht schon längst von einem Computer gesteuert ist und der Fahrer nur noch das Gefühl der Sicherheit vermitteln soll? Bei dem Autopilot in Flugzeugen ist das schon Realität.

    Die brave new world geht den Weg der Perfektion. Die Menschen verlieren ihre Autonomie und gewinnen dadurch an Beweglichkeit. Ob das noch in Richtung Übermensch geht? Eher doch in Richtung Ameisenstaat.

  48. @ Schleim
    „Ich denke, dass Sie hier unseren Begriff der Schuldfähigkeit in eine Zeit übertragen, in der es ihn nicht gab, jedenfalls nicht so.“

    Da irren Sie, Tiere wurden als schuldfähig angesehen.
    Es gab jedoch unterschiedliche Gerichtsbarkeiten: Edward Evans schildert in „Strafverfolgung und Todesstrafe von Tieren“, dass Prozesse gegen Haustiere in der Regel vor Zivilgerichten, Prozesse gegen Schädlinge (Ratten, Mäuse, Käfer) vor kirchlichen Gerichtsbarkeiten geführt wurden. Schädlinge sah man – darauf haben Sie hingewiesen – als vom Teufel gesandte Plagen an. Anderes galt aber für die Haustiere, die man schuldig sprach, da man sie wie Menschen für ihre Taten verantwortlich machte und für schuldfähig hielt.
    Als Strafen gegen Hunde, Schweine, Rinder waren u.a. Erhängen, Ertränken, oder Vergraben bei lebendigem Leib vorgesehen.
    1991 wurde in New Jersey der Hund Taro, er hatte ein Mädchen ins Bein gebissen, von der US Justiz zum Tode verurteilt. Nach drei Jahren Aufenthalt im Todestrakt des Hochsicherheitsgefängnisses von Trenton, wurde er begnadigt und die Strafe in lebenslänglich umgewandelt.

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben