Deadbots: digitale Unsterblichkeit mit KI

Gibt es einen verstorbenen Menschen, mit dem Sie gerne nochmal ein Gespräch führen würden? Dieser uralte Wunsch, den Menschen aller Zeitalter gehabt haben dürften – er scheint nun erstmals greifbar zu sein: Deadbots sind Chatbots, die unsere Verstorbenen imitieren und uns so den Eindruck vermitteln, mit ihnen kommunizieren zu können. Was nach Science-Fiction klingt, funktioniert tatsächlich. In manchen Fällen vielleicht sogar zu gut.
Was sind Deadbots?
Chatbots wie ChatGPT, die mit uns chatten, kennen mittlerweile die meisten Menschen. Sprache ist ein Feld, auf dem KI besonders gut funktioniert, da sie regelbasiert und kategorisch abläuft, also algorithmisch gut erfassbar ist. Was KI genannt wird, ist meist nichts anderes als ein Algorithmus, der so geschrieben ist, dass er nach einem Training an riesigen Datensätzen immer zuverlässiger Muster erkennen kann. In welcher Art von Daten so ein Muster erkannt werden soll, lässt sich dann justieren: Bilder, Sprache, Melodien – die Möglichkeiten sind vielfältig.
Deadbots sind nun nichts anderes als Chatbots, die mit einem besonderen Datensatz trainiert werden: den Textprodukten eines bestimmten (verstorbenen) Menschen. So wird ein digitaler Zwilling erstellt, der den Schreibstil der toten Person perfekt kopieren kann. Der vielleicht erste Fall, bei dem das passierte, war die Russin Eugenia Kuyda.
Der Beginn einer Jenseits-Industrie
Sie verlor im Jahr 2015 ihren besten Freund Roman Mazurenko bei einem Unfall. Als Tech-CEO im Silicon Valley hatte sie Zugang zu den ersten Chatbots – und trainierte einen davon in ihrer Trauer mit dem Textnachrichten ihres verstorbenen Freundes. Mit Erfolg (1). Die Auferstehung ihres Freundes in Form eines Chatbots war für Eugenia Kuyda so authentisch, so überzeugend, dass sie daraus ein Geschäftsmodell entwickelte: Replika, das erste Start-Up der Jenseits-Industrie.
Mittlerweile gibt es einige weitere solcher Unternehmen, mit so bezeichnenden Namen wie Here After AI, StoryFile oder You, Only Virtual (YOV). Schon längst gehen die Angebote über textbasierte Anwendungen hinaus, die Deadbots imitieren mitunter Stimmen oder, noch bizarrer, die körperliche Erscheinung in Videoformaten. So „traf“ eine südkoreanische Mutter ihre verstorbene Tochter in einer virtuellen Umgebung – mittels VR-Brille, wie in diesem Video zu sehen ist:
Während sämtliche rechtliche, philosophische, psychologische und ethische Fragen zu den Deadbots noch völlig ungeklärt sind, ist eine Sache gewiss: hier eröffnet sich gerade ein neuer Markt mit immensem Potential. Das Geschäft mit dem Jenseits basiert auf emotionalem Verlust der Hinterbliebenen – eine unerschöpfliche Geldquelle. Und eine Quelle etlicher Probleme. Die Forscher Tomasz Hollanek und Katarzyna Nowaczyk-Basińska beleuchten diese in ihrem philosophischen Fachaufsatz (2). In diesem Fachaufsatz entwickelten sie auch fiktive Fallstudien von kommerziellen Angeboten (Bild 1 und 2), die den echten Angeboten gar nicht so unähnlich sind:


Deadbots und psychische Gesundheit
Ein erstes Problem identifizieren die Autoren für die psychische Gesundheit der Nutzerinnen und Nutzer. Deadbots werden wahlweise auch als Griefbots bezeichnet (Trauerbots), weil sie – so werben die Firmen – den Trauerprozess unterstützen sollen. Ob so ein Konzept tragen kann, ist jedoch höchst fraglich. Schließlich soll der Trauerprozess in einem bewussten Abschied enden – welcher durch Deadbots nie kommen wird. Statt sich langsam von der verstorbenen Person zu lösen, entsteht ein unsterbliches Surrogat dieser Person – der Prozess kann nicht abgeschlossen werden. So kommentierte das Philosophie Magazin kürzlich, Deadbots seien die „digitale Verwirklichung dessen, was Freud eine ‚halluzinatorische Wunschpsychose‘ nennt. Viele Personen behandeln die Deadbots wie ihre Angehörigen. Sie teilen mit ihnen ihre innigsten Wünsche und Sorgen, igeln sich ein und kapseln sich ab.“ (3) Nach Trauerbewältigung klingt das nicht.
Auch das Thema minderjähriger Nutzerinnen und Nutzer ist heikel. Hollanek und Basińska argumentieren mit Forschung zum Bindungsverhalten von Kindern und raten zu Altersbeschränkungen, da Kinder in sensiblen Entwicklungsphasen potentiell anfällig für nachhaltige Bindungsstörungen sein können.
Datenschutz und ethische Fragen
Fraglich ist auch, wie der datenschutzrechtliche Status der Verstorbenen zu bewerten ist. Diese werden in dem Kontext häufig als ‚Datenspender‘ bezeichnet. Das trifft zu, wenn, wie Toten zu ihren Lebzeiten wirklich freiwillig Daten gespendet haben, so wie es das deutsche Start-Up Eternos macht (4). Posthume Datensammlungen führt das Unternehmen nicht durch – bislang. Möglich wäre das aber, denn rechtlich besteht hier noch eine Grauzone, für deutsche oder europäische Gesetzgeber ist das Thema Neuland.
Raubkopie der Identität
Doch selbst, wenn ein Datenspender in die Erstellung eines Deadbots von sich selbst zugestimmt hat: was, wenn die Hinterbliebenen gar nicht wollen, dass eine Simulation ihrer Liebsten existiert? Ist das ein Diebstahl von Identität, ein Eingriff in Privatsphäre von Familien? Und wie sieht es mit dem Hacken solcher Deadbots aus, also der Gefahr, dass intime Daten Verstorbener veröffentlicht werden? Oder: was, wenn Hacker an die Daten aus Whatsapp-Chats und Sprachnachrichten gelangen und daraus einen Deadbot erstellen, der dann, wie früher Raubkopien von Filmen, online zur Schau gestellt wird? Nicht nur bei prominenten Toten könnte das Geschäftsmodell für Internetkriminalität werden, von Lösegeld bei digitalen Entführungen bis zu Raubkopien von Identitäten, die mit Deepfakes ‚gestreckt‘ werden könnten. So könnte man sich vorstellen, dass angeblich ‚vertuschte‘ Telefonate oder Fake-Videos von Toten plötzlich ‚entdeckt‘ werden, weil deren Deadbots diese irgendwo im Netz ‚beichten‘.
Neue Abhängigkeiten
Zugeben, von solchen Szenarien sind wir noch weit weg. Aber: von der schieren Idee von Deadbots waren wir noch vor wenigen Jahren auch noch weit weg. Näher an der heutigen Realität sind jedenfalls simplere ethische Fragen, die der Soziologie Matthias Meitzler, der zu Deadbots forscht, in einem Interview äußerte: „Was ist, wenn der Chatbot die Hinterbliebenen unter Druck setzt oder Werbung für bestimmte Produkte macht? Und sie zum Beispiel dazu zwingt, das bestehende Abo zu verlängern, weil ihr Angehöriger sonst ein zweites Mal stirbt?“ (5)
Der letzte Punkt ist der vielleicht heikelste ethische Aspekt, der aktuell schon relevant ist. Da das Geschäft mit Deadbots auf der emotionalen Verwundung und der Verlusterfahrung der Hinterblieben basiert, nutzen die Firmen – das muss man einmal so klar benennen – die Not von Menschen aus, die unverschuldet in eine psychische Krise geraten sind. Bietet man diesen Menschen nun Linderung, in Form einer Simulation, dann besteht durchaus die Gefahr, dass einige abhängig werden. Einen zweiten Verlust, wie Meitzler korrekt analysiert, wollen wahrscheinlich gerade die Leute, die sich einen Deadbot zulegen, nicht erleben. Das schlägt den Bogen zurück zur mentalen Gesundheit. Wollte die Jenseits-Industrie tatsächlich beim Trauerprozess helfen, dann würde sie ja das Ziel verfolgen, diesen Prozess auch irgendwann zu beenden – was aber dem Gewinn nicht zuträglich wäre. Da es also im finanziellen Interesse solcher Firmen ist, keinen finalen Abschied zuzulassen, gibt es zumindest einen Anreiz, mit Deadbots langfristige Abhängigkeiten zu schaffen.
Erinnern verändert Erinnerungen
Eine letzte Warnung muss aus neurowissenschaftlicher Perspektive ausgesprochen werden. Wissenschaftlich ist schon lange gut belegt, dass Erinnerungen nicht etwas Festes, fixiertes sind. Vielmehr ist es so, dass unsere Erinnerungen nur fixiert sind, solange wir sie nicht abrufen. Doch jedes Mal, wenn wir uns an etwas erinnern, liquidiert sich die Erinnerung, wird formbar. Dieser Prozess der Rekonsolidierung ist gut belegt (6) und eine Ursache dafür, dass, mit viel zeitlichem Abstand, zwei Personen oft ganz andere Geschichten zu ein und derselben Situation erzählen. Diese Modifikation von Gedächtnis durch den Erinnerungsprozess muss nicht geschehen, aber je mehr wir in der Vergangenheit schwelgen, desto mehr verändern wir sie. Mit Blick auf die Deadbots wird Rekonsolidierung natürlich höchst brisant. Chattet man mit der Simulation des oder der Geliebten, dann ist die Wahrscheinlichkeit hoch, dass man Erinnerungen dabei reaktiviert und mit der Erfahrung des aktuellen Gesprächs überformt.
Noch werden Deadbots nur seit kurzem genutzt. Doch wenn die ersten Nutzerinnen und Nutzer Jahrzehnte mit ihrem Deadbot verbracht haben, könnte es passieren, dass die Erinnerungen an die verstorbene Person durch tausende Rekonsolidierungen maßgeblich überformt werden – das Bild, das man von der geliebten Person hat, verändert sich unwiederbringlich.
Die Fragen und Probleme rund um Deadbots können zum heutigen Stand nur schemenhaft umrissen werden, zu frisch ist die Technologie. Natürlich gibt es auch positive Aspekte, zum Beispiel was den Geschichtsunterricht oder die Bildungsarbeit in Museen angeht. Trotzdem brauchen wir sehr bald eine öffentliche Diskussion über die ethischen Aspekte des Geschäfts mit dem Jenseits.
Mehr Wissenschaftskommunikation mache ich auf Instagram.
Quellen
(1) Digitale Unsterblichkeit: Eugenia Kuyda überlistet den Tod – DER SPIEGEL
(3) Trauern um den Trauerbot | Philosophie Magazin
(4) Michael Bommer – German – Eternos
(5) Matthias Meitzler im Interview: Es gibt nun einen „gruseligen“ Weg, mit toten Angehörigen zu sprechen
(6) Wissenschaftlicher Überblicksartikel zur Rekonsolidierung: Haubrich, J., & Nader, K. (2018). Memory reconsolidation. Behavioral neuroscience of learning and memory, 151-176.
Die Black Mirror Episode “Be Right Back“ (Erstausstrahlung 11.2.2013) behhandelte erstmals das DeadBot-Thema. Eine junge Frau verliert ihren Freund bei einem Autounfall und erwartet von ihm ein Kind. Sie lässt ihren verstorbenen Freund zuerst als Chatbot wieder aufleben und erhält später sogar einen Humanoiden, der ihrem früheren Freund in fast allem gleicht – ausser, dass der Humanoide/Androide die negativen Seiten ihres früheren Freundes nicht besitzt und dass er ihr zudem nie widerspricht, eine Erkenntnis, die sie ihn im Estrich wegsperren lässt.