Künstliche Intelligenz und der Umgang mit dem Tod
von Sophie Nordmann
Im Leben des Menschen gibt es zwei scheinbar unbedingte Instanzen – die Geburt und den Tod – eine, die das Leben beginnt, die andere, die das Leben eines Menschen beziehungsweise dessen physische Präsenz beendet.
Seit jeher besteht hierbei ein Bedürfnis des Menschen, den Tod als Abstraktum mit einem greifbaren Gesicht zu versehen – man denke an Begriffe wie Hölle, Nirwana oder Himmel –, was jedoch mit dem Tod als Konkretum, dem physischen Verschwinden des menschlichen Individuums Hand in Hand geht. Heutzutage könnte man einer solchen begrifflichen Aufzählung dank Programmen wie Replika und Hereafter auch die Begriffe Cloud und Server anschließen.
Während der Tod lange Zeit als die ultimative Grenze menschlichen Lebens fungierte, ist diese Grenze nun, zumindest scheinbar, verschoben und das Sterben zu einem virtuellen Übergangszustand verklärt.
Denn, dass Haraways Konzept der ‚Cyborgisierung‘[1] einen neuen Höhepunkt erreicht zu haben scheint, zeigen eben diese Programme, die Verstorbene rekonstruieren und so als digitale Gedenkavatare zumindest virtuell ‚wiederauferstehen‘ lassen.
Entsprechende Programme werden bereits zu Lebzeiten mit Erinnerungen, Eigenheiten, Charaktereigenschaften, Aussehen und teils (je nachdem, wie viel Geld man bereit ist zu zahlen) auch mit Sprachproben etc. ‚gefüttert‘, konservieren sie und erlauben im Anschluss an den Tod eine Art ‚Postmortalen Chat‘ mit dem:der Verstorbenen – sie sind ein „Angebot einer Scheinbaren Kontrolle über das Sterben“[2]. Verstorbene Persönlichkeiten werden auf diese Weise scheinbar ‚fortgeführt‘ und bleiben für die Hinterbliebenen greifbar.[3] Was jedoch für die Nutzer:innen entsprechender Programme oft nicht klar wird oder bleibt, ist die Tatsache, dass eben nicht mit einer realen Person, sondern lediglich mit einem ‚digitalen Zwilling‘ in Form eines LLM (Large Language Model) kommuniziert wird, wie eine eben erschienene Studie der Universität Tübingen nahelegt.[4]
Diese Möglichkeiten der virtuellen Kontaktaufnahme können zwar zunächst hilfreich sein – etwa für ein letztes Verabschieden –, Jessica Heesen, die vom Mitteldeutschen Rundfunk (MDR) zitiert wurde, verweist jedoch darauf, dass die Realisation des Todes einer Person so erheblich erschwert werden kann.[5]
Dem übergeordnet sind auch ethische Fragen, beispielsweise jene, ob es nicht auf einer unlauteren Täuschung beruhe, Menschen in der Illusion zu lassen, das die:der Verstorbene in einer fremden und doch weiterhin erreichbaren Welt fortbesteht. Um das deutlich zu machen, sieht der EU Artificial Intelligence Act [6] in Kapitel vier eine Transparenzpflicht vor: Die einzelnen Programme müssen also kennzeichnen, dass nicht mit einer realen Person interagiert wird, sondern mit einem KI generierten Chatbot. Außen vor bleibt hierbei jedoch die psychologische Dimension, der Wunsch, der Trauernde dazu bringt, einen vermeintlichen Kontakt überhaupt aufzunehmen. Laut der bereits erwähnten Studie der Universität Tübingen können „Trauernde sie [die virtuellen Realitäten] nicht mehr ohne weiteres von der Realität der analogen Welt trennen“[7], wodurch sie schließlich scheinbar der „Konfrontation mit ihrem Verlust entkommen“ [8] und „in ihrer Trauer verhaftet bleiben“ [9]. Der eigentliche Sinn hinter KI-gestützter Trauerarbeit wird also häufig verfehlt.
Diese Problematik wird ad absurdum geführt, wenn die Chatbots beispielsweise im Namen der verstorbenen Person Aussagen treffen, die die Hinterbliebenen verletzen oder anderweitig für Irritation sorgen. Die Frage, wer die Verantwortung dafür übernimmt, bleibt bislang offen, ebenso wie die Frage, wer überhaupt die Rechte an den Daten der verstorbenen Person hat – die DSGVO [10] ist beispielsweise für den Schutz der Daten von lebendigen Personen ausgelegt, zumal der ‚digitale Zwilling‘ ja vom ‚realen Ich‘ abgelöst und so konsequenzvermindert scheint.
Reale Auswirkungen erfahren stattdessen vor allem Angehörige, die für entsprechende Programme oft erhebliche Summen an Geld bezahlen müssen, bei HereAfter sind beispielsweise $99 [11] nötig, um gerade einmal 20 Geschichten zu konservieren. Hier wird deutlich, dass digitale Gedenkavatare eben nicht nur eine ‚Trauerstütze‘ sind, sondern ein Produkt, bei dem gilt: Je mehr man zahlt, desto mehr von der verstorbenen Person bleibt. Die scheinbare Verantwortung liegt bei den Hinterbliebenen, die dem Konflikt ausgesetzt sind, zumindest gefühlt verantwortlich zu sein, dass die verstorbene Person nicht „noch einmal stirbt“. Aspekte von Care werden so zu einer gut bezahlten Dienstleistung. Zusammenfassend stellt die Möglichkeit, mit Verstorbenen (scheinbar) zu kommunizieren, also einen Bruch dar, der sich vor allem in der Vorstellung von Endlichkeit abbildet, die so manipuliert wird.
Es geht aber auch anders, nämlich dann, wenn das digitale Fortbestehen einer Person eben nicht im privaten Interesse ist, sondern im gesellschaftlichen. Der Tod von Margot Friedländer, Zeitzeugin und Überlebende der Shoah, kürzlich am neunten Mai 2025, führte beispielsweise erneut vor Augen, dass die Erinnerung an den Holocaust nicht ewig in menschlicher Form zu konservieren ist. Gleichzeitig aber spielen eben diese Zeitzeug:innen sowohl eine wichtige Rolle in der Erinnerungskultur als auch in der Warnung vor Wiederholung. Künstliche Intelligenz könnte hier Abhilfe schaffen. In einem Artikel der deutschen Bundeszentrale für Politische Bildung trägt diese Praxis und ein zugehöriges Forschungsprojekt den Namen „Multimodales Mining von Zeitzeugeninterviews zur Erschließung von audiovisuellem Kulturgut“ [12] und deren Ergebnisse laut der FAZ bereits in der Deutschen Nationalbibliothek Frankfurt[13] in der Ausstellung Frag nach![14] (ab 08.09.2023) nutzbar sind. Dort kann man mittels digitaler Interaktiver Interviews in Form von unter anderem Hologrammen Fragen an die ‚digitalen Zwillinge‘ von den Zeitzeug:innen Inge Auerbacher und Kurt S. Maier stellen. Die „KI filtert passende Antworten auf Fragen“, die zuvor mittels umfangreicher Interviews einem machine-learning-tool übermittelt wurden. [15]
Ähnliche Ansätze lassen sich in diversen Formaten finden, beispielsweise auch im Projekt „Inside Pogromnacht“ bei dem Schüler:innen mittels VR erlaubt wird, dem digitalen Avatar von Charlotte Knobloch Fragen zu stellen und ihren Erzählungen audio-visuell zu folgen.[16] Diese Ansätze bieten zwar mitunter vielseitige und wichtige Möglichkeiten, lassen Zeitzeug:innenschaft aber auch zu etwas musealem und damit – trotz des modernen Erscheinungsbilds – Vergangenen werden. Obwohl also KI-gestützte Zeitzeug:innen dem Vergessen entgegenwirken und so maßgeblich dazu beitragen, die Shoah und andere geschichtliche Ereignisse nicht in Vergessenheit geraten zu lassen, erfahren Fehler dieser Künstlichen Intelligenz – beispielsweise das sog. Halluzinieren, das Verbreiten von erfundenen bis faktenwidrigen Informationen – eine stärkere Auswirkung als im privaten Raum. Sobald also die KI auf der Grundlage der Traningsdaten (hier beispielsweise die Antworten auf die Interviewfragen) interagiert, besteht die Gefahr, dass sie Antworten aus dem Zusammenhang nimmt und in anderer Form wieder zusammenfügt, wodurch die Aussage letztendlich von dem abweicht, was die Person zuvor geantwortet hat.[17]
Bei all den Pro- und Kontra-Argumenten für KI gestützte Trauerarbeit bis hin zu virtuell reproduzierten Zeitzeug:innen, darf nicht vergessen werden, dass sich bislang noch auf einer Spitze des Eisbergs bewegt wird. Künstliche Intelligenz befindet sich verhältnismäßig noch ganz am Anfang und entwickelt sich bisweilen so schnell, dass etwaige Argumente laufend entkräftet werden können.[18] Das bedeutet aber auch, dass nicht klar ist, was mit den heutigen Daten morgen passieren wird. Diese rasante Entwicklung sollte stets im Hinterkopf behalten werden. Alle Informationen die der KI jetzt übermittelt werden, führen zwangsläufig dazu, dass sie daraus lernt.
Die zunehmende Digitalisierung von Verstorbenen in Form von Gedenkavataren und interaktiven Zeitzeug:Innen eröffnet also zweifelsohne neue Wege der Auseinandersetzung mit Verlust, Trauer und Geschichte. Diese bringen aber auch (teils neue) Unklarheiten, vor allem in Bezug auf Datenschutz und ethische Fragen, mit sich. Es ist also immer absolut notwendig, kritisch zu reflektieren, ob Künstliche Intelligenz in diesem Kontext Anwendung finden sollte und wo die Grenze verläuft.
Es ist mehr als verständlich, dass der Verlust eines Menschen immer schmerzt. Gleichzeitig aber sollte man sich immer dessen bewusst sein, dass anstelle mit der Person nur mit einer Illusion kommuniziert wird, die mitunter auch den Trauerprozess verlangsamt. Das ‚echte‘ Leben passiert in physischer Präsenz, die Flucht in die Virtualität kann also vorübergehend durchaus helfen einen Umgang mit dem Sterben zu finden, sollte jedoch kein Dauerzustand werden.
Referenzen und Anmerkungen
[1] Haraway, D., Reichert, R., & Bruns, K. (2015): Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften (1985), in: Reader Neue Medien, Bd. 18, Bielefeld: transcript, S. 238–277. https://doi.org/10.14361/9783839403396-023
[2] Krohn, M. (2021): Ewiger Mensch oder unsterbliche Maschine? Spiritual Care zwischen Transhumanismus und digitalem Kapitalismus. Spiritual Care : Zeitschrift für Spiritualität in den Gesundheitsberufen, 10(1), S. 86–89, hier S. 87.https://doi.org/10.1515/spircare-2020-0092
[3] Ammicht Quinn et al. (2024): Ethik, Recht und Sicherheit des digitalen Weiterlebens. Forschungsergebnisse und Gestaltungsvorschläge zum Umgang mit Avataren und Chatbots von Verstorbenen, Tübingen/Darmstadt, S. 156.
[4] Ebd., hier S. 73 ff.
[5] Jähn, T. (2025): Wie KI uns nach dem Tod lebendig hält. MDR.DE. https://www.mdr.de/wissen/podcast/challenge/tod-sterben-digitale-trauer-ki-chatbots-avatare-100.html (Zugriff: 14.06.2025).
[6] EU Artificial Intelligence Act (2024): https://artificialintelligenceact.eu/de/das-gesetz/ (Zugriff: 15.06.2025).
[7] Ammicht Quinn et al. (2024): Ethik, Recht und Sicherheit des digitalen Weiterlebens. Forschungsergebnisse und Gestaltungsvorschläge zum Umgang mit Avataren und Chatbots von Verstorbenen, Tübingen/Darmstadt, S. 39.
[8] Ebd.
[9] Ebd.
[10] DSGVO (Datenschutzgrundverordnung) (2016): Europäische Union via. https://eur-lex.europa.eu/legal-content/DE/ALL/?uri=celex:32016R0679 (Zugriff 15.06.2025).
[11] Hereafter.ai via https://www.hereafter.ai/gifts (Zugriff 16.06.2025).
[12] Bundeszentrale für Politische Bildung (Bpb) (2024): Künstliche Intelligenz trifft Zeitzeugeninterviews. https://www.bpb.de/lernen/digitale-bildung/werkstatt/517178/kuenstliche-intelligenz-trifft-zeitzeugeninterviews/ (Zugriff 13.06.2025).
[13] Esmailzadeh, S. (2023): Virtuelle Zeitzeugen: durch KI zu Erinnerungskultur. FAZ.NET. https://www.faz.net/aktuell/rhein-main/frankfurt/virtuelle-zeitzeugen-durch-k-i-zu-erinnerungskultur-19388334.html(Zugriff 14.06.2025).
[14] Frag nach! Interaktive Ausstellung des Deutschen Exilarchivs. https://fragnach.org/ (Zugriff 16.06.2025).
[15] Hendinger, K. (2024). Deutsche Nationalbibliothek: Wie KI hilft, mit Holocaust-Überlebenden zu reden. MDR . https://www.mdr.de/nachrichten/sachsen/digitale-zeitzeugen-holocaustueberlende-dnb-kultur-news-100.html (Zugriff 14.06.2025).
[16] Dpa Bayern. (2024). Nationalsozialismus: „Inside Pogromnacht“ – Naziterror als virtuelle Realität. ZEIT ONLINE. https://www.zeit.de/news/2024-10/30/inside-pogromnacht-naziterror-als-virtuelle-realitaet (Zugriff 14.06.2025).
[17] Siebert, J. (2024). Halluzinationen von generativer KI und großen Sprachmodellen (LLMs). Fraunhofer IESE. https://www.iese.fraunhofer.de/blog/halluzinationen-generative-ki-llm/ (Zugriff 15.06.2025).
[18] Jähn, T. (2025). Wie KI uns nach dem Tod lebendig hält. MDR.DE. https:/www.mdr.de/wissen/podcast/challenge/tod-sterben-digitale-trauer-ki-chatbots-avatare-100.html (Zugriff 14.06.2025).