Immer wieder Fotos und Videos ansehen oder alte Nachrichten durchlesen – wenn Angehörige sterben, sind Erinnerungen fester Bestandteil der Trauerbewältigung. Viele versuchen auch aktiv, die Zeit nach ihrem Sterben zu gestalten, indem sie zum Beispiel Karten für Ereignisse schreiben, die sie nicht mehr erleben werden wie etwa den 18. Geburtstag der Enkelin.
Einen großen Schritt weiter geht die sogenannte Digital Afterlife Industry – hier geht es um die Interaktion mit Verstorbenen über Chatbots oder Avatare. Sind genügend Daten vorhanden, kann das mit Hilfe von künstlicher Intelligenz funktionieren.
Chatten mit Verstorbenen
Im Netz finden sich mittlerweile einige Firmen, die den Menschen anbieten, ein digitales Abbild von ihnen zu formen, das nach ihrem Tod aktiv wird. Mit Hilfe von künstlicher Intelligenz erstellen diese Unternehmen aus dem Datenmaterial zum Beispiel Chatbots, die wie ein Verstorbener texten oder sogar sprechen können.
Dass Chatbots sehr menschenähnlich kommunizieren können, ist vor allem seit ChatGPT vielen bekannt. Auch die Sprach-KI, auf welcher der Bot beruht, musste erst trainieren, wie ein Mensch zu schreiben. Auf Basis vieler Texte aus dem Internet lernt die KI zum Beispiel, was die Unterschiede zwischen geschriebener und gesprochener Sprache sind und in welcher Form auf welche Frage geantwortet werden soll. Bots können ebenfalls darauf trainiert werden, sich dem Sprachmuster einzelner Personen anzupassen.
Gespräche führen mit ChatGPT: So lernt die KI des Chatbots von uns
Virtuelle Avatare von geliebten Personen
Andere Firmen erzeugen virtuelle Avatare, also 3D-Darstellungen, mit denen Hinterbliebene interagieren können. Ein Beispiel dafür ist das US-amerikanische Start-Up You only virtual (YOV). Der Gründer Justin Harrison wirbt in einem Youtube-Video damit, dass jeder sich einen Moment nehmen solle, um darüber nachzudenken, wie es wäre, einen Menschen, den man liebt und der einem wichtig ist, zu verlieren. Mit der Kommunikationsplattform YOV könne man mit dem Avatar einer geliebten Person kommunizieren, nachdem sie gestorben sei, beschreibt Harrison.
Je mehr Datenmaterial vorhanden ist, desto realistischer kann die künstliche Intelligenz den Verstorbenen nachahmen. Das führt zu besonderen Situationen: In Südkorea hat sich eine Mutter einen Avatar ihrer verstorbenen siebenjährigen Tochter erstellen lassen, um sie nochmal zu treffen und sich dann von ihr zu verabschieden. Das Mädchen ist dann bei der Begegnung in der Virtual Reality symbolisch nochmal gestorben. Die Mutter erklärt, das ihr das im Trauerprozess geholfen habe.
Abbilder könnten Trauerarbeit auch behindern
Es besteht jedoch auch die Gefahr, das Hinterbliebene in einer Art Schleife hängen bleiben und immer wieder mit den Avataren der Verstorbenen Kontakt aufnehmen – auf diese Weise würden sie nicht realisieren, dass die Person nicht mehr zurückkommt. Jessica Heesen forscht an der Universität Tübingen zum Thema Ethik, Recht und Sicherheit des digitalen Weiterlebens. Befragte aus dem Forschungsprojekt bestätigen die Sorge, Trauerprozesse durch Avatare nicht gesund angehen zu können, bislang. Doch Heesen kann sich vorstellen, dass sich die Trauerkultur hier zukünftig ändere:
Trend noch nicht in Deutschland angekommen
Mittlerweile gibt es vor allem in den USA, in Asien und in Großbritannien eine zunehmende Zahl von Menschen, die ihr virtuelles Weiterleben bereits vor ihrem Ableben planen. Sie lassen sich dafür filmen und beantworten Fragen zu ihrem Leben. Später kann die KI ihren Avatar dann damit ausstatten.
Eine gern beworbene Anwendung ist zum Beispiel, dass die Stimme des verstorbenen Großvaters später den Enkelkindern Gute-Nacht-Geschichten vorlesen kann. Doch mit Hilfe von KI wird bereits versucht, auch neue Antworten zu produzieren – Das heißt, Aussagen neu zu fassen, die nicht in den Originalaufnahmen enthalten sind. Damit experimentieren US-Firmen bereits. Oft wird dabei jedoch außer Acht gelassen, dass die Daten und Avatare auch missbraucht werden könnten.
Warnung vor Datenmissbrauch
Ein Problem sieht die KI-Ethikerin Heesen zum Beispiel darin, dass bisher nicht geregelt ist, wer Avatare von Verstorbenen erstellen darf. Denn diese können auch ohne Zustimmung erzeugt werden, nachdem ein Mensch verstorben ist. Diese Avatere könnten dann ein verfälschendes Bild abgeben oder sogar gezielt zur Manipulation eingesetzt werden:
Das Problem mit den Chatbots oder Avataren von Verstorbenen ist vergleichbar mit dem, was bereits bei Deep Fakes besteht. Deep Fakes sind täuschend echt wirkende, manipulierte Bild-oder Videoaufzeichnungen, die von einer KI erstellt werden. Auch hier bestehen große Probleme, generative KIs oder Deep Fakes zu regulieren, erklärt Heesen.
Einen Lösungsansatz bieten Kennzeichnungspflichten, sodass klar erkenntlich wäre, welche Bilder künstlich erzeugt wurden und welche nicht. "Aber das machen natürlich nur Menschen, die gutwillig sind", sagt Heesen. "Die werden solche Bilder kennzeichnen. Diejenigen, die mit dem schlechten Willen vorangehen, werden das nicht tun".
Das kann zu sehr unangenehmen Situationen für die Hinterbliebenen führen. Zum Beispiel auch, wenn Avatare der Verstorbenen in Pornos genutzt werden. Ethikerin Heesen fordert, es sollte rechtlich klar gezogen werden, wer befugt ist, über Avatare von Verstorbenen zu entscheiden und wann ein Avatar abgestellt werden darf. Und möglicherweise muss man in Zukunft im Testament festhalten, ob von der eigenen Person ein Avatar erstellt werden darf.
Persönlichkeitsrechte von Verstorbenen anpassen
Deshalb sollte auch das postmortale Persönlichkeitsrecht an diese spezifischen Problemfälle angepasst werden, findet Heesen. Auf EU-Ebene gibt es bereits Regulierungsvorschläge für den Einsatz von KI, aber die setzen sich nicht explizit mit dem digitalen Weiterleben Verstorbener auseinander. Trotzdem könnte eine Regulierung auch bei diesen Anwendungen weiterhelfen, denn klar ist: von den Digital Afterlife-Anwendungen profitieren in erster Linie die großen Datenkonzerne:
Wenn man diese Daten optimal nutzen will, "dann macht man das eben so, dass man eine Wiederbelebung dieser Daten vornimmt", sagt die Medienethikern. Und damit hat das Datensammeln noch kein Ende gefunden. Denn, so führt Heesen aus, in den Interaktions-Beziehungen mit den Bots oder Avataren werden dann ja auch die Daten der Lebenden gesammelt.