Schockanrufe haben ein neues Level erreicht. Mittels Künstlicher Intelligenz können Betrügerinnen und Betrüger uns vertraute Stimmen imitieren - beispielsweise die des eigenen Kindes. Ein mögliches Szenario sieht so aus: Das Telefon klingelt, der Sohn ist dran, seine Stimme klingt authentisch, er erzählt etwa von einem schlimmen Unfall, den er verursacht habe. Doch es ist nicht der Sohn, jemand hat seine Stimme mithilfe eines KI-Tools kopiert, um seinen Eltern gezielt einen Schock zu versetzen. Auch der Mann, der sich gleich als Polizist ausgeben und Bargeld als "Kaution" für den Sohn verlangen wird, ist ein Betrüger.
Polizeigewerkschaft warnt vor neuer Kriminalitätsform
Die Betrugsmasche Schockanrufe, die in einer Reihe steht mit dem Enkeltrick und dem falschen Polizisten, ist bekannt. Neu ist hingegen, dass es die Kriminellen mithilfe von KI-Technik schaffen, die Stimmen von Angehörigen ihrer Opfer realistisch zu imitieren. Diese Entwicklung bereitet auch der Deutschen Polizeigewerkschaft Sorge. Kürzlich hat der stellvertretende Bundesvorsitzende, Ralf Kusterer, vor Schockanrufen mit nachgeahmten Stimmen gewarnt. "Damit werden die Schockanrufe noch heimtückischer und es entwickelt sich eine neue Kriminalitätsform", sagte Kusterer, der auch Landesvorsitzender in Baden-Württemberg ist. Laut Polizeigewerkschaft ist auch der psychische Schaden infolge solcher Anrufe oft erheblich.
Wie das "Klonen" von Stimmen in der Praxis funktioniert, hat das Investigativ-Team von SWR VOLLBILD recherchiert:
Das baden-württembergische Innenministerium hingegen misst dem Einsatz von geklonten Stimmen im Rahmen von Schockanrufen derzeit noch eine eher untergeordnete Rolle bei. Auf SWR-Anfrage erklärt das Ministerium: Zum einen sei der Aufwand für den Betrug erheblich höher als bei "normalen" massenhaften Telefonbetrugsversuchen. Zum anderen sei es bisher nur möglich, die geklonten Stimmen einen vorgefertigten Text "vorlesen" zu lassen. Zu einer reaktiven und manipulativen Gesprächsführung, die notwendig ist, um die Opfer zur Herausgabe von Geld oder Wertsachen zu bewegen, sei bis jetzt noch kein KI-Tool fähig.
So können Sie sich schützen
Um sich gegen Betrugsversuche zu wappnen, rät das Innenministerium zur Vereinbarung eines "Kennworts" in der Familie. Spontan sei das auch durch eine persönliche Frage möglich, deren richtige Antwort nur ein echtes Familienmitglied kennen kann. Wer generell nicht ins Raster solcher Betrugsversuche geraten will, kann seine Telefonnummer und Adresse aus dem Telefonbuch löschen lassen.
Einer, der sich schon länger mit der Frage beschäftigt, wie sich die Echtheit von Informationen verlässlich bewerten lässt, ist Patrick Aichroth. Als Leiter der Gruppe "Media Distribution and Security" entwickelt er mit seinem Team am Fraunhofer-Institut für Digitale Medientechnologie IDMT im thüringischen Ilmenau technologische Verfahren zum Aufspüren von Manipulationen in Audiodateien. Die Einschätzung des Ministeriums sei nachvollziehbar, sagt er. "Es ist in der Tat so, dass auf Sprachsynthese basierende Schockanrufe Stand heute noch kein akutes Problem darstellen, weil Interaktivität für Angreifer immer noch schwierig abzubilden ist." Doch das könne sich noch ändern.
Experte: "Müssen mit Technologie Schritt halten"
Deshalb sei es wichtig, sich auf immer bessere Technologien einzustellen. "Wenn man da nicht Schritt hält, kann das durchaus zu einem sehr großen Problem werden", sagt Aichroth. Gleiches gelte für die Analysewerkzeuge, die verwendet werden, um Manipulationen und Synthese von Audiodateien zu erkennen. Deshalb sei es gut und wichtig, dass die Landeskriminalämter von Baden-Württemberg und Bayern gemeinsam mit dem Fraunhofer Institut am Projekt Speechtrust arbeiteten. Das Ziel des Forschungsprojekts ist es laut Fraunhofer Institut, eine neue Generation von Erkennungssoftware zu erforschen, die KI-basierte Sprachsynthese und Sprachverfremdungen zuverlässig erkennen kann.
Und wie kommen Täterinnen und Täter eigentlich an die Stimmen, die sie für ihre Betrugsmasche klonen? Auf SWR-Anfrage erklärt das Ministerium, dass noch "keine Erfahrungswerte hinsichtlich der Beschaffung personenbezogener Daten oder Stimmproben von Opfern" vorlägen. Denn es seien bislang "keine entsprechenden Taten unter Verwendung von KI bekannt". Laut Aichroth können sich Angreiferinnen und Angreifer zum Beispiel mittels Malware Zugang etwa "zu Mobilgeräten verschaffen, und so Unterhaltungen aufzeichnen, die sie entweder unmittelbar verwenden oder als Trainingsmaterial für KI-Synthese einsetzen".