Täter sollen mit einer KI-generierten Stimme Kidnapping vorgetäuscht haben. Das LKA in NRW erwartet auch hier Straftaten mit KI-Bezug.
Kidnapping-Betrug mit KI-Stimme?„Beschleuniger von Straftaten“ – LKA sieht in KI auch Potenzial für neue Delikte
Mit dem rasanten Aufstieg von ChatGPT und anderen Tools ist Künstliche Intelligenz (KI) sehr viel zugänglicher geworden. Jeder und jede kann den Text-Bot befragen oder KI-generierter Bilder erstellen. Die neue Technik haben offenbar auch Betrüger schon in einem vermeintlichen Kidnapping-Fall in den USA verwendet. Werden sich Kriminelle künftig Künstliche Intelligenz zu nutzen machen? Das Landeskriminalamt NRW erwartet, dass KI durchaus zum Einsatz bei Straftaten kommen wird.
Fall in den USA: Täter sollen Kidnapping von Tochter mit KI-generierter Stimme vorgetäuscht haben
Aber wie können KI-unterstütze Straftaten aussehen? Ein mutmaßlicher Betrugsfall in den USA hat bereits die US-Polizei beschäftigt. Das Szenario: Eine Mutter kriegt einen Anruf und geht ans Telefon. Sie hört die Stimme ihrer Tochter, zumindest denkt sie das. „Mama, ich hab’s versaut“, ruft die Stimme der Tochter aufgeregt. Dann plötzlich eine Männerstimme: „Hör zu, ich hab’ deine Tochter.“ Im Hintergrund zu hören sind Hilferufe, die wie die Tochter klingen. „Wenn du die Polizei rufst, wenn du irgendwen anrufst, pumpe ich sie mit Drogen voll und du wirst sie nie wieder sehen“, sagt die Männerstimme. Dann fordert die Stimme eine Million US-Dollar Lösegeld.
Diesen Betrugsversuch hat die US-Amerikanerin und Mutter Jennifer DeStefano am 20. Januar erlebt und mehren US-Medien wie „CNN“ geschildert. Demnach soll sie daraufhin ihre vermeintlich gekidnappte Tochter Brianna angerufen haben. Brianna ging es gut, alles war normal und sie konnte die Aufregung nicht verstehen – eine erste Erleichterung bei der Mutter. Aber der Fall der Familie aus Arizona brachte in den USA die Debatte und Ermittlungen ins Rollen, dass Straftaten wie Betrug möglicherweise künftig noch perfider werden könnten.
KI-Software kann schon jetzt täuschend echt Stimmen kopieren
„Die Stimme klang genau wie Brianna“, erklärte Jennifer DeStefano gegenüber „CNN“, „eine Mutter kennt ihr Kind. Du kannst als Mutter ein Kind irgendwo im Gebäude schreien hören und du weißt, wenn es deins ist.“
Und genau da setzen die Betrüger an: Schon heute kann KI-unterstütze Audio-Software Stimmen täuschend echt kopieren. Dazu reicht oft ein Stimmen-Beispiel, das nicht länger sein muss als eine Minute. Das Stimmen-Kopieren wird auch Stimmen-Klonen oder häufiger noch „voice cloning“ (Englisch) genannt.
Sprachnachrichten, Instagram-Livestreams, Tiktok-Videos – Stimmen-Vorlagen können Täter im Internet ohne Ende finden. Die KI-generierten Stimmen treffen häufig noch nicht perfekt die Betonung, Emotionen und Tempo, aber beim einmaligen Hören sind sie oft nicht zu unterscheiden.
Das „voice cloning“ wird bislang größtenteils für Entertainment genutzt. So hat der Star-DJ David Guetta im Februar bei einem Rave einen Song mit einer KI-generierten Version von Rap-Superstar Eminem präsentiert. Youtube ist voll von KI-Promi-Stimmklonen. Doch der jetzige Stand der Künstlichen Intelligenz offenbart das Potenzial – auch für Straftaten.
Landeskriminalamt NRW bereitet sich auf KI-unterstützte Straftaten vor
Auch das Landeskriminalamt in Nordrhein-Westfalen (LKA) befasst sich mit möglichen neuen Straftaten und Betrugsversuchen. Zunächst festzuhalten ist, dass in der Polizeilichen Kriminalstatistik „Straftaten, die unter Zuhilfenahme von Künstlicher Intelligenz (KI) begangen wurden“ bislang nicht erfasst werden. So teilt es das LKA auf Anfrage des „Kölner Stadt-Anzeiger“ mit. Ob es also bereits KI-unterstützte Straftaten in NRW gegeben hat, ist unklar.
Allerdings sieht das LKA eine größere Rolle der Künstlichen Intelligenz: „Im zitierten Artikel wirkt KI als Beschleuniger von Straftaten, die in der Vergangenheit ohne Zugang zu entsprechenden Methoden, Hardware und Daten nur mit sehr hohem Aufwand hätten begangen werden können. Das illustriert das Potenzial der KI für die Begehung von Straftaten“, teilte das LKA zu dem mutmaßlichen Betrugsfall aus den USA mit. „In Zukunft wird die Rolle der KI bei der Begehung von Straftaten weiter zunehmen.“
Aber auch das LKA will und muss sich mit der neuen Technologie entwickeln: „Die Polizeibehörden werden das Potenzial der KI hingegen zur Bekämpfung und Aufklärung von Straftaten nutzen“, heißt es seitens des LKA. Die Verfügbarkeit von KI für jede und jeden stelle die Polizei vor neue Herausforderungen, aber sie beschäftige „sich daher intensiv mit Chancen und Risiken dieser Technologie“.
Tipps vom LKA in NRW gegen Betrug
Das Landeskriminalamt NRW gibt drei generelle und wichtige Tipps an Bürgerinnen und Bürger gegen Betrug.
- Kontaktieren Sie in jedem Fall die Polizei unter der Notrufnummer 110
- Versuchen Sie, falls es zu einer mutmaßlichen Entführung kommt, die Angehörige oder den Angehörigen unter den Ihnen zuvor bekannten Erreichbarkeiten zu kontaktieren.
- Kommen Sie Geldforderungen grundsätzlich nicht nach.
Darüber hinaus rät die Polizei, dass Bürgerinnen und Bürger im Internet sensibel mit Ihren Daten umgehen. Betrügerinnen und Betrüger könnten Informationen über den Aufenthaltsort, persönliche Bilder, Videos oder Aufnahmen der Stimme einer Person nutzen, um Angehörige zu täuschen.
In Familien kann ein ausgemachtes Codewort als Erkennungszeichen helfen und gegen Betrug und Fakes schützen. Das kann beispielsweise der Name des ersten Haustieres oder der Name der Grundschule sein. (mab)