KI ermöglicht es Kriminellen, Stimmen täuschend echt zu klonen und damit Straftaten zu begehen. Recherchen des SWR zeigen jetzt, dass diese Deep-Fake-Technik für betrügerische Schockanrufe und Identitätsdiebstahl missbraucht wird.
KI-Schockanrufe: Stimme per Deep-Fake erzeugt
Während sich Online-Enkeltricks derzeit noch oft auf geschriebene Nachrichten beschränken, machen erste Deep-Fakes mit geklonten Stimmen die Runde. Einer Recherche des SWR zufolge finden bereits betrügerische Schockanrufe dieser Art in Deutschland statt. Häufig sollen es ältere Personen sein, die am Telefon gar nicht mit ihren Kindern oder Enkelkindern sprechen. Stattdessen werden ihre Stimmen per KI geklont (Quelle: Tagesschau).
Mehrere Online-Dienste ermöglichen mittlerweile das Klonen von Stimmen. In einem Test konnte der SWR zeigen, dass sich das Ergebnis kaum von der echten Stimme unterscheiden lässt. Laut einer Umfrage des Tech-Unternehmens McAfee haben bereits 22 Prozent der befragten Personen in Deutschland oder deren Bekannte Erfahrungen mit Audio-Betrug durch KI gemacht.
Viele dieser Fälle bleiben ungelöst, da Ermittler mit der technologischen Entwicklung kaum Schritt halten können. Wie viele Straftaten mithilfe von KI und Stimmen-Deep-Fakes begangen werden, erfassen die Landeskriminalämter nicht gesondert. Laut dem LKA Hessen sind Audio-Fakes dieser Art heute sehr viel einfacher zu erstellen als noch vor einem Jahr. Oft reiche schon eine kurze Stimmenaufnahme.
Auch Bilder lassen sich per KI erzeugen. So funktioniert das:
USA: Swatting wegen Stimmen-Deep-Fake
In den USA haben künstlich generierte Stimmen schon zu mindestens einem Swatting-Fall geführt. Wohl aus Rache klonten Unbekannte die Stimme eines Schriftstellers und seiner Partnerin. Mit einem Deep-Fake-Anruf kontaktierten sie mehrfach die Polizei, um auf angebliche Verbrechen hinzuweisen. Schwer bewaffnete Polizisten machten sich anschließend auf den Weg zu den KI-Opfern.