Anzeige
Anzeige
  1. GIGA
  2. Tech
  3. Digital Life
  4. Schockanrufe mit Deep-Fakes: Betrüger klonen eure Stimme

Schockanrufe mit Deep-Fakes: Betrüger klonen eure Stimme

KI-Schockanrufe nehmen zu, wie der SWR zeigt. (© IMAGO / Fotostand)
Anzeige

KI ermöglicht es Kriminellen, Stimmen täuschend echt zu klonen und damit Straftaten zu begehen. Recherchen des SWR zeigen jetzt, dass diese Deep-Fake-Technik für betrügerische Schockanrufe und Identitätsdiebstahl missbraucht wird.

Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei unverändert. Diese Affiliate-Links sind durch ein Symbol gekennzeichnet.  Mehr erfahren.

KI-Schockanrufe: Stimme per Deep-Fake erzeugt

Während sich Online-Enkeltricks derzeit noch oft auf geschriebene Nachrichten beschränken, machen erste Deep-Fakes mit geklonten Stimmen die Runde. Einer Recherche des SWR zufolge finden bereits betrügerische Schockanrufe dieser Art in Deutschland statt. Häufig sollen es ältere Personen sein, die am Telefon gar nicht mit ihren Kindern oder Enkelkindern sprechen. Stattdessen werden ihre Stimmen per KI geklont (Quelle: Tagesschau).

Anzeige

Mehrere Online-Dienste ermöglichen mittlerweile das Klonen von Stimmen. In einem Test konnte der SWR zeigen, dass sich das Ergebnis kaum von der echten Stimme unterscheiden lässt. Laut einer Umfrage des Tech-Unternehmens McAfee haben bereits 22 Prozent der befragten Personen in Deutschland oder deren Bekannte Erfahrungen mit Audio-Betrug durch KI gemacht.

Viele dieser Fälle bleiben ungelöst, da Ermittler mit der technologischen Entwicklung kaum Schritt halten können. Wie viele Straftaten mithilfe von KI und Stimmen-Deep-Fakes begangen werden, erfassen die Landeskriminalämter nicht gesondert. Laut dem LKA Hessen sind Audio-Fakes dieser Art heute sehr viel einfacher zu erstellen als noch vor einem Jahr. Oft reiche schon eine kurze Stimmenaufnahme.

Anzeige

Auch Bilder lassen sich per KI erzeugen. So funktioniert das:

So funktioniert „Kunst“ per KI – TECHfacts Abonniere uns
auf YouTube

USA: Swatting wegen Stimmen-Deep-Fake

In den USA haben künstlich generierte Stimmen schon zu mindestens einem Swatting-Fall geführt. Wohl aus Rache klonten Unbekannte die Stimme eines Schriftstellers und seiner Partnerin. Mit einem Deep-Fake-Anruf kontaktierten sie mehrfach die Polizei, um auf angebliche Verbrechen hinzuweisen. Schwer bewaffnete Polizisten machten sich anschließend auf den Weg zu den KI-Opfern.

Anzeige