Bei TikTok macht sich ein verstörender Trend bemerkbar: Deepfakes, die mit einer Künstlichen Intelligenz erzeugt wurden, lassen kindliche Mordopfer zu Wort kommen. Derartige Inhalte sind auf der Plattform eigentlich verboten. Einige der größten Deepfake-Accounts wurden jetzt gelöscht.
TikTok: KI-Deepfakes mit Mordopfern
Bei TikTok tauchen vermehrt Deepfake-Videos auf, die mithilfe einer Künstlichen Intelligenz erstellt wurden. Anders als bisher wird nicht mehr nur prominenten Persönlichkeiten etwas in den Mund gelegt. Stattdessen werden Videos verbreitetet, in denen sich kindliche Mordopfer angeblich zur Tat äußern.
In einem der KI-Videos heißt es drastisch: „Mein Vater sperrte mich in eine laufende Waschmaschine. Ich starb unter entsetzlichen Schmerzen“. Während die geschilderten Fälle selbst einen wahren Hintergrund haben, sind weitere Details zur Tat oft erfunden. Auch das Aussehen der gezeigten Kinder wird verändert. Allerdings sind die Namen der Kinder oft echt.
Manche der Accounts, die derartige Videos verbreiten, weisen auf einen Haftungsausschluss hin. Dort heißt es, dass bewusst keine echten Fotos der Opfer verwendet werden. So wolle man die Privatsphäre der Familie respektieren.
TikTok hat bereits reagiert und einige Accounts gelöscht. Die KI-Deepfakes von Nostalgia Narratives und Touching Story sind aber teils weiter auf der Plattform vorhanden. Andere Nutzer haben sie erneut hochgeladen. Nostalgia Narratives kam auf über 175.000 Follower, bei Touching Story waren es rund 66.000.
Deutlich harmloser sind TikTok-Tänze:
KI-Deepfakes bei TikTok: Rechtliche Grauzone
Laut Paul Bleakley, Assistenzprofessor für Strafjustiz an der Universität von New Haven, handelt es sich bei derartigen Videos um eine „heikle, trübe Grauzone“. Da die gezeigten Personen verstorben sind und keine echten Bilder von ihnen verwendet wurden, dürften Klagen der Verbliebenen ins Leere laufen. Zivilrechtlich könnte dennoch gegen die Macher vorgegangen werden, falls diese ihre Videos monetarisieren (Quelle: Rolling Stone).