Europol warnt mit deutlichen Worten vor den Risiken, die durch KI-Sprachmodelle wie ChatGPT entstehen können. In einer ersten Analyse sieht die EU-Polizeibehörde Gefahren bei Betrug durch Social Engineering, Desinformation und Cyberkriminalität.
Europol: ChatGPT kann Verbrechern helfen
Die Polizeibehörde der Europäischen Union hat auf die Risiken von KI-Sprachmodellen wie ChatGPT hingewiesen. In einer jetzt veröffentlichten Analyse des Europol Innovation Lab wird unter anderem vor neuen Phishing-Angriffen gewarnt. Kriminelle könnten ChatGPT für authentisch wirkende Texte nutzen. Zudem könnten Sprachmodelle den Sprachstil bestimmter Personen nachahmen und so Empfänger leichter täuschen.
Auch für Propaganda und Fake News könnte ChatGPT eingesetzt werden, da Nachrichten viel schneller und unkomplizierter als bisher mit dem jeweils gewünschten Narrativ erstellt werden können. Da nur Sprachmodelle ausgewertet wurden, enthält die Analyse keine Hinweise auf Bildgeneratoren. Künstlich erzeugte Bilder können aber auch für Falschnachrichten sorgen.
So entstehen KI-Bilder:
Ein weiteres kriminelles Anwendungsgebiet betrifft bereits die Generierung konkreter Informationen. Sprachmodelle erleichtern die Recherche und liefern Schlüsselinformationen, die von Kriminellen missbraucht werden können. Für Expertenwissen über Einbrüche oder Terrorismusfinanzierung seien keine Insiderinformationen mehr nötig, so Europol.
Europol: ChatGPT-Missbrauch verhindern
Das Europol Innovation Lab kommt zu dem Schluss, dass Strafverfolgungsbehörden auch bei KI-Werkzeugen eine führende Rolle bei der Antizipation und Verhinderung von Missbrauch zukommt. Sprachmodelle würden sich ständig weiterentwickeln und könnten sogar zu einem der wichtigsten kriminellen Geschäftsmodelle werden. Es sei von entscheidender Bedeutung, die Entwicklung von KI genau zu beobachten (Quelle: Europol).