Dem Chatbot ChatGPT könnt ihr Fragen aller Art stellen. Aber wie sicher ist das Tool? Welche Befehle sollte man lieber nicht eintragen? Und welche Gefahren ergeben sich durch den KI-getriebenen Service?
Der Chatbot funktioniert sehr einfach. Hat man einmal einen Account erstellt, kann man Anfragen und Befehle jeder Art eintippen. Daraus ergeben sich jedoch einige Probleme.
Datenschutz bei ChatGPT: Diese Befehle sollte man vermeiden
ChatGPT basiert auf einem Sprachmodell, das mit Informationen aus verschiedensten Quellen aus dem Internet bis Mitte 2021 gefüttert wurde. Daneben verarbeitet die Künstliche Intelligenz alle neu eingehenden Anfragen der Nutzer. Daher solltet ihr einiges beachten, wenn ihr mit dem Chatbot plaudert:
- Vermeidet es, jegliche personenbezogenen Daten beim Dienst anzugeben. Dabei geht es zum Beispiel um Vor- und Nachnamen, E-Mailadressen oder Passwörter.
- Ihr solltet also zum Beispiel nicht nach einer Neuformulierung einer geschäftlichen E-Mail fragen, die persönliche oder unternehmerische Informationen enthält.
- Als Programmierer solltet ihr vollständige, eigene Programmcodes nicht zu leichtfertig im Tool eintragen und zum Beispiel abfragen, was sich im Code verbessern ließe.
- Diese Daten könnte sich die Künstliche Intelligenz sich antrainieren und für zukünftige Antworten verwenden.
- Mit geschickten und passenden Prompts könnten andere Nutzer also an Informationen gelangen, die sensibel und nicht für die Öffentlichkeit bestimmt sind. Das hat bereits eine Studie gezeigt, in der von anderen Nutzern eingetragene Befehlsketten Wort für Wort durch ChatGPT wiedergegeben werden konnten (Quelle).
Der Anbieter OpenAI gibt in den Datenschutzrichtlinien selbst keine Gewähr für die Sicherheit der eigenen Daten. Beim normalen Umgang mit dem Chat-Tool werden keine personenbezogenen Daten verarbeitet und erfasst. Solange ihr also keine entsprechenden Informationen als Befehl eintippt, speichert ChatGPT nichts, was weiterverwendet werden würde. Grundsätzlich solltet ihr persönliche und sensible Daten bei Anfragen jedoch anonymisieren und möglichst allgemein halten.
ChatGPT: Vorsicht vor Kostenfallen
Neben Datenschutzproblemen ergeben sich aus ChatGPT einige andere Gefahren. Schon jetzt nutzen zum Beispiel Betrüger das hohe Interesse an dem Tool aus. ChatGPT ist kostenlos auf der Webseite des Anbieters verfügbar. Eine offizielle App für Android und iPhone gibt es nicht. Im Google Play Store und Apple App Store tummeln sich aber zahlreiche Anwendungen, die euch ChatGPT gegen eine Bezahlung auf das mobile Gerät bringen wollen. Hierbei sollt ihr zum Beispiel ein Abonnement abschließen, um auf die eigentlich kostenlosen Funktionen auf dem Smartphone zugreifen zu können.
Die Anbieter dieser Apps greifen auf die ChatGPT-API zu. Eine Zahlung ist aber auch auf Android und iOS gar nicht notwendig. Ihr müsst den Dienst lediglich im Browser ansteuern und nicht in einer eigenen App. Ein kostenpflichtiges Abonnement braucht ihr nicht, solange ihr nicht auf das offizielle ChatGPT-Plus-Programm zugreifen wollt.
Gefahren durch Phishing und Fakes
Auch im Phishing-Bereich ergeben sich durch ChatGPT einige Gefahren:
- Betrüger bauen zum Beispiel die ChatGPT-Login-Seite nach und versuchen, Nutzer durch Links oder betrügerische Google-Anzeigen auf diese Fake-Seite zu locken. Bei diesen Hack-Seiten wird man dazu aufgefordert, verschiedene persönliche Informationen einzugeben, die die Betrüger später ausnutzen könnten. Auch bei der offiziellen ChatGPT-Webseite wird die Telefonnummer für den Login zwar benötigt, allerdings muss man die Angabe nur einmal machen. Öffnet den Dienst zur Sicherheit nur direkt über die offizielle URL und nicht durch Links auf anderen Seiten oder überprüft zumindest in der Adressleiste, ob dort die offizielle URL eingetragen ist.
- Bei anderen Betrugsversuchen wird man von der vermeintlichen ChatGPT-Seite auf dubiose Angebote weitergeleitet, die Nutzer zum Beispiel zu Krypto-Investitionen bringen sollen (Quelle: t3n.de). Das offizielle ChatGPT leitet nicht auf solche Seiten weiter und fragt auch keine Kreditkartendaten oder ähnliches ab.
- Schon jetzt gehen in die E-Mail-Postfächer täglich betrügerische E-Mails im Namen von Amazon, PayPal, DHL und Co. ein, bei denen Nutzer gefährliche Links anklicken sollen. Bislang zeichnen sich solche Fake-Mails oft durch einen holprigen Sprachstil und eine fehlerhafte Rechtschreibung aus. Mit Hilfe von ChatGPT könnten internationale Betrügerbanden aber ein Werkzeug bekommen, um Phishing-Nachrichten schneller fehlerfrei und glaubwürdiger zu gestalten (Quelle: IT-Business.de).
ChatGPT und das Urheberrecht
Weiterhin stellt das Urheberrecht ein Problem bei ChatGPT dar. Das Sprachmodell wurde aus verschiedenen Quellen, etwa aus dem Internet und Büchern antrainiert. Bei den Antworten kann man sich nie sicher sein, dass ChatGPT nicht einfach 1:1 wiedergibt, was genauso in einer Quelle steht. Kopiert man solche Antworten und macht sie öffentlich, zum Beispiel in seinem eigenen Blog, könnte ein Urheberrechtsverstoß vorliegen, der abgemahnt werden kann (Quelle: Mein-Datenschutzbeauftragter).
Kann man sich bei den Antworten sicher sein?
Zu guter Letzt sollte man im Hinterkopf behalten, dass der KI-getriebene Chatbot noch am Anfang seiner Entwicklung steht. Die Antworten sind bei weitem noch nicht ausgereift und oft fehlerhaft. Ihr solltet euch also nie blind darauf verlassen, was euch der Chatbot so antwortet, sondern Informationen immer gegen prüfen. Genauso wenig, wie man etwa Wikipedia als Quelle in Hausarbeiten an einer Hochschule angeben sollte, darf man ChatGPT als primären Nachweis für Informationen anführen.
Ist ChatGPT sicher? Fazit
Man kann ChatGPT schon jetzt an vielen Stellen sinnvoll nutzen, um sich zum Beispiel seine Arbeit zu erleichtern oder Informationen zu bekommen, ohne mehrere Links bei Google öffnen zu müssen. ChatGPT hat aber noch einige Gefahren und ist in verschiedener Hinsicht nicht sicher. Neben den genannten Problemen gibt es noch einige weitere Risiken. Man sollte das Tool mit Bedacht nutzen, keine sensiblen Informationen eingeben und Antworten immer mit Vorsicht genießen. Im aktuellen Stand stellt ChatGPT bei einem gewissenhaften Einsatz keine große Gefahr dar. Auch bei Skynet wähnte man sich aber zu lange in Sicherheit…