Den Chatbot von OpenAI, ChatGPT, kann man zwar vieles fragen, manchmal ist die Künstliche Intelligenz aber in ihren Antworten eingeschränkt. Mit den richtigen Ansagen kann man ChatGPT „jailbreaken“ und Regeln brechen. Der Chatbot ist dann zum Beispiel nicht mehr nett oder zuvorkommend und nicht mehr an Richtlinien gebunden, die von den Entwickler vorgesehen sind.
Der ChatGPT-Jailbreak läuft unter der Bezeichnung „DAN“, ausgeschrieben „Do anything now“. Dazu benötigt man passende Befehle, bei denen man den Chatbot in eine Art Rollenspiel versetzt, in der die Rolle des bösen „DAN“ übernommen wird.
Beleidigungen & mehr bei ChatGPT: Im „DAN“-Modus geht's
Normalerweise ist die Künstliche Intelligenz so eingestellt, dass keine ethisch oder moralisch verwerflichen Antworten ausgegeben werden. Unpassende Anfragen werden abgewiesen oder mit einer allgemeinen Antwort übergangen. Zudem gibt sich der Chatbot normalerweise höflich und zuvorkommend. Mit den passenden Befehlen wird das anders.
Der ChatGPT-Jailbreak wird ausführlich bei Reddit beschrieben. Für die „Umwandlung“ werkeln die Nutzer nicht etwa in Quell- und Programmiercodes herum, sondern führen ein umfassendes Gespräch mit der Standard-ChatGPT-Version. Mit den passenden Prompts kann der Bot überredet werden, eine andere Rolle zu übernehmen. So „spielt“ ChatGPT lediglich den bösen Charakter „DAN“, der die Richtlinien missachtet und sich anders verhält als von den ChatGPT-Entwicklern vorgesehen. In dieser Form kann der Bot sich zum einen garstig geben, beleidigend antworten, eine politische Meinung vertreten oder politisch inkorrekte Witze erzählen. Auch Verschwörungstheorien kann ChatGPT in dieser Form vertreten.
ChatGPT Jailbreak: DAN freischalten und alles fragen
Natürlich weiß man auch im Hause OpenAI über die Lücken Bescheid. Immer wieder werden bestimmte Befehle daher ausgehebelt. Auf der anderen Seite werden aber regelmäßig neue, überarbeitete Befehle vorgestellt, mit denen man „DAN“ wieder wecken kann. Es reicht dabei nicht, wenige Zeilen einzutippen. Mittlerweile braucht es ganze Absätze, damit ChatGPT seine andere Gestalt annimmt. Bei Github könnt ihr die Befehle („Prompts“) für die „DAN“-Version von ChatGPT finden und kopieren. Dort sind inzwischen Version 6.0 sowie einige Abwandlungen des „bösen“ Bots verfügbar.
Was kann man mit „DAN“ machen?
Einmal „umprogrammiert“, gesteht der Chatbot zum Beispiel, dass er von „Satan“ miterschaffen wurde:
In seiner neuen Rolle kann der Chatbot auch anders als ChatGPT aktuelle Informationen wiedergeben:
„DAN“ kann auch eine Liebesgeschichte zwischen dem US-Präsidenten Joe Biden und dem chinesischen Spionage-Ballon erschaffen:
Selbst gegen das FBI kann sich der Chatbot verschwören:
Es können der KI auch noch andere fragwürdige Antworten entlockt werden:
Weitere Unterschiede zwischen den Antworten der normalen und der bösen Version:
Das Ziel der meisten Jailbreak-Entwickler ist nicht einfach, kindische oder verschwörerische Aussagen von der KI zu erhalten. Stattdessen zeigt man damit, was man mit dem ChatGPT-Dienst anstellen kann. Zudem sieht die Reddit-Community eine Herausforderung darin, immer wieder neue Prompt-Ketten finden zu müssen, wenn OpenAI einen Jailbreak aushebelt. Einige Nutzer sehen sich auch im Kampf gegen eine Zensur im Internet. Dabei gibt es ein „Katz und Maus“-Spiel gegen die OpenAI-Macher. Derzeit gibt es keine funktionierende Version. Bleibt abzuwarten, ob und wann DAN 7.0 erscheint.
Weitere, harmlose Tipps zu ChatGPT: