KI-Textbots sind bekannt dafür, es mit der Wahrheit nicht ganz so genau zu nehmen. Jetzt hat der ChatGPT-Anbieter OpenAI einen neuen Lösungsansatz präsentiert. Halluzinationen sollen so verhindert oder zumindest abgeschwächt werden. Ob das gelingen kann, bezweifeln Experten.
OpenAI: ChatGPT soll weniger halluzinieren
Wer den Textbot ChatGPT schon mal selbst verwendet hat, kennt das Problem nur zu gut: Die KI kann zwar durchaus beeindruckende Ergebnisse präsentieren, doch ob diese auch stimmen, muss selbst nachgeprüft werden. Nicht selten halluziniert sich der Textroboter Ergebnisse zusammen, die bei näherem Hinsehen kaum noch etwas mit der Realität zu tun haben.
Der ChatGPT-Anbieter OpenAI kennt das Problem ebenfalls. Nach eigener Aussage würde die KI „Fakten erfinden“ in „Momenten der Unsicherheit“. Insbesondere bei Aufgaben, die eine mehrstufige Lösung erfordern, können auch kleine Logikfehler umfangreiche Auswirkungen haben. Jetzt hat das Unternehmen in einem Paper einen neuen Lösungsansatz beschrieben, der für weniger oder gar keine Halluzinationen mehr sorgen soll.
Das hinter ChatGPT stehende Sprachmodell GPT soll doppelt überprüft werden. Auf der einen Seite werden Endergebnisse auf halluzinierte Antworten überprüft, auf der anderen Seite soll eine kleinstufige Prozessüberwachung für wahrere Ergebnisse sorgen. Eigenen Angaben zufolge hat sich die neue Prozessüberwachung bereits bei Matheaufgaben bewährt.
OpenAI gibt allerdings selbst zu, dass die Logik von Matheaufgaben einfacher zu bewältigen ist als die von Texten. Noch sei nicht absehbar, ob sich die gewonnenen Erkenntnisse einfach übertragen lassen (Quelle: CNBC).
Von dem Problem sind auch andere Textbots wie Google Bard betroffen:
Neuer ChatGPT-Ansatz: Experten sind skeptisch
KI-Forscher haben sich skeptisch zum neuen Ansatz von OpenAI geäußert. Falschinformationen ließen sich dadurch nicht reduzieren oder gar verhindern, meint Ben Winter vom Electronic Privacy Information Center. Suresh Venkatasubramanian von der Brown University sieht das Problem weniger bei ChatGPT selbst, sondern mehr bei der Art und Weise, wie Sprachmodelle entstehen und trainiert werden. Lösungsansätze ließen sich schlecht verallgemeinern.