Anzeige
Anzeige
  1. GIGA
  2. Tech
  3. Digital Life
  4. ChatGPT lügt: Dieser neue Ansatz soll Halluzinationen verhindern

ChatGPT lügt: Dieser neue Ansatz soll Halluzinationen verhindern

ChatGPT soll weniger halluzinieren. (© IMAGO / NurPhoto)
Anzeige

KI-Textbots sind bekannt dafür, es mit der Wahrheit nicht ganz so genau zu nehmen. Jetzt hat der ChatGPT-Anbieter OpenAI einen neuen Lösungsansatz präsentiert. Halluzinationen sollen so verhindert oder zumindest abgeschwächt werden. Ob das gelingen kann, bezweifeln Experten.

Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei unverändert. Diese Affiliate-Links sind durch ein Symbol gekennzeichnet.  Mehr erfahren.

OpenAI: ChatGPT soll weniger halluzinieren

Wer den Textbot ChatGPT schon mal selbst verwendet hat, kennt das Problem nur zu gut: Die KI kann zwar durchaus beeindruckende Ergebnisse präsentieren, doch ob diese auch stimmen, muss selbst nachgeprüft werden. Nicht selten halluziniert sich der Textroboter Ergebnisse zusammen, die bei näherem Hinsehen kaum noch etwas mit der Realität zu tun haben.

Anzeige

Der ChatGPT-Anbieter OpenAI kennt das Problem ebenfalls. Nach eigener Aussage würde die KI „Fakten erfinden“ in „Momenten der Unsicherheit“. Insbesondere bei Aufgaben, die eine mehrstufige Lösung erfordern, können auch kleine Logikfehler umfangreiche Auswirkungen haben. Jetzt hat das Unternehmen in einem Paper einen neuen Lösungsansatz beschrieben, der für weniger oder gar keine Halluzinationen mehr sorgen soll.

Das hinter ChatGPT stehende Sprachmodell GPT soll doppelt überprüft werden. Auf der einen Seite werden Endergebnisse auf halluzinierte Antworten überprüft, auf der anderen Seite soll eine kleinstufige Prozessüberwachung für wahrere Ergebnisse sorgen. Eigenen Angaben zufolge hat sich die neue Prozessüberwachung bereits bei Matheaufgaben bewährt.

Anzeige

OpenAI gibt allerdings selbst zu, dass die Logik von Matheaufgaben einfacher zu bewältigen ist als die von Texten. Noch sei nicht absehbar, ob sich die gewonnenen Erkenntnisse einfach übertragen lassen (Quelle: CNBC).

Von dem Problem sind auch andere Textbots wie Google Bard betroffen:

Google Bard: So sieht die neue KI-Suche aus

Neuer ChatGPT-Ansatz: Experten sind skeptisch

KI-Forscher haben sich skeptisch zum neuen Ansatz von OpenAI geäußert. Falschinformationen ließen sich dadurch nicht reduzieren oder gar verhindern, meint Ben Winter vom Electronic Privacy Information Center. Suresh Venkatasubramanian von der Brown University sieht das Problem weniger bei ChatGPT selbst, sondern mehr bei der Art und Weise, wie Sprachmodelle entstehen und trainiert werden. Lösungsansätze ließen sich schlecht verallgemeinern.

Anzeige