Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Wird ChatGPT dümmer? Das steckt hinter dem Performance-Verlust von GPT-4

Wird ChatGPT dümmer? Das steckt hinter dem Performance-Verlust von GPT-4

Die Modelle GPT-3.5 und GPT-4 unterscheiden sich in der Qualität der Ergebnisse.
Die Modelle GPT-3.5 und GPT-4 unterscheiden sich in der Qualität der Ergebnisse. (© Matheus Bertelli / Pexels)
Anzeige

Es ist noch nicht lange her, da verblüffte OpenAI die Welt mit ChatGPT. Doch nun bemerken User, dass die KI immer mehr nachlässt. Was ist da los?

Künstliche Intelligenz ist derzeit in aller Munde. Wir können mit AI Bilder generierenTexte schreiben und Unterhaltungen führen – doch hat die AI etwa schon ihren Höhepunkt erreicht? Experten und Expertinnen sprechen laut Insider davon, dass das bisher mächtigste KI-Model „dümmer“ und „fauler“ wird. Wie kann das sein?

Anzeige

ChatGPT: Wird GPT-4 dümmer?

Immer mehr Benutzer lassen auf Twitter – beziehungsweise auf X – ihrem Frust bezüglich des vierten multimedialen Sprachmodells des Unternehmens OpenAI freien Lauf. Denn die Performance von GPT-4, auf dem das Dialogsystem ChatGPT basiert, lässt offensichtlich zu wünschen übrig. Auf der Social-Media-Plattform und im Onlineforum von OpenAI heißt es, dass die Logik des Sprachmodells nachlasse, dass falsche Antworten häufiger vorkämen und die KI den Überblick über bereits gelieferte Informationen verliere. Doch nicht nur das. GPT-4 soll sich plötzlich auch schwer damit tun, Vorgaben zu befolgen, vergisst Klammern in Basis-Softwarecodes einzufügen und erinnert sich nur an die letzte Eingabeaufforderung.

Kunst, Texte, Websites: Die Künstliche Intelligenz ist auf dem Vormarsch und greift in viele Lebensbereiche der Menschheit ein. In unserem Video erfahrt ihr, wie sich KI auf Kunst auswirken wird.

Anzeige

GPT-4: Alles eine Frage des Geldes?

Der Grund scheint wie so häufig eine Geldfrage zu sein. Schon seit Längerem habe man wohl bei OpenAI mit dem Gedanken gespielt, eine maßgebende Änderung bei GPT-4 vorzunehmen. Sharon Zhou, CEO von Lamini, einem Start-up, das Entwicklern dabei hilft, benutzerdefinierte Sprachmodelle zu bauen, verrät mehr dazu. Der Gedanke sei, dass OpenAI mehrere kleine GPT-4-Modelle entwickeln wolle, die jeweils ein Spezialgebiet wie beispielsweise Physik, Biologie oder Chemie haben. Wird dann eine Aufforderung eingegeben, leitet das neue System die Nutzer entsprechend zum Expertenmodell weiter, wobei auch die Möglichkeit bestehe, dass mehrere Modelle befragt würden und die Antwort sich aus den unterschiedlichen Fachbereichen zusammensetze.

Anzeige

Was bringt das KI-Modell MOE?

Dieses Modell von KI wird als MOE bezeichnet: Mixture of Experts, also eine Expertenmischung. Es gibt zwei technische Gründe, warum OpenAI auf MOE setzen könnte. Zum einem die Hoffnung auf besser generierte Antworten, zum anderen aber auch billigere und schnellere Ergebnisse. Der Gründungs-CEO Oren Etzioni des Allen Institute for Artificial Intelligence schreibt in einer Mail an Insider:

„Die ‚richtige‘ Mischung kann beides bieten, kommt aber auch mit einem Kompromiss zwischen Kosten und Qualität. Diese Modelle sind schwer zu bewerten (Was macht eine bessere Antwort aus? In welchen Fällen?), sie sind also nicht wissenschaftlich, sondern nur anekdotisch.“ (Ins Deutsche übersetzt durch GIGA.)

Es scheint wie so häufig eine Frage des Profits zu sein: Will man nur das schnelle Geld mit etwas verdienen und spart dafür an Qualität oder setzt man stattdessen darauf, etwas zu erschaffen, das uns als Gemeinschaft voranbringt? Nur die Zukunft wird zeigen, wie sich GPT weiter entwickeln wird. Ihr wollt die KI selbst austesten? Dann holt euch doch die kostenlose Android-App zu ChatGPT. Außerdem verraten wir euch, wie ihr euch bei GPT-4 anmeldet.

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige