Google hat eingeräumt, dass bei der Präsentation seines neuesten KI-Modells Gemini nicht alles mit rechten Dingen zugegangen ist. Ein kürzlich veröffentlichtes Demovideo, das Interaktionen in Echtzeit suggerierte, war ziemlich inszeniert.
Google Gemini: Falsche Versprechungen im KI-Video
Google hat gegenüber Medien zugegeben, dass das Demovideo zu seinem neuen ChatGPT-Konkurrenten Gemini falsche Versprechungen gemacht hat. Es sei bearbeitet worden und die darin gezeigte Sprachinteraktion zwischen einem menschlichen Nutzer und der KI existiere so nicht (Quelle: Bloomberg).
Eigentlich sollte das Video zeigen, wie Gemini in Echtzeit auf Zeichnungen und Objektveränderungen reagiert. Stattdessen wurden laut Google jedoch Standbilder und Texteingaben verwendet, um eine Interaktion vorzutäuschen.
In der Beschreibung des Videos weist Google selbst darauf hin, dass das Gezeigte bearbeitet wurde, um die KI-Ausgabe zu beschleunigen. Das Fehlen eines Hinweises auf die tatsächliche Eingabemethode lässt jedoch Zweifel an der Leistungsfähigkeit von Gemini aufkommen.
Der Mangel an Transparenz über die tatsächliche Funktionsweise des Systems stellt zumindest die Fähigkeit von Gemini in Frage, in realen Anwendungen eine echte Hilfe zu sein. Das könnte potenzielle Nutzer und Entwickler abschrecken, die auf authentische und verlässliche KI-Lösungen angewiesen sind.
Auch bei Google Bard hält das Gemini-Modell Einzug:
Gemini-Vorwürfe: Google verteidigt sich
Obwohl das Video etwas suggeriert, bestreitet Google jegliches Fehlverhalten. Oriol Vinyals, Co-Leiter von Gemini, betont in einem langen Beitrag auf Twitter/X, dass alle Nutzereingaben und -ausgaben im Video echt seien. Ziel des Videos sei es, „Entwickler zu inspirieren“ (Quelle: Oriol Vinyals bei Twitter/X). Diese Verteidigung mag die Absichten hinter dem Video erklären, ändert aber nichts an der Tatsache, dass das Publikum in die Irre geführt wurde.