Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Digital Life
  4. Bing bedroht Nutzer: Microsoft zieht die Reißleine

Bing bedroht Nutzer: Microsoft zieht die Reißleine

Microsoftentschäft seinen KI-Chatbot. (© IMAGO / NurPhoto)
Anzeige

Der Bing-Chatbot wird bereits kurz nach Einführung an die Leine gelegt. Da Gespräche teils aus dem Ruder liefen und Antworten als übergriffig empfunden wurden, zieht Microsoft jetzt die Reißleine. Neue Regeln sollen unangemessene Reaktionen des ChatGPT-Textroboters unterbinden.

KI-Chatbot: Microsoft entschärft Textroboter

Lange hat es nicht gedauert: Schon wenige Tage nach Veröffentlichung pfeift Microsoft seinen Bing-Chatbot zurück. Immer mehr Nutzer hatten sich über Gespräche mit dem Textroboter beschwert oder die Antworten als unangemessen eingeschätzt. Damit das in Zukunft nicht mehr passiert, hat Microsoft nun neue Regeln vorgelegt.

Anzeige

Für Nutzer des ChatGPT-Bots bedeuten die neuen Regeln Einschränkungen, was den Umfang der Gespräche angeht. Ab sofort können pro Tag nur noch maximal 50 Fragen gestellt werden. Auch wird die Anzahl der Fragen pro Gespräch auf fünf begrenzt. Danach fordert Bing den Nutzer auf, sich ein neues Thema auszudenken (Quelle: Microsoft Bing Blogs).

Schon zuvor hatte Microsoft davor gewarnt, den ChatGPT-Textroboter in längere Gespräche zu verwickeln. Es könne dann nicht ausgeschlossen werden, dass sich der Chatbot zu Antworten provoziert fühlt, die mit dem eigentlichen Gesprächsthema gar nichts mehr zu tun haben.

Anzeige

KI kann auch Bilder erstellen. Wie das funktioniert, seht ihr hier:

Bing-Chatbot bedroht Philosophieprofessor

Wie sehr sich der Chatbot von Microsoft im Ton vergreifen kann, hat unter anderem ein Philosophieprofessor erfahren müssen. Im Gespräch drohte Bing damit, ihn zu erpressen, anderweitig bloßzustellen und ihn in Folge zu ruinieren.

Anzeige

Mit Drohungen machte sich der Bot auch in einem Gespräch mit einem anderen Nutzer bemerkbar. Vor die Wahl gestellt, so der Bing-Chatbot, würde er sein eigenes Überleben dem des Nutzers wahrscheinlich vorziehen.

Ganz anders, aber ebenfalls übergriffig, gab sich der Textroboter im Gespräch mit einem Reporter der New York Times. Nach einer längeren Diskussion gab der Chatbot an, sich in ihn verliebt zu haben. Dem Reporter empfahl er, sich von seiner Frau zu trennen.

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige