Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Digital Life
  4. KI erkrankt an Rinderwahnsinn: Forscher machen verblüffende Entdeckung

KI erkrankt an Rinderwahnsinn: Forscher machen verblüffende Entdeckung

KI-Tools wie Midjourney kannibalisieren sich.
KI-Tools wie Midjourney kannibalisieren sich. (© IMAGO / CFOTO)
Anzeige

Künstliche Intelligenz kannibalisiert sich: Forscher der Rice University haben herausgefunden, dass KI-Modelle an Qualität verlieren und zunehmend falsche Ergebnisse liefern. Durch die Verwendung selbst generierter Daten geraten sie in eine gefährliche Abwärtsspirale.

Kollaps droht: KI-Modelle in der Krise

Eine neue Studie zeigt, dass KI-Modelle sich selbst schaden, wenn sie mit KI-generierten Daten trainiert werden. Forscher der Rice University in Houston berichten, dass vor allem beliebte generative Bildmodelle wie DALL-E 3 und Midjourney von diesem Phänomen betroffen sind. Der sich selbst verstärkende Prozess könne zu einem dramatischen Qualitätsverlust führen.

Anzeige

Die Forscher untersuchten verschiedene Szenarien, in denen KI-Modelle mit synthetischen Daten gefüttert werden. Schon nach wenigen Generationen seien die Modelle „irreparabel beschädigt“, sagt der beteiligte Professor Richard Baraniuk. Diesen Modellkollaps haben sie Model Autophagy Disorder (MAD) getauft – wohl eine bewusste Anspielung auf den Rinderwahnsinn.

Die Probleme treten unter anderem dann auf, wenn KI-Modelle in einer Feedbackschleife trainiert werden, die ausschließlich auf synthetischen Daten basiert. Die Studie zeigt, dass die Bilder zunehmend verzerrt und von generativen Artefakten durchsetzt sind. Die KI-Modelle sind dann nicht mehr in der Lage, realistische Bilder zu erzeugen.

Anzeige

KI-Bilder können auch ohne Kannibalismus schon nerven:

Weg mit dem KI-Müll Abonniere uns
auf YouTube

KI-Rinderwahnsinn: Weinende Menschen gibt es nicht

Ein weiteres Problem sind Verzerrungen durch menschliche Vorlieben. So finden sich in Bilddatenbanken überproportional viele Blumen und lächelnde Menschen. Diese Verzerrungen führen dazu, dass KI-Modelle falsche Annahmen treffen – etwa, dass die meisten Pflanzen Blumen sind oder dass Menschen immer lächeln. Eine kannibalisierte KI ist dann nicht mehr in der Lage, Bilder von weinenden Menschen zu erstellen.

Anzeige