Anzeige
Anzeige
  1. GIGA
  2. Tech
  3. Digital Life
  4. KI erkrankt an Rinderwahnsinn: Forscher machen verblüffende Entdeckung

KI erkrankt an Rinderwahnsinn: Forscher machen verblüffende Entdeckung

KI-Tools wie Midjourney kannibalisieren sich.
KI-Tools wie Midjourney kannibalisieren sich. (© IMAGO / CFOTO)
Anzeige

Künstliche Intelligenz kannibalisiert sich: Forscher der Rice University haben herausgefunden, dass KI-Modelle an Qualität verlieren und zunehmend falsche Ergebnisse liefern. Durch die Verwendung selbst generierter Daten geraten sie in eine gefährliche Abwärtsspirale.

Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei unverändert. Diese Affiliate-Links sind durch ein Symbol gekennzeichnet.  Mehr erfahren.

Kollaps droht: KI-Modelle in der Krise

Eine neue Studie zeigt, dass KI-Modelle sich selbst schaden, wenn sie mit KI-generierten Daten trainiert werden. Forscher der Rice University in Houston berichten, dass vor allem beliebte generative Bildmodelle wie DALL-E 3 und Midjourney von diesem Phänomen betroffen sind. Der sich selbst verstärkende Prozess könne zu einem dramatischen Qualitätsverlust führen.

Anzeige

Die Forscher untersuchten verschiedene Szenarien, in denen KI-Modelle mit synthetischen Daten gefüttert werden. Schon nach wenigen Generationen seien die Modelle „irreparabel beschädigt“, sagt der beteiligte Professor Richard Baraniuk. Diesen Modellkollaps haben sie Model Autophagy Disorder (MAD) getauft – wohl eine bewusste Anspielung auf den Rinderwahnsinn.

Die Probleme treten unter anderem dann auf, wenn KI-Modelle in einer Feedbackschleife trainiert werden, die ausschließlich auf synthetischen Daten basiert. Die Studie zeigt, dass die Bilder zunehmend verzerrt und von generativen Artefakten durchsetzt sind. Die KI-Modelle sind dann nicht mehr in der Lage, realistische Bilder zu erzeugen.

Anzeige

KI-Bilder können auch ohne Kannibalismus schon nerven:

Weg mit dem KI-Müll Abonniere uns
auf YouTube

KI-Rinderwahnsinn: Weinende Menschen gibt es nicht

Ein weiteres Problem sind Verzerrungen durch menschliche Vorlieben. So finden sich in Bilddatenbanken überproportional viele Blumen und lächelnde Menschen. Diese Verzerrungen führen dazu, dass KI-Modelle falsche Annahmen treffen – etwa, dass die meisten Pflanzen Blumen sind oder dass Menschen immer lächeln. Eine kannibalisierte KI ist dann nicht mehr in der Lage, Bilder von weinenden Menschen zu erstellen.

Anzeige