Künstliche Intelligenz kannibalisiert sich: Forscher der Rice University haben herausgefunden, dass KI-Modelle an Qualität verlieren und zunehmend falsche Ergebnisse liefern. Durch die Verwendung selbst generierter Daten geraten sie in eine gefährliche Abwärtsspirale.
Kollaps droht: KI-Modelle in der Krise
Eine neue Studie zeigt, dass KI-Modelle sich selbst schaden, wenn sie mit KI-generierten Daten trainiert werden. Forscher der Rice University in Houston berichten, dass vor allem beliebte generative Bildmodelle wie DALL-E 3 und Midjourney von diesem Phänomen betroffen sind. Der sich selbst verstärkende Prozess könne zu einem dramatischen Qualitätsverlust führen.
Die Forscher untersuchten verschiedene Szenarien, in denen KI-Modelle mit synthetischen Daten gefüttert werden. Schon nach wenigen Generationen seien die Modelle „irreparabel beschädigt“, sagt der beteiligte Professor Richard Baraniuk. Diesen Modellkollaps haben sie Model Autophagy Disorder (MAD) getauft – wohl eine bewusste Anspielung auf den Rinderwahnsinn.
Die Probleme treten unter anderem dann auf, wenn KI-Modelle in einer Feedbackschleife trainiert werden, die ausschließlich auf synthetischen Daten basiert. Die Studie zeigt, dass die Bilder zunehmend verzerrt und von generativen Artefakten durchsetzt sind. Die KI-Modelle sind dann nicht mehr in der Lage, realistische Bilder zu erzeugen.
KI-Bilder können auch ohne Kannibalismus schon nerven:
KI-Rinderwahnsinn: Weinende Menschen gibt es nicht
Ein weiteres Problem sind Verzerrungen durch menschliche Vorlieben. So finden sich in Bilddatenbanken überproportional viele Blumen und lächelnde Menschen. Diese Verzerrungen führen dazu, dass KI-Modelle falsche Annahmen treffen – etwa, dass die meisten Pflanzen Blumen sind oder dass Menschen immer lächeln. Eine kannibalisierte KI ist dann nicht mehr in der Lage, Bilder von weinenden Menschen zu erstellen.