BlogKI

Warum KI-Modelle kollabieren

Wie an dieser Stelle bereits gemeldet, kollabieren die unterschiedlichsten Arten von KI-Modellen, wenn sie mit Input trainiert werden, den sie selbst produziert haben. Aber warum vergiften sich KI-Systeme mit ihren eigenen Erzeugnissen?

Dass KI-Systeme für ihre Weiterentwicklung immer wieder frischen, von Menschen produzierten Input brauchen, wenn sie nicht degenerieren sollen, ist schon länger bekannt. Der aktuelle Artikel zeigt nur, wie universell das Problem ist, denn es betrifft textbasierte Systeme wie ChatGPT ebenso wie neuronale Netze mit ganz anderer Architektur, die Bilder generieren.

Je mehr eine generative KI mit ihren eigenen Bildern („poison“) trainiert wird, in desto weniger Schritten degeneriert ihr Output. (Quelle: „Nepotistically Trained Generative-AI Models Collapse“ von Matyáš Boháček und Hany Farid)

Wir kennen das Problem aus Vampirfilmen: Vampire beißen Nicht-Vampire, saugen ihr Blut und machen ihre Opfer damit ebenfalls zu Vampiren. Gäbe es nicht die van Helsings, die sie bekämpfen, wäre bald die gesamte Menschheit untot – aber was dann? Wovon wollten die Untoten sich ernähren, wenn es keine Lebenden mehr gäbe? Sind es also nicht eigentlich die Vampirjäger, die das Überleben der Vampire sichern, gerade indem sie deren Siegeszug verhindern? Die Hersteller von KI-Systemen haben ein ähnliches Problem: Sie haben bereits fast das gesamte Internet zur Gewinnung von Trainingsmaterial abgegrast und brauchen neuen Input, um ihre Systeme weiter zu verbessern, aber was an Bildern und Texten neu gepostet wird, sind immer öfter bereits KI-Produkte. Oft werden die KI-Modelle daher mit ihrem eigenen Output als Input gefüttert.

Wer sich weiterentwickeln will, braucht Herausforderungen, und wer nur mit seinen eigenen Hervorbringungen gefüttert wird, muss zwangsläufig stagnieren. Eine generative KI wird sich nicht am eigenen Haarschopf aus dem Sumpf ziehen und etwas Neues erfinden, sondern sich in einen immer engeren Korridor des aktuellen Mainstream einordnen. Dass eine mit KI-Bildern trainierte KI immer langweiligere Resultate produzieren wird, liegt auf der Hand, aber warum generiert sie stattdessen zunehmend abstruse Ergebnisse?

Nachdem eine KI einmal mit dem eigenen Output „vergiftet“ worden ist, lässt sie sich nicht immer heilen, indem man ihr über mehrere Trainingsgenerationen wieder menschlichen Input vorsetzt. (Quelle: „Nepotistically Trained Generative-AI Models Collapse“ von Matyáš Boháček und Hany Farid)

Das Training einer KI mit vorgefundenen Beispielen hat generell die Eigenheit, wahrscheinliche Ergebnisse zu verstärken und weniger wahrscheinliche (aber mögliche) Ergebnisse abzuschwächen. Nun entwickelt jede KI bestimmte Eigenheiten, einen Stil, wenn man so will, die normalerweise unter unserer der Wahrnehmungsschwelle bleiben – wir achten eben auf andere Dinge. Werden Bilder oder Texte mit solchen Eigenheiten aber im Training der nächsten KI-Generation als Lehrstoff rückgekoppelt, werden sie verstärkt, da sie ja nun in jedem Beispiel vorkommen und folglich als sehr wahrscheinlich gelten müssen. Eine KI, die die Idiosynkrasien ihrer Vorgängergeneration hervorhebt, wird im Training noch darin bestärkt, während ihre eigentliche Aufgabe zunehmend in den Hintergrund tritt. Schon nach wenigen Generationen pflegt die KI nur noch ihre eigenen Verschrobenheiten und ist für unsere Zwecke wertlos – sie ist kollabiert.

Selbst wenn man das Problem erkennt und im weiteren Training wieder menschengemachtes Trainingsmaterial einspeist, wird sich die KI nicht wieder vollständig erholen, wie man an den Beispielen oben sieht – teilweise wird die Qualität der von einer generativen KI erzeugten Bilder wieder besser, aber manche der erworbenen Merkwürdigkeiten halten sich hartnäckig.

Um eine solche Entwicklung zu verhindern, könnte man das Trainingsmaterial vorher sichten, aber das wäre ein aufwendiges Verfahren und angesichts der nötigen Größe eines Trainingskorpus kaum praktikabel. Daher wäre es auch im Interesse der Hersteller der KI-Systeme, deren Erzeugnisse als KI-generiert zu markieren, sei es über digital signierte Metadaten nach dem CAI/C2PA-Standard oder mit eingebetteten Wasserzeichen. Nur so könnten sie ihre KI-Modelle davor schützen, sich an ihrem eigenen Output zu vergiften.

Es besteht zwar die Hoffnung, dass die tödliche Selbstverstärkung unerwünschter Eigenheiten unterbliebe, wenn eine KI mit dem Material einer anderen KI mit anderen Idiosynkrasien trainiert würde. Möglicherweise würde der Kollaps damit aber auch nur herausgeschoben, da sich die KI-Modelle verschiedener Hersteller dadurch immer weiter anglichen – am Ende hilft doch nur „frisches Blut“, um den Vampirvergleich wiederaufzunehmen.


Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis sowie einige Seiten als Kostprobe.

 

 

 

Zeig mehr

Michael J. Hußmann

Michael J. Hußmann gilt als führender Experte für die Technik von Kameras und Objektiven im deutschsprachigen Raum. Er hat Informatik und Linguistik studiert und für einige Jahre als Wissenschaftler im Bereich der Künstlichen Intelligenz gearbeitet.

Ähnliche Artikel

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Close
Back to top button