KI und die verräterischen Wasserzeichen
Getty Images verklagt Stability AI, weil deren Stable Diffusion offenbar auch mit Gettys urheberrechtlich geschützten Bildern trainiert wurde. Dabei hat sich die KI selbst entlarvt, indem sie den generierten Bildern Gettys Wasserzeichen hinzufügte.
12 Millionen seiner Bilder, so wirft Getty Stability AI in der Klageschrift vor, wären für das Training von Stable Diffusion benutzt worden, einschließlich der dazugehörigen Metadaten. Diese Bilder sind ja im Internet frei verfügbar, als Vorschaubilder mit Wasserzeichen, damit ein potentieller Käufer weiß, wofür er sein Geld ausgibt, aber deshalb darf man sie noch lange nicht für eigene Zwecke nutzen, ohne eine Lizenz zu erwerben. Lustigerweise hat Stable Diffusion beim Training auch gelernt, dass beispielsweise Szenen aus Fussballspielen typischerweise ein Getty-Images-Logo als Wasserzeichen tragen, und so fügt es dieses gut erkennbar in seine Kreationen ein. Nur der Name des Fotografen, der darunter stehen müsste, scheint aus teils frei erfunden Zeichen zu bestehen.
Das ärgert Getty Images, weil sie neben ihren Bildern auch noch ihr Markenzeichen missbraucht sehen, aber es unterstreicht auch noch einmal, wie „dumm“ die künstliche Intelligenz im Grunde immer noch ist. Wenn irgendein beliebiges Detail in vielen Bildern ähnlicher Art auftaucht, lernt die KI, dass es dazu gehört, auch wenn es keinen Bezug zum Thema hat und – wie ein Wasserzeichen – nicht einmal Teil des eigentlichen Bildes ist. Ich störe mich ja oft an den aufdringlichen Wasserzeichen, mit denen manche Künstler ihre Werke verunzieren, aber unter dem Aspekt des Abfischens durch KI-Firmen ergibt das durchaus Sinn. Wenn die KI den wiedererkennbaren Stil eines bestimmten Künstlers mit seinem Wasserzeichen zu assoziieren gelernt hat, wird es dieses Wasserzeichen reproduzieren, wann immer es ähnliche Bilder generiert – selbst dann, wenn man den Künstler gar nicht ausdrücklich im Prompt („Ein Foto im Stil von …“) erwähnt hat.
Es heißt ja, dass generative KI-Systeme die Bilder aus dem Trainingsmaterial in Atome zerlegen und die Teile später in ganz neuer Weise zusammensetzen; sie würden urheberrechtlich geschützte Bilder also nie 1:1 reproduzieren. Von der Tendenz her stimmt das auch, aber es gibt Ausnahmen, wie gerade eine Forschergruppe herausfand. Manchmal genügt die Eingabe eines Eigennamens als Prompt, um ein bestimmtes im Training verwendetes Foto zu reproduzieren.
So etwas ist aus mehr als einem Grund unerwünscht. Konflikte mit dem Urheberrecht sind dabei nur ein Aspekt, denn solche Reproduktionen gelten bei KI-Systemen ganz generell als Mangel. Wenn man ein großes neuronales Netz mit einem kleinen Trainingskorpus von vielleicht nur 1000 Paaren aus Eingaben und den dazu gewünschten Ausgaben füttert, wird es dieses Trainingsmaterial einfach auswendig lernen. Es erkennt dann zuverlässig jedes der 1000 Beispiele und produziert dazu die vorgegebenen Ergebnisse. Dass es tatsächlich überhaupt nicht verallgemeinert und gar nichts Nützliches gelernt hat, zeigt sich erst, wenn es bei Eingaben ganz ähnlicher Art, die jedoch im Trainingskorpus nicht vorkamen, völlig versagt. Nur indem man die Größe des neuronalen Netzes an seine Aufgabe anpasst, erzwingt man mit dem Training eine Generalisierungsleistung – ist es zu groß, lernt es die Beispiele bloß auswendig, und ist es zu klein, kann die geforderte Generalisierungsleistung nicht erbracht werden.
Systeme wie Stable Diffusion sind natürlich gut an ihre Aufgabe angepasst, aber in seltenen Einzelfällen können sie sich immer noch durch Auswendiglernen aus der Affäre ziehen. Das zeigt dann an, dass sie an dieser Stelle nicht verallgemeinern konnten, hier also eine Schwäche haben. Der Ärger mit den Urheberrechtsinhabern kommt dann lediglich noch erschwerend hinzu.
Also nur mal so…
Es wird ja auch hier das „Goldene Kalb KI“ bejubelt und nicht nur, dass es nun auch anfängt dasjenige zu ersetzen zu versuchen, was menschliche Schaffenskraft ausmacht. Ein neues Spielfeld zum verblöden?
Desweiteren finde ich zu einem gutem Jounalismus gehört es auch darauf hinzuweisen, dass diese Programme, die man sich ggf. auf den Rechner holt, hier sich Private Bereiche mit Zugriffsrechten einrichten wollen, die man auf jeden Fall unterbinden sollte und wo diese Programme nix zu suchen haben. Am besten läßt man einfach die Finger davon.
Das hat überhaupt alles nichts mit wirklicher Kreativität zu tun und sind wir nicht mitlerweile eh schon zu Tamagotchi Idioten verkümmert, deren Lebensinhalte zu ständigem pflegen Updaten usw. und zu damit vergeudeter Lebenszeit verführt werden? Und nun noch Bild KI für Leute, denen die Gene nichts mit in die Wiege gegeben haben?
Ist doch Toll, das Maschinen aus Nullen und Einsen alles möglich machen können und uns versucht wird einzureden, wir wären dann die Eins.
Leider bleben wir dabei aber die Null. Und wenn einer mal den Stecker zieht bleibt nichts – NICHTS. So unsinnlich ist die Wirklichkeit mittlerweile.
Ich verliere jedenfalls die Lust hier solchen „Lobpreisungen“ zu folgen und habe das immer Mal reinschauen schon sehr reduziert.
Als „Lobpreisung“ habe ich den Artikel nicht unbedingt empfunden. Im Gegenteil, er holt viele Erwartungen an KI doch ziemlich rigoros auf den Teppich zurück. Ich fürchte aber, dass die Nachfrage nach KI groß sein wird, denn mit der Kreativität ist es bei den allermeisten Menschen nun mal nicht weit her, und das Verständnis für Urheberrechtsfragen ist in der breiten Masse sehr schwach ausgebildet, wie sich im Laufe der digitalen Revolution auf verschiedenen Gebieten immer wieder gezeigt hat. So wird die KI wohl leider ihren Weg machen und ihre Befürworter haben, die alle Befürchtungen wortreich beiseite wischen werden. Bis womöglich wirklich mal der Super-GAU eintritt und z.B. die zerstörten Arbeitsplätze nicht anderweitig ausgeglichen werden können. So was lassen wir ja traditionell immer auf uns zukommen und sehen dann hinterher wie wir damit klarkommen. Ihren Anmerkungen bezüglich Updates und Wartung der teuren Maschine stimme ich aber zu. Das hat in letzter Zeit Ausmaße angenommen, die mich manchmal an der Sinnhaftigkeit zweifeln lassen, besonders wenn ich es auf die Zukunft hochrechne.
Ungeschickt. Aber wenigstens ist die KI in ihrer Naivität ehrlich. Jetzt wird man ihr wohl beibringen was ein Wasserzeichen ist, und dass sie das unbedingt wegzulassen hat. Überhaupt wird man sie wohl darauf trainieren betrügen zu können. Und vielleicht macht sie das dann ja sogar wirklich menschlich. Als Trainer könnte ich Donald Trump empfehlen. Oder Wladimir Putin. Die sind zwar plump, aber sehr geübt, und für erstaunlich viele Opfer da draußen offenbar immer noch pfiffig genug.