Wenn plötzlich Hundertausende auf die Straße gehen, um die Demokratie zu verteidigen und gegen deren Bedrohung von rechts außen und Deportationspläne zu protestieren, kann man natürlich behaupten, die würden alle von den Staatsparteien dafür bezahlt. Da das aber nicht sonderlich glaubwürdig ist, besteht eine andere Strategie darin, die veröffentlichten Teilnehmerzahlen anzuzweifeln und zu verkünden, die angeblichen Fotos der Demonstrationen seien Fakes und nur dank KI entstanden. Stimmt das?
Ein per KI (Inpainting in Photoshop) gefälschtes Demonstrationsfoto der Veranstaltung in Kassel vom 3. Februar 2024. Nähere Betrachtung zeigt unter anderem absurde Figuren, keinerlei Schilder und Banner sowie verzerrte Schirme.
Künstliche Intelligenz, die Bilder generiert, kann in der Tat sehr viel. Fast im Monatsabstand erleben wir, wie die Qualität der Bilder verbessert wird, und dass Mängel, die noch vor Kurzem recht eindeutig erkennen ließen, wenn ein scheinbares Foto künstlich entstanden war, zunehmend verschwinden: Überzählige Finger zum Beispiel, unleserliche Texte und so weiter. Wir dürfen (oder müssen) davon ausgehen, dass in absehbarer Zeit die Unterscheidung zwischen echt und KI-generiert selbst für Fachleute kaum noch möglich sein wird.
Doch so weit sind wir derzeit noch nicht – was in diesem Fall ein Vorzug ist. Die angeblichen Fake-Fotos, auf die sich AfD-Vertreter in den sozialen Medien beziehen, sind offenkundig echt, und die Kritik an ihnen belegt (neben wenig gutem Willen) lediglich mangelnde Erfahrung im Umgang mit Bildern und Aspekten wie etwa Perspektive. (Wir kennen das ja von manchen Bildbearbeitern und ihren Montage-Ergebnissen. Wenn nicht mal die durchblicken, was will man dann von Laien erwarten?)
Ich habe jedenfalls kein Bild gesehen, dass den Verdacht auf einen KI-Ursprung nahelegen würde. Wer das behauptet, hat wohl auch wenig Erfahrung mit KI. Aber schauen wir mal, was an der Unterstellung zumindest theoretisch dran sein könnte:
Natürlich kann man einem beliebigen KI-System per Prompt befehlen, ein Bild hervorzubringen, das einem professionellen Reportagefoto gleicht und eine große Menschenmenge zeigt, die sich auf einem Platz in einer Stadt versammelt hat und Schilder und Transparente hochhält.
Die Ergebnisse sind ernüchternd und überwiegend unbrauchbar, prompte Befehlsverweigerung. Aber immerhin sind nach zahlreichen Versuchen doch ein paar dabei, die in die gewünschte Richtung weisen. Die Szenen als Ganzes wirken einigermaßen glaubwürdig, wenn auch irgendwie stereotyp, aber sei’s drum! Schaut man sich solche „Fotos“ allerdings näher an, ist die Verwechslungsgefahr mit echten Aufnahmen sehr gering. Gesichter lösen sich in matschige Schlieren auf, auf den Transparenten sind phantasievolle Schnörkel zu erkennen, die mit Buchstaben und vertrauten Symbolen nichts zu tun haben.
Zwei insgesamt per KI generierte Demo-Bilder; oben per Midjourney, unten per Deep Dream Generator. Sieht man von Mängeln bei der Personendarstellung oder Architektur und unleserlichen Schriften auf Schildern ab, bestünde das Hauptproblem bei einer Verwendung der Bilder darin, dass sie sich keiner bestimmten Stadt zuordnen lassen.
Nun gut, diese Mängel dürften in absehbarer Zeit behoben sein. Dann würden wir also klare Gestalten mit realistischen Gesichtern sehen und könnten vielleicht sogar per Prompt vorgeben, was auf den Bannern stehen soll (sofern die KIs nicht wieder meinen, solche politischen Aussagen lieber zensieren zu müssen.) Dann werden wir also eine naturgetreu dargestellte Menge von Demonstranten sehen. Aber die stehen dann auf irgendeinem Platz herum, der zwar gleichermaßen überzeugend wirken wird, aber sicherlich nicht der Versammlungsort in der Stadt X ist. Bis KI auch das beherrscht – vielleicht mit Zugriff auf ein vielfach höher aufgelöstes Google Earth in der Straßenansicht, vergeht sicherlich noch eine Weile. Noch aber ist es so, dass niemand, der eine bestimmte Stadt kennt, glauben würde, das „Foto“ sei dort aufgenommen worden.
Die Lösung für die Fälscher müsste also einstweilen darin bestehen, Originalfotos zu verwenden und nicht das komplette Bild per KI generieren zu lassen, sondern nur Teile davon auszuwählen und per Prompt vorzugeben, hier sollten per Inpainting ein paar tausend Demonstranten aufgereiht werden. Viel Vergnügen! Alle Versuche in dieser Richtung brachten nichts Brauchbares hervor – wenn überhaupt, stimmten die Größen der Demonstranten nicht oder diese erwiesen sich bei näherer Betrachtung als höchst seltsame Figuren, von Schildern und dergleichen ganz abgesehen. Zudem wurden unpassende Teile der Architektur ergänzt oder merkwürdige Objekte in der Menge verstreut, deren Sinn sich dem Betrachter nicht erschließt.
Inpainting erlaubt es zwar, den konkreten städtischen Rahmen zu bewahren, die Darstellungen der Demonstranten sind aber visuell nicht überzeugend (oben Deep Dream Generator, unten Photoshop).
Das mit der KI erweist sich also als Holzweg und führt lediglich dazu, dass sich die „Kritiker“ mit ihren Enthüllungen bodenlos blamieren und nun selbst als die Fälscher entlarvt sind, die die für sie unangenehme Realität gern verdrängen möchten. So eine Art Fuck-den-Check.
Dabei ginge es doch viel einfacher! Vergesst mal KI und besinnt euch der guten alten digitalen Bildbearbeitung. Denn damit gelingt es ruckzuck, aus einer mittelgroßen Demo je nach böser Absicht eine ganz kleine oder eine ganz große zu machen. Und die sieht dann sogar authentisch aus. Je mehr Mühe man sich gibt – ich hatte zwischen Demo und Fertigstellen des Beitrags nicht viel Zeit –, desto glaubwürdiger wird das Ergebnis.
Dreimal – ungefähr – dieselbe Szene: Oben das Originalfoto, in der Mitte eine künstliche Reduzierung der Teilnehmerzahlen durch schlichte Bildbearbeitung in Photoshop, unten eine Vermehrung der Menge durch Duplizieren und Skalieren der Personen im Vordergrund. Die Grenzen für (Ver)Fälschungen liegen nicht bei der Technik, sondern bei den ethischen Einstellungen derer, die sich ihrer bedienen. (Mal sehen, wo das Bild als Beispiel für linke Bildfälschungen auftauchen wird …) | Foto und Montage: Doc Baumann
Menschen, die fälschen und Demonstrationen gegen sich kleinreden und -pixeln wollen, könnten auf diesem Weg schnell ein paar Tausend Teilnehmer in Luft auflösen. Und so ihresgleichen davon überzeugen, dass die Lügenpresse hier mal wieder schamlos übertrieben hat. Alle jedoch, die mit dabei waren, bestärken solche Fälschungen aber natürlich nur in ihrer Überzeugung, mit wem man es da zu tun hat und dass allerorten Lügen und sachlich falsche Behauptungen dazu dienen sollen, jene Ziele durchzusetzen, die die Demonstranten aus guten Gründen verhindern wollen.
Und wie steht es umgekehrt um die lockere Verdopplung der Teilnehmerzahlen im Foto, um den eigenen Einfluss gewichtiger darzustellen, als er tatsächlich ist? Die Wirkung wäre dieselbe. Klar, ein paar Fanatiker könnten das toll finden. Aber alle aus der bisher „schweigenden Mehrheit“, die nun mit auf die Straße gehen, würden sich abgestoßen fühlen und der Meinung sein, das gemeinsame Eintreten für Demokratie ließe sich kaum mit Fälschungen untermauern. Sie wissen ja, wie es tatsächlich ausgesehen hat. Und wie peinlich wäre es, wenn etwa Pressevertreter solche Bilder veröffentlichten, sie den Originalfotos gegenüberstellten und gnadenlos offenbarten, mit welchen Mitteln da gearbeitet und manipuliert wurde.
Die Gefahr, dass seriös veröffentlichte Fotos manipuliert sind – auf unergiebigem Wege per KI oder erfolgversprechender durch schlichte traditionelle Bildbearbeitung –, ist also nahezu auszuschließen. Denn sich für Demokratie einzusetzen und diesen Einsatz durch Fälschungen zu belegen – das würde nicht zueinander passen.
PS: Nun war ich schon auf ein paar Demos und habe die Auszahlungsstellen der Staatsparteien für das Teilnahmehonorar noch immer nicht gefunden. Hat jemand einen Tipp?
Zum Schluss mal eine ganz andere Umsetzung des Prompts durch Firefly: Adrette junge Menschen, die leere Protestschilder hochhalten. (Nun gut, man weiß ja nicht, was auf der Vorderseite steht.) Wie so oft in vergleichbaren Fällen zeigt Firefly die Personen nur von hinten. Dient wahrscheinlich dem Persönlichkeitsschutz, um Racheaktionen zu vermeiden …
Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis sowie einige Seiten als Kostprobe.