KIProjekte

Animals of the future

Wie KI den Blick auf die Welt verändern kann, erforscht Daniel Kalafata-Müller mit einer Serie KI-generierter Bilder. Vermeintlich lebensecht, werfen sie Fragen auf: Wie könnten Tiere der Zukunft aussehen? | Christoph Künne

Wenn Tiere ihre ursprünglichen Lebensräume verlassen müssen und sich neue Überlebensstrategien aneignen, werden sie sich dann zu neuen Tierarten mit neuen Fähigkeiten entwickeln? Oder wird der Mensch die Biodiversität vielleicht um ­genetische Modifikationen erweitern, damit sie überlebensfähig bleiben? Fantasievoll und farbenfroh erzählen die in Kooperation von Mensch und KI entstandenen Bilder von einer möglichen Zukunft der Evolution. Christoph Künne hat mit dem Künstler in seinem ­Berliner Atelier über die Entstehung und die Hintergründe seines Projekts ­gesprochen.

DOCMA: Wie bist du auf die Idee gekommen, Zukunftstiere mit Hilfe einer Bild-KI zu entwickeln?

Daniel Kalafata-Müller: Zunächst hatte ich nur mit der Idee frei experimentiert, einfach, weil KI es vereinfacht. Ein ­Experiment unter vielen, wenn auch eins, in dem ich ein größeres Potenzial erahnt hatte. Eines Tages kamen zwei Damen von „Save the Future“ auf mich zu. Das ist ein Projekt, das sich für Biodiversität und Artenvielfalt stark macht. Sie hatten ein paar meiner Tier-Experimente auf Instagram gesehen und fragten, ob ich Lust hätte, Arbeiten zu ihrem Ausstellungsprojekt „Ambassadores of Nature“ beizutragen. Ich fand die Idee spannend und machte mich an die Arbeit, mithilfe der KI herauszufinden, was passieren könnte, wenn heute noch getrennte Arten in der Zukunft ­miteinander verschmelzen.

DOCMA: Wie bist Du vorgegangen?

Daniel Kalafata-Müller: Ich habe versucht, die Entwicklung im Stil eines evolutionären Prozesses anzugehen. Also immer wieder von bestimmten Startpunkten aus durch kleine Prompt-Änderungen neue Varianten zu erschaffen. Auf diese Weise entstanden hunderte Motive, von denen es nach einem harten Ausleseprozess knapp 250 in die Ausstellung geschafft haben, wo sie auf einem großen Bildschirm – und daneben auch 24 von ihnen als kleinformatige Prints – zu sehen waren.

Bei der Arbeit habe ich gemerkt, dass ich viel zu wenig Biologe bin, um in diesem Thema etwas wirklich genetisch Mögliches zu produzieren, das mehr leistet, als nur zur Diskussion anzuregen. In der nächsten Stufe werde ich versuchen, Wissenschaftler für das Projekt zu begeistern, um inhaltlich tiefer zu gehen.

DOCMA: Wie sah die technische Seite der Produktion aus?

Daniel Kalafata-Müller: Die 3D-Welten, in denen ich sonst arbeite, sind sehr komplex und zeitintensiv. 2022 habe ich KI entdeckt und mit Diffusion Bee angefangen. Diese Software ist ein einfach installierbares Stable Diffusion-Deri­vat, das es für den Mac gibt, und mit dem man ohne großen Aufwand erste Experimente ­starten kann. Mein bevorzugtes Werkzeug heute ist Dreamlike.art. Hierbei handelt es sich um einen Stable ­Diffusion-basierten Web-Service, bei dem man keine eigene High-End Hardware braucht. Man kann damit zunächst kostenlos experimentieren und zahlt nur bei umfänglicherer Nutzung eine moderate monatliche Pauschale.

DOCMA: Was ist anderes bei der künstlerischen Arbeit mit einem Text-to-Image-Werkzeug?

Daniel Kalafata-Müller: Anfänglich war ich etwas irritiert und habe mich gefragt: Wie viel ist eigentlich von mir und wie viel von der KI? Mein Gefühl sagte mir damals: 80:20 für die KI. Inzwischen hat sich meine Eigenleistung verstärkt. Wenn man sich in die Tiefen von Stable Diffusion einarbeitet, viel mit Prompts experimentiert und eigene Diffusor-Modelle zur Berechnung einsetzt, wird diese KI zu einem digitalen Werkzeug wie jedes andere und man bekommt immer mehr Kontrolle. Inzwischen hat sich das Verhältnis für mich umgekehrt: 80 Prozent Eigenleistung stehen jetzt 20 Prozent KI-Willkür gegenüber. Die KI wird zu einer Art Gebiet, das man erforscht, kartiert und irgendwann ziemlich gut beherrscht.

DOCMA: Betrachtest Du das als Kunst, was dabei herauskommt?

Daniel Kalafata-Müller: Solange es auf einem Konzept ­basiert, ganz klar: ja. Ästhetisch ist KI allerdings immer gefährlich nah am Kitsch. Das sieht man ganz beson­ders bei Midjourney. Hier gibt es viele technisch gute Bilder, aber inhaltlich und formal kaum spannende. Bei Stable Diffusion ist es andersherum, weswegen ich mich für dieses Werkzeug entschieden habe.

Aber ein Bildkunstwerk ist mehr als Konzept und formale Ästhetik. Es geht auch um die haptische Dimension. Bei der Anfertigung der Exponat-Prints habe ich eine spannende Beobachtung gemacht. Als ich die Bilder vom Labor abholte und sie erstmalig auf Papier in der Hand hielt, kam in mir plötzlich das Gefühl auf, als wären es Fotos von echten Tieren. Einfach, weil sie wie Erinnerungsbilder in Form von handlichen Prints in die Welt getreten waren. Das war für mich etwas Ungewohntes. Normalerweise bringe ich, wenn ich digital fotografiere, reale Dinge in die virtuelle Welt des Computers, wo sie zumeist auch bleiben, ohne je wieder in Form eines Ausdrucks materialisiert zu werden.

DOCMA: Daniel, wir danken Dir für das informative Gespräch.

Daniel Kalafata-Müller

… hat in München Kunst studiert mit Schwerpunkt visuelle Gestaltung. Er kam in den Nuller Jahren nach Berlin und arbeitet dort als Freiberufler im Bereich 2D/3D-Animation. Vornehmlich für Kunden in der Kunst, aber auch im Theater und beim Film.

Mehr Motive findet man auf Daniels Instagram-Kanal:
www.instagram.com/decaynews

Zeig mehr

Schreibe einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Schaltfläche "Zurück zum Anfang"