Doc Baumann hat sich hier jüngst mit den Sorgen bildender Künstler beschäftigt, die ihre wirtschaftliche Existenz durch generative KI-Systeme gefährdet sehen – zumal sich diese, wie sie beklagen, Leistungen menschlicher Künstler ungefragt angeeignet hätten. Viele, die ihren Lebensunterhalt mit dem Schreiben statt dem Malen oder Modellieren verdienen, teilen solche Befürchtungen – aber nicht alle.
Gerade stieß ich zwei Artikel, die die Bedrohungslage der Autoren angesichts der immer leistungsfähigeren großen Sprachmodelle (LLM für Large Language Model) wie ChatGPT und Gemini etwas differenzierter sehen. Der Schriftsteller Daniel Kehlmann (Die Vermessung der Welt, Tyll …) sieht zwar durchaus Anlass zur Panik – aber nicht, weil er fürchtet, als Autor überflüssig gemacht zu werden, sondern weil er im Potential der KI zur Desinformation eine Gefahr für die demokratischen Gesellschaften erkennt. Seine in der vergangenen Woche im Bundeskanzleramt gehaltene Rede, in der er die Politik zur Regulierung der KI-Unternehmen auffordert, hat die SZ in ihrer Wochenendausgabe abgedruckt: „Der Satz „Die Politik ist gefordert“ ist ja die müdeste aller Kommentatorenphrasen, aber … auf wen sollen wir hoffen – auf Menschen wie Sam Altman, die so gut darin sind, zu erklären, warum sie etwas auf keinen Fall tun werden, was sie dann morgen doch tun, und warum das, was sie jetzt schon machen, die Menschheit gefährden könnte, warum sie es aber trotzdem machen müssen, denn täten sie es nicht, bestünde die Gefahr, dass ein anderer das ganze Geld verdiente, sollten wir unsere Hoffnung vielleicht nicht setzen. (…) Noch kann man etwas unternehmen. Aber wahrscheinlich nicht mehr lange.“
Dabei macht er sich keine Illusionen über die Kreativität der KI – aber ebenso wenig über die Kreativität des Menschen, die doch die große Ausnahme statt der Regel ist: „Die meiste Zeit kommunizieren wir nun mal auf Autopilot. Da höre ich zum Beispiel einen Philosophieprofessor im Fernsehen erklären, natürlich könne Chat-GPT nicht denken, es vervollständige bloß erwartbare Sätze, es sei ein stochastischer Papagei, und wie ich dem Herrn so lausche, fällt mir auf, dass ich einen anderen Professor in einem Podcast genau das gleiche habe sagen hören, mit den gleichen Worten, Sätze vervollständigen, stochastischer Papagei, und ich denke mir: Vermutlich ist GPT tatsächlich nur ein papageienhafter Produzent des Erwartbaren, aber weißt du, Philosoph, wer das offenbar auch ist? Und ich selbst bin es ja in den meisten Momenten nicht minder. (…) Ich stehe in einer Gesellschaft, betreibe Small Talk und spüre, sensibilisiert durch GPT, plötzlich auf der Zunge, wie ein Wort das nächste aufruft, wie ein Satz zum anderen leitet, und mir wird klar, das bin gar nicht ich, der da redet, … es ist das Gespräch selbst, das sich führt.“
Übrigens: Den Begriff des stochastischen Papageien hat die Linguistin Emily M. Bender erstmals in „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“ verwendet, einem 2021 veröffentlichten Paper, an dem noch sechs weitere Autoren beteiligt waren, von denen einige jedoch anonym bleiben mussten, weil ihrem Arbeitgeber Google das Ergebnis nicht gefiel. Fragt man Googles KI-Chatbot Gemini danach, nennt er am Ende verschiedene Belege, nicht jedoch den Originalartikel von Emily M. Bender et al..
Während Daniel Kehlmann das Thema aus der Perspektive des Schriftstellers und Intellektuellen betrachtet, geht es Adam Engst aus der Perspektive des Journalisten an. Engst, der zusammen mit seiner Frau Tonya seit nunmehr 34 Jahren einmal pro Woche die wichtigsten Nachrichten aus der Welt der Apple-Produkte auf TidBITS veröffentlicht, fürchtet sich nicht vor KI-Unternehmen, die seine online verfügbaren Texte abschöpfen – er ist im Gegenteil ein bisschen stolz darauf, dass seine Beiträge in den LLMs überrepräsentiert sind. Er nimmt es als Bestätigung, dass sein Content eine hohe Wertschätzung erfährt. Den mittlerweile 16.000 Artikeln im TidBITS-Archiv misst er keinen so großen Wert zu: Das meiste davon ist ohnehin veraltet, da es sich auf nicht mehr erhältliche Hardware und längst obsolete Betriebssysteme und Anwendungen bezieht, und Engst ist bewusst, dass im Internet nur aktuelle Artikel zählen – und mit denen sind die LLMs noch nicht trainiert worden. Die Belastung seines Servers durch die Crawler von KI-Unternehmen bleibt überschaubar und daher unproblematisch. Was im Web veröffentlicht wird, ist eben öffentlich und kann und darf von jedem gelesen werden, KI-Systeme eingeschlossen.
Es ist ja auch nicht so, als ob in den neuronalen Netzen die im Training gelesenen Texte gespeichert wären. Engst weist darauf hin, dass ein neuronales Netz nicht größer wird und mehr Speicherplatz benötigt, wenn es zusätzliche Texte liest. Im Training verändern sich nur die Verbindungen zwischen den simulierten Neuronen.
Das macht es allerdings auch schwierig, wenn ein LLM seine Aussagen belegen soll, denn es „weiß“ nicht, warum es eine bestimmte Aussage trifft. So ist es zu erklären, dass eine KI manchmal nicht existente Belege halluziniert, wenn sie vom Anwender verlangt werden.
Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis sowie einige Seiten als Kostprobe.