BlogKI

ChatGPT ist keine Suchmaschine (und leider unbelehrbar)

Oft ist zu lesen, KI-Systeme auf der Basis großer Sprachmodelle wie ChatGPT würden bald die klassischen Suchmaschinen ablösen. Auf einen der Gründe, weshalb das keine gute Entwicklung wäre, hat jüngst eine europäische Datenschutzorganisation hingewiesen.

Das Wissen der Welt, sagt man, ist im Web bequem abrufbar, Suchmaschinen wie Google sei Dank. Aber der Suchmaschinennutzer muss immer noch mitdenken, also erst einmal die Suchabfrage möglichst geschickt wählen, um dann die Fundstellen zu sichten, die Relevantesten darunter zu identifizieren und aus deren Inhalt die vermutlich richtige Antwort zu extrahieren. Wenn einem eine KI diese Arbeit abnehmen könnte, wäre das doch ideal – oder?

Systeme wie ChatGPT können kohärente Texte produzieren, aber ihnen geht die Fähigkeit ab, multiple Quellen kritisch zu bewerten und daraus eine wohl abgewogene Zusammenfassung zu generieren. Wenn man Pech hat, geht ChatGPT irgendeiner Querdenker-Seite auf den Leim und präsentiert einem deren Thesen als einzig richtige Antwort auf die gestellte Frage.

ChatGPT ist keine Suchmaschine (und leider unbelehrbar)
noyb stellt OpenAIs Weigerung, die General Data Protection Regulation (GDPR) der EU zu respektieren, etwas plakativ dar. (Bild: noyb)

Die NGO noyb (= „none of your business“, sinngemäß „Das geht Sie nichts an“), die sich der Verteidigung des Datenschutzes in der EU verschrieben hat, wies jetzt auf das Problem hin, dass ChatGPT gelegentlich falsche Informationen verbreitet, aber weder erklären kann, woher diese kommen, noch sie korrigieren kann. Auch sein Hersteller OpenAI kann das nach eigenen Aussagen nicht, denn „faktische Genauigkeit in großen Sprachmodellen [bleibt] ein Bereich aktiver Forschung“. Anders gesagt: ChatGPT ist bislang nicht dazu gemacht, wahrheitsgemäß zu antworten.

Und OpenAI hat recht. Im konkreten Fall ging es darum, dass eine Person des öffentlichen Lebens damit haderte, dass ihr ChatGPT ein falsches Geburtsdatum zuschrieb. So etwas kann daran liegen, dass das System, das ja mit unzähligen und oft auch widersprüchlichen Quellen trainiert worden ist, die falsche Wahl trifft und einer irreführenden Darstellung aufsitzt. Die KI erfindet aber auch bereitwillig Aussagen, wenn sie über keine handfesten Fakten verfügt – sie halluziniert. Schließlich war ihr Trainingsziel, einen zusammenhängenden und plausibel klingenden Text zu produzieren; dessen Wahrheit war nie ein Kriterium. Wenn das Geburtsdatum einer bestimmten Person nicht bekannt ist, greift sie auch schon mal auf den Geburtstag einer anderen Person zurück, die irgendwelche ähnlichen Eigenschaften hat.

Naiverweise stellt man es sich so vor, dass in einem Computersystem Fakten gespeichert sind, und wenn diese im Einzelfall gar keine Fakten sind, speichert man stattdessen die korrekte Information. Bei Datenbanksystemen wäre das tatsächlich möglich; eine Angabe wie der Geburtstag ist ein Bestandteil eines Datensatzes zu einer Person, und diese Angabe lässt sich leicht ändern. Oder jedenfalls gibt es keine technischen Hindernisse; dass es trotzdem manchmal schwierig ist, falsche oder veraltete Angaben richtigzustellen (ich könnte da aus eigener Erfahrung über einige Fälle berichten), hat andere Gründe.

In der Good Old Fashioned Artificial Intelligence (GOFAI) des vorigen Jahrhunderts war das nicht anders. Die KI-Systeme verfügten über eine Wissensbasis, in der die einzelnen Fakten als Aussagen gespeichert waren, und wenn eine Aussage aus anderen Aussagen logisch abgeleitet war, ließ sich diese Abhängigkeit nachvollziehen. Falsche Informationen zu korrigieren war kein Problem.

In einem großen Sprachmodell gibt es jedoch keinen identifizierbaren Faktenspeicher. Es gibt nicht den einen Ort, an dem eine Information gespeichert ist, und daher lässt sich eine Falschinformation auch nicht gezielt richtigstellen. Wenn das KI-System eine bestimmte Aussage macht, geht das auf eine Vielzahl von Variablen zurück, die man nicht verändern kann, ohne an anderer Stelle etwas kaputt zu machen. Es bleibt nur die Hoffnung, dass die nächste, neu trainierte Version der KI es besser machen wird.

Bei noyb meint man, „ungenaue Informationen [seien] vielleicht tolerabel, wenn Schüler:innen ChatGPT für ihre Hausaufgaben nutzen“, aber im Grunde sind sie es nicht einmal dann. Auch Google ist bloß ein Werkzeug und kein Königsweg zum wahren Wissen, aber es macht einem nichts vor und überlässt dem Nutzer die Verantwortung, die Ergebnisse kritisch zu bewerten. Keine KI ist bislang dazu geeignet, einem diese Verantwortung abzunehmen.


Im DOCMAshop finden Sie alle Infos zum aktuellen Heft: Das ausführliche Inhaltsverzeichnis, einige Seiten als Kostprobe sowie alle Möglichkeiten, das gedruckte Heft zu abonnieren. Erfahren Sie dort auch mehr über unsere preiswerten Online-Abos – jetzt ab 3,99 € pro Monat.

Zeig mehr

Michael J. Hußmann

Michael J. Hußmann gilt als führender Experte für die Technik von Kameras und Objektiven im deutschsprachigen Raum. Er hat Informatik und Linguistik studiert und für einige Jahre als Wissenschaftler im Bereich der Künstlichen Intelligenz gearbeitet.

Ähnliche Artikel

Schreiben Sie einen Kommentar

Bitte melden Sie sich an, um einen Kommentar zu schreiben.

Das könnte Dich interessieren
Close
Back to top button