Künstliche Intelligenz vs. Dekonvolution
Wie Olaf Giermann hier schon letzte Woche schrieb, ist Photoshop jüngst der Filter »Verwacklung reduzieren« abhanden gekommen. Auch die einem ähnlichen Zweck dienende Software Piccure, über die wir in DOCMA berichtet hatten, gibt es nicht mehr; ihr Entwickler, die Tübinger Firma Intelligent Imaging Solutions, wurde vor einem Jahr liquidiert. Das sieht nach einem Trend aus …
Adobes »Verwacklung reduzieren« und Piccure (später Piccure Plus) haben eines gemeinsam: Sie arbeiten mit einem Verfahren der blinden Dekonvolution. Zur Erinnerung: Eine Dekonvolution ist die Umkehrung einer Konvolution, und eine Konvolution macht ein Bild auf eine präzise beschriebene Weise unschärfer, indem sie Farbe und Helligkeit jedes Bildpixels auf die Nachbarpixel verschmiert. Eine Dekonvolution soll diesen Prozess rückgängig machen: Man hat ein unscharfes Bild und fragt sich, wie ein scharfes Bild aussehen müsste, damit es, wenn man es per Konvolution weichzeichnet, dem vorliegenden unscharfen Bild entspräche. Dieses scharfe Bild ist dann das Resultat der Dekonvolution. Eine solche Dekonvolution ist sehr viel aufwendiger als eine Konvolution, und der Aufwand steigt erneut, wenn man die Art der Unschärfe nicht kennt – das bezeichnet man als blinde Dekonvolution. Man muss zunächst das unscharfe Bild daraufhin analysieren, welcher Art die Unschärfe ist, und auf dieser Basis eine Dekonvolution durchführen. So arbeitete »Verwacklung reduzieren« ebenso wie Piccure.
Blinde Dekonvolutionsverfahren waren noch vor einigen Jahren sehr populär; sie schienen die silberne Kugel zu sein, mit der man allen möglichen Unvollkommenheiten digitaler Bilder abhelfen könnte. Tatsächlich funktionierte das bisweilen ganz gut, oft aber auch nicht, und so nahm die ursprüngliche Begeisterung darüber bald ab. Dagegen sind nicht blinde Dekonvolutionsverfahren in ihren Einsatzmöglichkeiten zwar beschränkter, bringen dann aber auch bessere Resultate und haben sich gut bewährt. Viele Kamerahersteller setzen beispielsweise auf eine Dekonvolution, um die Beugungsunschärfe und teilweise auch Abbildungsfehler der Objektive herauszurechnen. Die Art der Unschärfe ist in diesen Fällen genau bekannt, so dass die Dekonvolution nicht blind vorgehen muss.
Heute sind aber vor allem Verfahren populär, die auf künstlicher Intelligenz beruhen – jedenfalls ist KI das üblicherweise verwendete Schlagwort. Eigentlich basieren sie darauf, extrem komplexe Bildbearbeitungsverfahren (so komplex, dass kein Softwareentwickler sie sich ausdenken könnte) mit Verfahren des maschinellen Lernens in einer simulierten Evolution zu entwickeln: Man vergleicht die tatsächlichen mit den gewünschten Resultaten und nimmt so lange kleine Veränderungen vor, bis sich die Ergebnisse immer mehr der Vorgabe nähern. Das mag man als (künstliche) Intelligenz bezeichnen, hat aber im Grunde wenig damit zu tun – es ist jedenfalls nicht intelligenter als eine blinde Dekonvolution.
Die Lösungsansätze der Dekonvolution und der KI-Verfahren sind aber, unabhängig von ihrer „Intelligenz“, grundsätzlich anders geartet. Ein (nicht blindes) Dekonvolutionsverfahren weiß nichts über die damit bearbeiteten Bilder und die abgebildeten Motive, aber alles über die Natur der Mängel, aus denen die Unschärfe der Bilder resultiert, etwa eine Verwacklung, eine Fehlfokussierung, Abbildungsfehler des Objektivs oder eine Beugungsunschärfe. Eine blinde Dekonvolution weiß dies zwar nicht, soll es aber möglichst gut erraten. Umgekehrt wissen die KI-Verfahren zur Nachschärfung nichts über die Art der Unschärfe, dafür aber alles über mögliche Details, die sich hinter der Unschärfe verbergen könnten. Mit diesem Wissen versuchen sie, ein detailreiches Bild zu rekonstruieren – das Original sah vielleicht nicht genau so aus, aber es könnte plausiblerweise so ausgesehen haben. Die Ergebnisse der KI sind nicht immer perfekt, aber doch meist gut brauchbar und oft noch eindrucksvoller als die besten Resultate der Dekonvolutionsverfahren.
Gerade weil diese Ansätze so gegensätzlich sind, müssten sie sich eigentlich gut ergänzen, denn beide bringen Wissen ein, das den jeweils anderen Verfahren fehlt. Beide Arten von Nachschärfungsverfahren versagen gelegentlich und produzieren dann Artefakte, aber möglicherweise könnte eine Dekonvolution die Fehler einer Nachschärfung per KI abfangen, und ebenso umgekehrt. Jedenfalls sollten wir Dekonvolutionsverfahren nicht vorschnell abschreiben – auch weil ihnen ein anderer Trend zugute kommt: Je größer die Megapixelzahl des Sensors ist und je feiner damit das optische Bild abgetastet wird, desto besser sind die Voraussetzungen für eine artefaktfreie Dekonvolution. Das ist auch einer der Gründe, weshalb der Argwohn, die vorhandenen Objektive könnten höher auflösenden Sensoren nicht gerecht werden, durchaus fehlplatziert ist: Ein höher aufgelöstes Digitalbild bietet bessere Voraussetzungen, noch verbliebene Abbildungsfehler der Objektive herauszurechnen – per Dekonvolution, nicht mit KI.
Hallo!
Ich besitze das Programm Sharpen Projects 4 professional. Dieses arbeitet u.a. mit einem Verwackelung- und Unschärfemodus, mit mehreren einstellbaren Qualitätsstufen, bis hin zu infinity (alle Pixel des Bildes werden in die Berechnung mit einbezogen), und neuerdings mit einer multidirektionalen Schärfung. Rechenzeit und Qualitätsanspruch kann man selber bestimmen. Ich selber benutze immer den manuellen Modus, nie die Automatiken, was man aber auch anders sehen kann. Und hier ist meines Wissens noch keine KI am wirken. Wenn Sie sagen, dass das Einstampfen solcher Programme ohne jede KI im Trend ist, würde mich allerdings interessieren, wie Sie dieses, durchaus noch bestehende Programm, einschätzen!
Leider kann ich die Software als Mac-Besitzer nicht ausprobieren (es gibt sie nur für Windows). Anscheinend arbeitet sie mit Dekonvolution; das Schlagwort PSF (= Point Spread Function), das an einer Stelle in der Beschreibung erwähnt wird, deutet darauf hin. Die Ergebnisse können durchaus gut sein, aber momentan bieten die KI-Lösungen wohl das beste Preisleistungsverhältnis. Und wie ich schon schrieb: Beide Herangehensweisen haben ihre Vorzüge; sie könnten sich ergänzen und vielleicht lassen sich ihre unterschiedlichen Stärken ja künftig kombinieren.