Schlagwort-Archive: Photoshop

Der große KI-​Upscaler-​Test: Vergleich von Bildqualität, Kosten und mehr

Was ist der aktu­ell bes­te KI-​Upscaler?
Vor weni­gen Tagen hat die KI-​Firma Midjourney einen neu­en Upscaler ver­öf­fent­licht, der deren KI-​Bilder um den Faktor 2 oder 4 ver­grö­ßern kann.

Da ich bis­her ein ande­res Tool genutzt habe, woll­te ich her­aus­fin­den, wie sich die Bildqualität unter­schei­det. Wo ich schon dabei war, habe ich noch paar ande­re Upscaler ver­gli­chen und die Ergebnisse bei Facebook und LinkedIn gepos­tet. Da gab es in den Kommentaren noch wei­te­re Vorschläge, wel­che Upscaler ich berück­sich­ti­gen sollte.

Na gut, dach­te ich mir, dann zie­he ich das eben grö­ßer auf und ver­öf­fent­li­che hier einen umfas­sen­den Test über die Bildqualität und Unterschiede der aktu­ell auf dem Markt erhält­li­chen Upscaler.

Alle Testausschnitte im direk­ten Vergleich (Klicken zum Vergrößern)

Der Testaufbau und das Ausgangsbild

Ich habe mir mit dem KI-​Tool Midjourney ein qua­dra­ti­sches PNG-​Bild einer blon­den Frau gene­rie­ren las­sen mit der Auflösung 1024x1024 Pixel (1,05 Megapixel):

Das Testbild

Dieses Bild habe ich dann mit ver­schie­de­nen Methoden um den Faktor 4 auf 4096x4096 Pixel (16,7 Megapixel) ver­grö­ßern lassen.

Da die Beurteilung der Ergebnisse sub­jek­tiv gefärbt ist und jeder ande­re Maßstäbe an sei­ne Bilder anlegt, ver­öf­fent­li­che ich hier auch die PSD-​Datei der ver­schie­de­nen Ergebnisse als Download, jede Ebene ist sau­ber nach der genutz­ten Upscaler-​Methode benannt.

DOWLOAD-​Link (Dropbox) als gepack­te .rar-​Datei (ACHTUNG: Datei ist 610 MB groß, ent­packt dann 889 MB!) BACKUP-​Link (Wetransfer).

Damit kann jede*r durch das Ein- und Ausblenden der Ebenen in der 100%-Ansicht selbst ent­schei­den, wel­ches Ergebnis ihm/​ihr am meis­ten zusagt.

Für die­sen Blogartikel habe ich einen Bereich des lin­ken Auges aus­ge­schnit­ten, damit hier die 100%-Ansicht (500x500 Pixel) gezeigt wer­den kann. Die Ausschnitte habe ich sau­ber benannt und als JPG (Qualität 10) abge­spei­chert. Der Ausschnitt ist in der Photoshop-​Datei auch als Pfad hinterlegt.

Der große Upscaler-​Test: Die Ergebnisse

1. Midjourney Upscaler

Beginnen wir mit dem Upscaler von Midjourney. Obwohl die­ser erst weni­ge Tage alt ist, gibt es schon zwei Versionen und Midjourney behält sich vor, den Upscaler auch in Zukunft zu verändern/​verbessern:

The ups­ca­ler is subt­le and tri­es to keep details as clo­se as pos­si­ble to the ori­gi­nal image (but may not fix glit­ches or issues with the old image)“

Midjourney Upscaler 4x V1 (18.10.2023)

Die ers­te Version (V1) des Midjourney-​Upscaler bügel­te die Hauttextur ziem­lich glatt, das gan­ze Bild wirkt ins­ge­samt sehr nach 1980er-Jahre-Airbrush-Retusche.

Das Entwickler-​Team nahm sich die Kritik der Community jedoch zu Herzen und schob zwei Tage spä­ter das ers­te Update hinterher:

We’re […] hea­ring everyone’s feed­back that the 4x ups­ca­ler is a bit soft and we’­re loo­king at impro­ve­ments which may fur­ther impro­ve things. This means the ups­ca­ler set­tings may chan­ge sud­den­ly over the next week wit­hout war­ning as we tweak things.
[…]
The V5 4x Upscale now fea­tures impro­ved sharp­ness, and in some cases smal­ler sca­le high fre­quen­cy details“

Dadurch sieht das Ergebnis deut­lich bes­ser aus, die Haare und Wimpern sehen täu­schend echt aus und auch die Hauttextur kann überzeugen:

Midjourney Upscaler 4x V2 (20.10.2023)

Der ers­te gro­ße Nachteil die­ses Upscalers ist logi­scher­wei­se, dass er nur auf KI-​Bilder anwend­bar ist, die direkt in Midjourney erstellt wurden.

Ein wei­te­rer Punkt sind die Kosten: Der 4x Upscaler kos­tet grob 6x soviel GPU-​Minuten wie die Generierung eines 4x4-​Bilder-​Grids. Diese Zeit wird von dem bezahl­ten Minutenkontingent abge­zo­gen, wel­ches die Nutzer je nach Abomodell zur Verfügung haben. Im Standard-​Plan sind das zum Beispiel 15 Stunden pro Monat.

Eine Stunde Rechenzeit kann aktu­ell für 4 USD dazu gekauft wer­den. Ich habe mal geschaut, wie viel Zeit für ein 4x-​Upscale von Midjourney berech­net wird. Beim obi­gen Bild waren das ca. 3 Minuten. Mit einer Stunde Rechenzeit könn­ten damit 20 Bilder hoch­ska­liert wer­den. Bei Kosten von 4 USD/​Stunde wür­de ein Upscale ca. 20 US-​Cent kos­ten. Wer die inklu­si­ven Stunden im Standard- oder Pro-​Plan nutzt, zahlt nur die Hälfte.

2. Topaz Photo AI

Der Upscaler von Topaz Labs war unse­re bis­he­ri­ge bevor­zug­te Upscale-​Methode. Getestet haben wir hier mit der Version 2.0.5.
Topaz Photo AI ist ein recht neu­es Tool, mit dem ver­schie­de­ne KI-​basierte Werkzeuge wie Topaz Gigapixel, Topaz Sharpen etc. zusam­men­ge­fasst wurden.

Topaz Photo AI V2 Upscaler 4x

Die Ergebnisse sehen sehr über­zeu­gend aus, vor allem die Hauttextur ist sehr rea­lis­tisch, die Details wie Wimpern und Haare sind jedoch etwas gröber.

Topaz hat auch eine Funktion namens „Recovering Face“, womit laut Hersteller die Ergebnisse von Gesichtern in gerin­ger bis mitt­le­rer Auflösung deut­lich ver­bes­sert wer­den kann:

Recover Faces dra­ma­ti­cal­ly impro­ves low-​medium qua­li­ty faces.“

Es gibt einen Regler, der stu­fen­los von 0 bis 100% ein­ge­stellt wer­den kann. Bei 25% sieht das Ergebnis so aus:

Topaz Photo AI V2 Upscaler 4x + 25% Recovering Face

Ich fin­de, dass das Gesicht dadurch ein­fach mat­schi­ger wird. Dieser Effekt nimmt mit der Stärke der Recover-​Funktion zu, bei 100% ist das Ergebnis deut­lich unbrauch­ba­rer als ganz ohne die Funktion. Vermutlich liegt das dar­an, dass die Bildqualität vom Ausgangsmaterial schon „zu gut“ für die­se Funktion ist, die der Verbesserung von „low qua­li­ty faces“ die­nen soll.

Ein wei­te­rer Vorteil von Topaz Photo AI ist, dass hier Bilder als Batch bear­bei­tet wer­den kön­nen und neben dem Hochskalieren im glei­chen Arbeitsgang wahl­wei­se auch geschärft, ent­rauscht, farb­lich ange­passt etc. wer­den können.

Mit 199 USD sind die Kosten initi­al recht hoch, dafür kön­nen damit unbe­grenzt Bilder bear­bei­tet wer­den und es gibt regel­mä­ßi­ge Updates. Für Vielnutzer preis­lich die bes­te Wahl. Weiterer Pluspunkt: Es gibt ein Photoshop-​Plugin.

3. Photoshop

Die frü­her übli­che und seit lan­gem ver­füg­ba­re Methode mit Photoshop-Bordmitteln war, ein­fach die Bildgröße hoch­zu­set­zen. Das Ergebnis, getes­tet mit Photoshop 2024 (V25.0), sieht dann so aus:

Photoshop-​Vergrößerung V25 (Berechnung: Automatisch)

Es ist damit sicht­bar mit Abstand das schlech­tes­te Ergebnis, was wenig ver­wun­dert, da hier noch kei­ne KI Hilfestellung leis­tet. Selbst mit dem bekann­ten Kniff, das Bild in 10%-Schritten hoch­zu­ska­lie­ren, war das Ergebnis nur mini­mal bes­ser und reicht trotz­dem nicht an die ande­ren Methoden heran.

In den Kommentaren zu mei­nem ers­ten Test gab es zwei Hinweise, wie ich die Ergebnisse ver­bes­sern könn­te. Der ers­te war, dass sich hin­ter dem Häkchen „Neu berech­nen“ noch eine Auswahlmöglichkeit für „Details erhal­ten 2.0“ verbirgt:

Photoshop-​Vergrößerung V25 (Berechnung: Details erhal­ten 2.0)

Das Ergebnis ist zwar „bes­ser“ und schär­fer, dafür aber mit sicht­ba­ren Artefakten über­sät. Wenn ich den Regler „Rauschen redu­zie­ren“ auf 50% set­ze, ver­schwin­den die Artefakte, aber das Bild sieht etwas weich­ge­zeich­net aus.

Kurz: Der schlech­tes­te Upscaler im Test. Es wun­dert mich etwas, dass hier die Adobe Sensei-​KI noch nicht Einzug gehal­ten hat, aber ver­mut­lich wird das ein Feature sein, was eher frü­her als spä­ter ver­öf­fent­licht wer­den wird.

Jemand mein­te noch, dass sich unter den „Neural Filters“ ein „Superzoom“-Filter ver­ber­ge. Das ist jedoch kein rich­ti­ger „Upscaler“, weil damit das Bild tat­säch­lich „ran­ge­zoomt“ wird, ich ver­lie­re also die Bildmotive am Rand.

Dafür sind die Kosten jedoch unschlag­bar, da jeder mit einem Photoshop-​Abo unbe­grenzt vie­le Bilder hoch­ska­lie­ren kann.

Kurzes Update 23.10.2023: (sam­ple images not included in down­load yet)
Einige Leser wie­sen mich dar­auf hin, dass die „Superzoom“-Funktion doch das gan­ze Bild anzeigt, wenn die Option „Bild > Alles ein­blen­den“ genutzt wird. Zusätzlich gibt es eini­ge Auswahlmöglichkeiten wie z.B. „Gesichtsdaten ver­bes­sern“ und „JPG Artefakte reduzieren“:

Photoshop Neural Filter „Superzoom“ mit „Gesichtsdaten ver­bes­sern“ und „JPG Artefakt-​Reduzierung“ aktiv

Das Ergebnis sieht schon bes­ser als mit der alten Photoshop-​Methode aus und ran­giert damit im obe­ren Mittelfeld. Für die Top-​Liga sind die Bereiche wie Haare oder Wimpern noch etwas zu matschig.

Außerdem bie­tet Adobe in Lightroom oder Camera Raw die „Verbessern“-Option, wel­che eben­falls hoch­ska­liert, aber nur bei Raw-​Dateien funk­tio­nie­ren soll.

4. Luminar Neo

Luminar Neo Hochskalieren 4x

Luminar Neo ist, ähn­lich wie Topaz Labs, ein wei­te­res KI-​gestütztes Tool-​Kit für die Fotobearbeitung mit vie­len Funktionen. Getestet wur­de hier mit der Version 1.14.1.12230 im Upscale Type „Universell“.

Gefühlt wür­de ich sagen, dass das Ergebnis irgend­wo zwi­schen Midjourney und Topaz liegt. Die Details sind etwas grö­ber als bei den ande­ren bei­den Upscalern, die Haut weich­ge­zeich­ne­ter als bei Topaz, aber weni­ger als bei Midjourney.

Luminar Neo Hochskalieren 4x + Gesichtsverstärker AI

Es gibt bei der Hochskalieren-​Funktion noch das optio­na­le Häkchen „Gesichtsverstärker AI“, wel­ches jedoch schlicht gesagt (bis­her) grau­sa­me Ergebnisse lie­fert. Es sieht so aus als wür­de hier ein Geisterbild über dem ande­ren lie­gen. Kurz: Finger weg von dem Häkchen.

Die Kosten von Luminar Neo lie­gen bei 219 Euro für die lebens­lan­ge Nutzung, es gibt aber auch Abo-​Modelle ab 11,95 Euro/​Monat, was sich gut zum Testen eig­net. Dafür bekommt man aber nicht nur die Hochskalieren-​Funktion, son­dern ein brei­tes Bündel an Werkzeugen wie Entrauschen, Schärfen, Lichtmanipulationen, und vie­les mehr. Die Handhabung mit dem sepa­ra­ten Installieren der ver­schie­de­nen Plugins fin­de ich jedoch nicht ganz intuitiv.

5. Pixelcut

Pixelcut ist ein kos­ten­lo­ser Online-​Upscaler, wel­cher bequem via Drag & Drop funktioniert.

Pixelcut Upscaler 4x

Das Ergebnis ist rela­tiv grob, aber bes­ser als Photoshop. Dafür sind die Kosten gleich null. Für Gelegenheitsnutzer also sehr praktisch.

Es ist auch eine Batch-​Nutzung mög­lich, die dann jedoch im „Pixelcut Pro“ 9.99 USD pro Monat oder 59.99 USD im Jahr kos­tet. Dafür ist dann auch eine iPhone/​Android-​App-​Nutzung ent­hal­ten und unbe­grenz­te Hintergrundentfernung.

6. Neural.love

Neural.love ist ein online-​basierter AI-​gestützter HD Portrait-​Generator, der als Leserhinweis sei­nen Eingang in die­sen Test fand.

Der Leistungsumfang reicht von der direk­ten KI-​Bilderstellung über Image-​to-​Image Bildremixe, Portraitrestaurierungen etc. und eben auch ein Upscaler namens „Image Enhance/​Quality Enhance“.

Neural.love Upscaler 4x

Das Ergebnis ist etwas detail­lier­ter als bei Pixelcut, reicht aber von der Schärfe nicht an Topaz oder Midjourney heran.

Neural.love Upscaler 4x + Smart Noise

Es gibt noch die Option, „Smart Noise“ zu akti­vie­ren, was – wie der Name schon ver­mu­ten lässt – ein fei­nes Rauschen über das Bild liegt. In der 100%-Ansicht ist das recht auf­fäl­lig, beim Rauszoomen ist der Eindruck aber posi­ti­ver als ohne das Rauschen.

Das Online-​Tool erfor­dert eine Registrierung per Email und arbei­tet mit einem Credit-​System für die Kosten. Die ers­ten fünf Credits sind frei (also 5x Upscaling), danach kön­nen 300 Credits im Abo für 30 Euro/​Monat oder zeit­lich unbe­grenzt für 57 Euro gekauft wer­den. Das wären dann 10 bzw. 19 Cent pro Upscale.

7. Upscale.media

Upscale.media ist ein wei­te­rer Online-​Upscaler auf Credit-Basis:

Upscale.media 4x Upscaler

Das Ergebnis ran­giert soli­de im Mittelfeld und ist schon gut brauchbar.

Upscale.media 4x Upscaler + Qualität verbessern

Es gibt auch die Option, ein Häkchen bei „Qualität ver­bes­sern“ zu set­zen, doch das scheint das Gegenteil zu bewir­ken. Das Bild ver­liert an Details und die Konturen wer­den unna­tür­lich stark betont. Würde ich nicht empfehlen.

Kosten? Pro Tag sind zwei Uploads ohne Registrierung kos­ten­los mög­lich, nach Registrierung gibt es fünf kos­ten­lo­se Uploads. 100 Credits kos­ten im Abo 19 USD bzw. zeit­lich unbe­grenzt 49 USD, was 19 US-​Cent bzw. 49 US-​Cent pro Upscaling entspricht.

8. Stable Diffusion Upscaler

Auch im quell­of­fe­nen KI-​Generator Stable Diffusion gibt es gleich meh­re­re Upscaler. Hier öff­net sich aber auch die Büchse der Pandora, weil es neben den sie­ben ver­schie­de­nen Upscalern, die im Web-​UI von Automatic111 dabei sind, noch unzäh­li­ge wei­te­re gibt, die auch jeweils noch vie­le ver­schie­de­ne Settings haben.

Allein in der Datenbank OpenModelDB fin­den sich unter „General Upscaler“ 66 ver­schie­de­ne Modelle, die kos­ten­los her­un­ter­ge­la­den und instal­liert wer­den kön­nen und alle ihre Stärken und Schwächen haben.

Um die Sache noch kom­ple­xer zu machen, kön­nen Bilder auch mit­tels der „IMG2IMG“-Methode hoch­ska­liert wer­den, wobei hun­der­te ver­schie­de­ne KI-​Modelle zur Auswahl stehen.

Deshalb habe ich hier nur mal einen inter­nen Upscaler getes­tet, den Upscaler „ESRGAN_​4x“ mit einer GFPGAN visi­bi­li­ty von 0.5.

Stable Diffusion Upscaler ESRGAN_​4x (GFPGAN visi­bi­li­ty 0.5)

Das Ergebnis ist ca. dop­pelt so gut wie die Photoshop-​Methode, aber sicht­bar schlech­ter als die meis­ten ande­ren Upscaler im Test.

Dazu kommt, dass die Geschwindigkeit des Skalierens ganz stark von der lokal ver­wen­de­ten Hardware abhängt. Mit einer RTX 2080-​Grafikkarte dau­er­te das Hochskalieren über 15 Minuten. Wer die Settings noch etwas mehr hoch­dreht, muss expo­nen­ti­ell län­ger warten.

Auch die Bedienung gestal­tet sich kom­plex, da die Modelle gefun­den und run­ter­ge­la­den wer­den müs­sen und für die ver­schie­de­nen Settings kei­ne Anleitung exis­tiert. Ihr wer­det also auf etli­chen Webseiten rum­sur­fen, um euch die emp­foh­le­nen Einstellungen zusam­men­zu­su­chen.
Dafür sind die Kosten fast Null, da alle benö­tig­ten Tools kos­ten­los erhält­lich sind. Ihr zahlt also nur für euren Strom.

Wer mehr Stable Diffusion Upscaler im Vergleich sehen will, fin­det hier einen ähn­li­chen Test.

9. ChaiNNer Upscaler

ChaiNNer ist ein wei­te­rer Tipp aus den Kommentaren. Das ist ein OpenSource-​Projekt, wel­ches ursprüng­lich als KI-​Upscaler gestar­tet ist, mitt­ler­wei­le aber sehr umfang­rei­che Bildverarbeitungsfunktionen bietet.

ChaiNNER ist node-​basiert, was sehr unge­wohnt ist, für die, die es nicht ken­nen, aber wer das Prinzip ver­stan­den hat, kann auf die­se Weise sehr kom­ple­xe Workflow-​Ketten auf­bau­en, die dann mit einem Klick abge­ar­bei­tet wer­den. Der Workflow für das ein­fa­che Hochskalieren sieht dann so aus:

ChaiNNer-​Upscaling-​Workflow (Klicken zum Vergrößern)

Das Programm ist noch in der Alpha-​Phase (ich habe v0.20.2 genutzt) und kos­ten­los für Windows, Mac und Linux erhält­lich. Die Installation erfor­dert etwas Zeit, ist aber in der GitHub-​Anleitung gut beschrieben.

ChainNNer selbst ist genau genom­men gar kein Upscaler, son­dern dient als GUI (gra­fi­sche Benutzeroberfläche) für ande­re OpenSource-​Upscaler auf PyTorch-​Basis. Das heißt, fast alle Upscaler die bei Stable Diffusion inte­griert wer­den kön­nen, sind auch in ChaiNNer nutz­bar. Wie im Bereich „Stable Diffusion“ erwähnt, ste­hen euch also min­des­tens 66 ver­schie­de­ne Möglichkeiten zur Verfügung.

ChaiNNer 4x Upscaler mit Model „Remacri“

Getestet habe ich ChaiNNer mit dem belieb­ten „Remacri“-Modell, wel­ches eine über­zeu­gen­de Kombination aus Schärfe und Struktur lie­fert. Ebenfalls nicht ganz so gut wie Topaz oder Midjourney, dafür kos­ten­los und see­ehr flexibel.

ChaiNNer 4x Upscaler mit Model „UniScale-​Balanced“

Ich habe noch ein wei­te­res Modell getes­tet, das „UniScale-​Balanced“ auf Basis der ESRGAN-​Architektur. Das schnitt jedoch deut­lich schlech­ter ab als „Remacri“.

Noch mal zum Verständnis: In Stable Diffusion und ChaiNNer kön­nen die glei­chen Upscaler-​Modelle ein­ge­setzt wer­den, bei mir lief die Verarbeitung jedoch deut­lich schnel­ler bei ChaiNNer. Dafür gibt es bei Stable Diffusion etwas mehr Einstellmöglichkeiten, die ich auf die Schnelle nicht bei ChaiNNer gefun­den habe.

Das Resultat

Es gibt noch unzäh­li­ge wei­te­re Tools, vor allem online, aber die meis­ten davon ran­gie­ren im Mittelfeld und sind preis­lich ähn­lich angesiedelt.

Von der Bildqualität liegt Midjourney aktu­ell mei­ner Meinung nach stark vor­ne, hat eben aber den gra­vie­ren­den Nachteil, dass damit nur Midjourney-​Bilder hoch­ska­liert wer­den kön­nen. Auch preis­lich ist Midjourney kein Zuckerschlecken, wenn man nicht gera­de eh Stunden übrig hat in deren Abo-Modell.

Für Power-​User, die mehr als 1000 Bilder hoch­ska­lie­ren wol­len, bleibt die Wahl zwi­schen Topaz Photo AI und Luminar Neo preis­lich die bes­se­re Wahl, wobei Topaz in der Bedienung wegen der Automatisierungsmöglichkeiten etwas die Nase vorn hat.

Insgesamt ist die Qualität aber auch sub­jek­tiv behaf­tet und kann sich je nach Motiv oder mit einem Update eines Tools auch wie­der ändern.

Bei den gan­zen, teils kos­ten­lo­sen, Online-​Upscalern soll­tet ihr auch beden­ken, dass ihr eure Daten in frem­de Hände gebt und dem Anbieter ver­trau­en soll­tet, damit ver­trau­lich umzu­ge­hen. Vermutlich wer­den auch die meis­ten die­ser Anbieter unter der Haube eines der unzäh­li­gen OpenSource-​Upscaler lau­fen haben.

Welchen Upscaler nutzt ihr aktu­ell und wel­ches Ergebnis hat euch hier am meis­ten überzeugt?

Die Community-​Test-​Erweiterung

Wer den Test mit eige­nen Modellen oder ande­ren Anbietern erwei­tern will, hat in die­sem Artikel alle not­wen­di­gen Grundlagen: Das 1024x1024-​Ausgangsbild steht oben zum Download zur Verfügung sowie die Photoshop-​Datei mit den Ebenen der Upscaler und der Pfad-​Auswahl für die Ausschnittvergrößerung.

Ihr könnt also ger­ne wei­te­re Methoden tes­ten und das Ergebnis ger­ne in den Kommentaren pos­ten (Bilder bit­te als Link).

Generatives Füllen in Adobe Photoshop – Erste Erfahrungen mit der Beta

Seit eini­gen Wochen gibt es in der Beta-​Version von Adobe Photoshop die Möglichkeit, den neu­en „Generative Füllung“-Befehl aus­zu­pro­bie­ren. Das ist qua­si die Integration der Adobe Firefly-KI direkt als Tool in Photoshop, mit der ihr belie­bi­ge Elemente direkt in eure Bilder gene­rie­ren las­sen könnt – durch künst­li­che Intelligenz.

In den letz­ten Wochen habe ich eini­ge Beispiele der neu­en KI-​Fähigkeiten auf mei­ner Facebook-​Seite gezeigt (also folgt mir dort, falls ihr schnel­ler infor­miert wer­den wollt), aber je mehr ich die Funktion nut­ze, des­to mehr bekam ich das Gefühl, dass ich damit den neu­en Möglichkeiten nicht gerecht würde.

Deshalb will ich heu­te eini­ge mei­ner Experimente im Blog vor­stel­len, damit ihr eine Ahnung davon bekommt, was alles – nicht in Zukunft – son­dern ab sofort in Photoshop mög­lich ist.

Was ist der „Generative Fill“-Befehl in Photoshop?

Seit der neus­ten Photoshop-​Version wer­den je nach Werkzeug und Aktion im Bild häu­fig genutz­te Befehle in einer Shortcut-​Leiste ein­ge­blen­det. Wenn eine Markierung, also so eine gestri­chel­te Linie, aktiv ist, ist der ers­te Befehl in der Beta-​Version von Photoshop der „Generative Fill“.

Wer dar­auf klickt, kann ent­we­der Text in ein Bedienfeld ein­tip­pen oder ein­fach direkt auf „Generieren“ kli­cken. Wer Text ein­gibt, gibt damit den „Prompt“ an (ver­gleich­bar mit der Texteingabe bei KI-​Tools wie Midjourney, Stable Diffusion oder Dall‑E 2), wel­chen die KI zu einem Bildinhalt umwan­deln soll. Wer dar­auf ver­zich­tet, gibt der KI freie Hand bei der Motivauswahl und die KI ver­sucht dann, den mar­kier­ten Bereich so zu fül­len, dass er sich naht­los ins vor­han­de­ne Bild einpasst.

Damit han­delt die KI qua­si wie beim Befehl „Inhaltsbasiertes Füllen“, nur in deut­lich bes­se­rer Qualität und mit dem Unterschied, dass die Füllung nicht aus dem bestehen­den Bild genom­men wird, son­dern aus den Trainingsdaten der KI. Das hat den Vorteil, dass deut­lich grö­ße­re Bereiche gefüllt wer­den kön­nen und kei­ne unna­tür­li­chen Wiederholungsmuster ent­ste­hen, wie das beim „inhalt­ba­sier­ten Füllen“ manch­mal der Fall war.

Möglichkeiten in der Beta-Version

Die Adobe-​eigene KI „Firefly“ befin­det sich aktu­ell in der Betaphase zum Testen für die nicht-​kommerzielle Nutzung und auch das „Generative Füllen“ in der Beta-​Version von Photoshop ist aktu­ell nur für nicht-​kommerzielle Anwendungen freigegeben.

In den letz­ten Tagen habe ich ver­stärkt bewusst nur mit der Beta-​Version gear­bei­tet und pro­biert, an wel­chen Stellen die KI mich bei der Arbeit unter­stüt­ze könn­te. Okay, manch­mal habe ich auch ein­fach nur rum­ge­al­bert und aus­pro­biert, ob die KI mei­ne lus­ti­gen Ideen glaub­haft umset­zen könnte.

Schauen wir uns eini­ge der Ergebnisse an:

Das männ­li­che Model hat ver­ges­sen Bescheid zu geben, dass er sich seit dem Sedcard-​Shooting ver­än­dert hat und taucht am Set mit einem Schnauzbart auf? Kein Problem, ein­fach mar­kie­ren und weg ist der Bart.

Das Model trägt nur ein Hemd, soll aber wie die ande­ren Personen im Bild einen dunk­len Anzug tra­gen? Oder einen roten? Oder ein T‑Shirt? Oder einen Neoprenanzug? Oder doch lie­ber eine Lederjacke?
Auch hier kein Problem, den Körper mar­kie­ren und in das Feld für die gene­ra­ti­ve Füllung das gewünsch­te Kleidungsstück auswählen.

Im KI-​Bild ist die Smartwatch am Handgelenk nur mat­schi­ger Brei? Dann halt mit der zwei­ten KI, also hier Firefly, ein pas­sen­des Display für die Uhr generieren.

Beim Gruppen-​Businessfoto will der Kunde mehr Diversität im Bild haben? Einfach paar Köpfe im Hintergrund mar­kie­ren und gegen ande­re austauschen.

Diesen Trick nen­ne ich „den Trotzki machen“: Eine Person auf dem Foto soll ver­schwin­den, wie auf dem Lenin-​Foto von Grigori Goldstein im Jahr 1920? Einfach mar­kie­ren und auf „gene­ra­ti­ve Füllung“ kli­cken. Wer ins Textfeld statt­des­sen eine ande­re Personenbeschreibung ein­fügt, kann die Person auch austauschen.

Ihr habt eine Aufnahme und wollt „raus­zoo­men“? Geht jetzt ein­fach, indem ihr die Leinwand ver­grö­ßert und den nun lee­ren Teil mar­kiert und gene­ra­tiv fül­len lasst. Der schwar­ze Rahmen dient hier als Markierung, alles außer­halb davon ist KI-​generiert, inner­halb ist eine Drohnenaufnahme.

Aerial view of rural land­scape in Ellenberg, Germany in summer

Die Karre vor eurer Haustür ist zu klein? Einfach mar­kie­ren und zack, wird ein Panzer draus.
Hier wird auch erkenn­bar, wie pro­ble­ma­tisch die­se Technik für die Erstellung von „Fake News“ sein kann.

Das Generative Füllen funk­tio­niert nicht nur mit Teilen vom Bild. Auch eine kom­plett lee­re Leinwand kann mar­kiert und gefüllt wer­den, wie hier in mei­nem Beispiel mit einem Dschungel. Im nächs­ten Schritt habe ich den Dschungel mit etli­chen Tieren bevölkert.

Erkenntnisse des Beta-Tests

Es ist leicht erkenn­bar, wie mäch­tig und nütz­lich das neue KI-​Tool in Photoshop sein kann. Bei den meis­ten Fällen lie­fert die Generative Füllung gan­ze Arbeit. Nur bei eini­gen Prompts ver­steht Photoshop (bis­her) ein­fach nicht, was gemeint ist. Beim obi­gen Beispiel, wo ich zuerst die Person ent­fernt und danach mit einer Frau ersetzt habe, woll­te ich eigent­lich „Batman“ sehen, aber da hat wohl ein inter­ner „Intellectual Property“-Filter ange­schla­gen und das Ergebnis in eine ande­re Richtung gelenkt.

Mehrmals stieß ich aber auch bei mei­ner Meinung nach unver­fäng­li­chen Bearbeitungen auf die Fehlermeldung „Die erzeug­ten Bilder wur­den ent­fernt, da sie gegen Benutzerrichtlinien ver­sto­ßen“ und Photoshop lie­fer­te ein­fach kei­ne oder weni­ger als drei Ergebnisse. Das pas­sier­te zum Beispiel manch­mal, wenn ich schie­fe, krum­me Zähne von KI-​Portraits mar­kiert hat­te und – ohne kon­kre­ten Prompt – schö­ne­re Zähne haben woll­te. Aber auch, wenn ich Gebäudefassaden auf­hüb­schen oder repa­rie­ren woll­te, erhielt ich ab und zu Meldung, was nach einer Weile den Workflow unschön unterbrach.

Die KI in Photoshop lie­fert gene­rell knack­schar­fe Ergebnisse, aber vor allem bei grö­ße­ren Auflösungen kommt die KI manch­mal an ihre Grenzen und die KI-​Füllungen wer­den unscharf. Das liegt dann meist dar­an, dass der mar­kier­te Bereich grö­ßer als ein Megapixel (1024x1024 Pixel) ist. Bis zu die­ser Größe arbei­tet die KI bis­her nativ, alles was grö­ßer ist, wird künst­lich hoch­ska­liert, was eben zur Unschärfe füh­ren kann. Eine mög­li­che Abhilfe ist hier, bei gro­ßen Aufträgen die Fläche in klei­ne­re Bereiche zu unter­tei­len und die „Generative Füllung“ mehr­mals lau­fen zu lassen.

Die Vergütung der Urheber an den Trainingsdaten

Adobe wirbt damit, dass deren KI im Gegensatz zu gewis­sen ande­ren Anbietern recht­lich und ethisch „sau­ber“ sein soll, weil die Trainingsdaten alle legal genutzt wor­den seien.

Adobe beruft sich hier vor allem dar­auf, dass sie die Bilder aus ihrem Adobe Stock-​Portfolio für Trainingszwecke ver­wen­det haben. Das ist in den Nutzungsbedingungen für Adobe Stock-​Anbieter vom 15. April 2022 gere­gelt, wo es plötz­lich heißt: 

You grant us a non-​exclusive, world­wi­de, per­pe­tu­al, fully-​paid, and royalty-​free licen­se to use, repro­du­ce, publicly dis­play, publicly per­form, dis­tri­bu­te, index, trans­la­te, and modi­fy the Work for the pur­po­ses of ope­ra­ting the Website; pre­sen­ting, dis­tri­bu­ting, mar­ke­ting, pro­mo­ting, and licen­sing the Work to users; deve­lo­ping new fea­tures and ser­vices; archi­ving the Work; and pro­tec­ting the Work.“

(Hervorhebung durch mich)

Bezahlt wur­den die Adobe Stock-​Anbieter bis­her für ihre Trainingsdaten noch nicht, was das „ethisch“ etwas grau­er wer­den lässt. Zurecht sind daher eini­ge Adobe Stock-​Anbieter etwas sau­er, dass sie weder bezahlt noch rich­tig gefragt wur­den. Die Änderung der Nutzungsbedingungen geschah wie üblich ohne gro­ße Ankündigung oder gar Verweise auf geplan­te KI-Trainings.

Immerhin schreibt Adobe eher neben­bei auf Twitter, dass eine Kompensation der Urheber geplant sei, wenn die Firefly-​KI die Betaphase verlasse:

Was habt ihr bis­her mit dem Tool umset­zen kön­nen?
Was ist eure Meinung zu dem Werkzeug?
Schreibt es ger­ne in die Kommentare.

Adobe Stock gibt Richtlinien für das Hochladen von KI-​generierten Bildern bekannt

Nach Getty Images und Shutterstock gab nun Adobe Stock als drit­te gro­ße Bildagentur ihre neu­en Richtlinien über den Umgang mit KI-​Bildern heraus.

Der Standpunkt von Adobe Stock ist dabei deut­lich libe­ra­ler als der der ande­ren Agenturen: Adobe akzep­tiert ab sofort offi­zi­ell Illustrationen, die mit gene­ra­ti­ven KI-​Modellen erstellt wur­den – oder ein­fa­cher: KI-​generierte Bilder. 

Eins mei­ner KI-​Bilder bei Adobe Stock

Die neu­en Einreichungsrichtlinien sol­len sicher­stel­len, dass die Nutzer KI-​Inhalte kor­rekt und ver­ant­wor­tungs­voll ver­wen­den. Diese Richtlinien kön­nen voll­stän­dig hier nach­ge­le­sen werden. 

Hier eini­ge der wich­tigs­ten Punkte:
Dabei gehört zuerst die Markierung des betrof­fe­nen Materials. Neue KI-​Bilder sol­len von den Anbietern im Titel und in den Schlagworten mit „Generative AI“ gekenn­zeich­net wer­den, damit Kunden die­se als sol­che erken­nen können.

Alle KI-​Bilder, auch wenn sie foto­rea­lis­tisch aus­se­hen, sol­len als „Illustration“ ein­ge­reicht wer­den. Die Nutzungsbedingungen der ver­wen­de­ten KI-​Engine müs­sen natür­lich die vol­len kom­mer­zi­el­len Rechte gewäh­ren. Hier gilt es das Kleingedruckte zu lesen und auf even­tu­el­le Änderungen zu achten.

Weiterhin sind – wie schon bis­her – Einreichungen nicht zuläs­sig, die Inhalte von Dritten ent­hal­ten, wie z. B. erkenn­ba­re Gesichter oder Warenzeichen (wie Marken oder Logos) oder sogar Stile ande­rer Künstler.

Vor allem letz­te­res ist ver­mut­lich in der Praxis schwer abgrenz­bar, aber immer­hin wird der Versuch unternommen.

Wenn erkenn­ba­re Personen (z.B. Prominente) in den KI-​Bildern ent­hal­ten sind oder geschütz­te Plätze oder Orte, wird dafür ein Model Release bzw. Property Release ver­langt oder die Bilder kön­nen eben nicht ein­ge­reicht wer­den (auch nicht als „redak­tio­nel­les Material“). Eine lan­ge Liste der bekann­ten Einschränkungen gibt es hier als Übersicht.

Für alt­ge­dien­te Stock-​Lieferanten ist das nichts Neues, aber da durch die neu­en KI-​Tools noch mal eine ganz ande­re Nutzergruppe plötz­lich auf dem Stock-​Markt mit­macht, ist es sicher sinn­voll, dar­auf noch mal aus­drück­lich hinzuweisen.

Weitere Pläne von Adobe in Richtung KI-Bilderstellung

Auf der „Adobe Max 2022“ Konferenz vor eini­gen Wochen hat­te eini­ge wei­te­re KI-​bezogene Ankündigungen gemacht. Zum einen arbei­tet Adobe an einer neu­en digi­ta­len Provenance-​Technologie, die alle rele­van­ten Details über die Quelle einer Mediendatei direkt in die Datei ein­be­zieht. Diese Technologie wur­de von der Content Authenticity Initiative (CAI) ent­wi­ckelt, die das Unternehmen eben­falls gegrün­det hat und von der es hofft, dass sie zu einem Branchenstandard wird. 

Zum ande­ren gab Adobe bekannt, an einer eige­nen KI-​Software zu arbei­ten, die bald in die Creative-​Cloud-​Apps wie Adobe Express und Photoshop inte­griert wer­den soll. Einige beein­dru­cken­de Demos gibt es in die­sem Video (ab Minute 1:30 geht es los, für die ganz Ungeduldigen):

Viele der Features, z.B. das In-​Painting oder Out-​Painting gibt es auch bei den frei ver­füg­ba­ren KI-​Tools wie Stable Diffusion, aber die Einbettung direkt in Photoshop macht die Bedienung noch mal deut­lich kom­for­ta­bler und intuitiver.

Was sagt ihr zu den neu­en Richtlinien?
Gibt es etwas, was euch im Bereich „Bilderstellung durch Künstliche Intelligenz“ beson­ders inter­es­siert? Welche Fragen bren­nen auch unter den Nägeln?

Podcast eines Fotoproduzenten Folge 28 – Interview mit dem Composer Uli Staiger

Dieses Mal zu Gast ist Uli Staiger, der gelern­ter Fotograf ist, aber dar­über hin­aus schnell Photoshop und spä­ter 3D zu sei­nen belieb­ten Hilfsmitteln erko­ren hat, um damit sur­rea­lis­ti­sche Fotomontagen zu erstellen.

Wir reden aus­führ­lich über sei­nen Werdegang, sei­ne Art der Photoshop-​Nutzung, die Vorteile des 3D-​Renderings, die Unterschiede zwi­schen frei­en Arbeiten und Aufträgen und eini­ges mehr:

Hier ist der RSS-​Feed zum Abonnieren.
Über iTunes könnt ihr hier den Podcast abon­nie­ren.
Der Podcast bei Spotify.

Portfolio:

Shownotes:

Webseite von Uli Staiger
Facebook-​Seite von Uli Staiger
Uli Staiger bei 500px
Uli Staiger bei Behance

Podcast eines Fotoproduzenten Folge 22 – Interview mit DOCMA-​Chefredakteur Christoph Künne

In die­ser Folge ist der Mitbegründer und aktu­el­le Chefredakteur der Bildbearbeitungszeitschrift DOCMA, Christoph Künne, bei mir im Podcast zu Gast.

DOCMA-​Mitbegründer und Chefredakteur Christoph Künne

Wir spre­chen über die Entwicklung der DOCMA und der Zeitschriftenlandschaft all­ge­mein, über die Suche nach neu­en Autoren, die Ausschreibung des DOCMA-​Awards, die Aufgaben eines Chefredakteurs, die Vor- und Nachteile eines eige­nen Verlags und vie­les mehr.

Hier ist der RSS-​Feed zum Abonnieren.
Über iTunes könnt ihr hier den Podcast abon­nie­ren.
Der Podcast bei Spotify.

Einige der aktu­ells­ten Titelbilder der Zeitschrift DOCMA:

SHOWNOTES:
Webseite der Zeitschrift DOCMA
Infos zum DOCMA-​Award 2019 (Einsendeschluss 10.5.2019)
Facebook-​Seite der DOCMA
Instagram-​Seite der DOCMA