Seit einigen Wochen gibt es in der Beta-Version von Adobe Photoshop die Möglichkeit, den neuen „Generative Füllung“-Befehl auszuprobieren. Das ist quasi die Integration der Adobe Firefly-KI direkt als Tool in Photoshop, mit der ihr beliebige Elemente direkt in eure Bilder generieren lassen könnt – durch künstliche Intelligenz.
In den letzten Wochen habe ich einige Beispiele der neuen KI-Fähigkeiten auf meiner Facebook-Seite gezeigt (also folgt mir dort, falls ihr schneller informiert werden wollt), aber je mehr ich die Funktion nutze, desto mehr bekam ich das Gefühl, dass ich damit den neuen Möglichkeiten nicht gerecht würde.
Deshalb will ich heute einige meiner Experimente im Blog vorstellen, damit ihr eine Ahnung davon bekommt, was alles – nicht in Zukunft – sondern ab sofort in Photoshop möglich ist.
Was ist der „Generative Fill“-Befehl in Photoshop?
Seit der neusten Photoshop-Version werden je nach Werkzeug und Aktion im Bild häufig genutzte Befehle in einer Shortcut-Leiste eingeblendet. Wenn eine Markierung, also so eine gestrichelte Linie, aktiv ist, ist der erste Befehl in der Beta-Version von Photoshop der „Generative Fill“.
Wer darauf klickt, kann entweder Text in ein Bedienfeld eintippen oder einfach direkt auf „Generieren“ klicken. Wer Text eingibt, gibt damit den „Prompt“ an (vergleichbar mit der Texteingabe bei KI-Tools wie Midjourney, Stable Diffusion oder Dall‑E 2), welchen die KI zu einem Bildinhalt umwandeln soll. Wer darauf verzichtet, gibt der KI freie Hand bei der Motivauswahl und die KI versucht dann, den markierten Bereich so zu füllen, dass er sich nahtlos ins vorhandene Bild einpasst.
Damit handelt die KI quasi wie beim Befehl „Inhaltsbasiertes Füllen“, nur in deutlich besserer Qualität und mit dem Unterschied, dass die Füllung nicht aus dem bestehenden Bild genommen wird, sondern aus den Trainingsdaten der KI. Das hat den Vorteil, dass deutlich größere Bereiche gefüllt werden können und keine unnatürlichen Wiederholungsmuster entstehen, wie das beim „inhaltbasierten Füllen“ manchmal der Fall war.
Möglichkeiten in der Beta-Version
Die Adobe-eigene KI „Firefly“ befindet sich aktuell in der Betaphase zum Testen für die nicht-kommerzielle Nutzung und auch das „Generative Füllen“ in der Beta-Version von Photoshop ist aktuell nur für nicht-kommerzielle Anwendungen freigegeben.
In den letzten Tagen habe ich verstärkt bewusst nur mit der Beta-Version gearbeitet und probiert, an welchen Stellen die KI mich bei der Arbeit unterstütze könnte. Okay, manchmal habe ich auch einfach nur rumgealbert und ausprobiert, ob die KI meine lustigen Ideen glaubhaft umsetzen könnte.
Schauen wir uns einige der Ergebnisse an:
Das männliche Model hat vergessen Bescheid zu geben, dass er sich seit dem Sedcard-Shooting verändert hat und taucht am Set mit einem Schnauzbart auf? Kein Problem, einfach markieren und weg ist der Bart.
Das Model trägt nur ein Hemd, soll aber wie die anderen Personen im Bild einen dunklen Anzug tragen? Oder einen roten? Oder ein T‑Shirt? Oder einen Neoprenanzug? Oder doch lieber eine Lederjacke?
Auch hier kein Problem, den Körper markieren und in das Feld für die generative Füllung das gewünschte Kleidungsstück auswählen.
Im KI-Bild ist die Smartwatch am Handgelenk nur matschiger Brei? Dann halt mit der zweiten KI, also hier Firefly, ein passendes Display für die Uhr generieren.
Beim Gruppen-Businessfoto will der Kunde mehr Diversität im Bild haben? Einfach paar Köpfe im Hintergrund markieren und gegen andere austauschen.
Diesen Trick nenne ich „den Trotzki machen“: Eine Person auf dem Foto soll verschwinden, wie auf dem Lenin-Foto von Grigori Goldstein im Jahr 1920? Einfach markieren und auf „generative Füllung“ klicken. Wer ins Textfeld stattdessen eine andere Personenbeschreibung einfügt, kann die Person auch austauschen.
Ihr habt eine Aufnahme und wollt „rauszoomen“? Geht jetzt einfach, indem ihr die Leinwand vergrößert und den nun leeren Teil markiert und generativ füllen lasst. Der schwarze Rahmen dient hier als Markierung, alles außerhalb davon ist KI-generiert, innerhalb ist eine Drohnenaufnahme.
Die Karre vor eurer Haustür ist zu klein? Einfach markieren und zack, wird ein Panzer draus.
Hier wird auch erkennbar, wie problematisch diese Technik für die Erstellung von „Fake News“ sein kann.
Das Generative Füllen funktioniert nicht nur mit Teilen vom Bild. Auch eine komplett leere Leinwand kann markiert und gefüllt werden, wie hier in meinem Beispiel mit einem Dschungel. Im nächsten Schritt habe ich den Dschungel mit etlichen Tieren bevölkert.
Erkenntnisse des Beta-Tests
Es ist leicht erkennbar, wie mächtig und nützlich das neue KI-Tool in Photoshop sein kann. Bei den meisten Fällen liefert die Generative Füllung ganze Arbeit. Nur bei einigen Prompts versteht Photoshop (bisher) einfach nicht, was gemeint ist. Beim obigen Beispiel, wo ich zuerst die Person entfernt und danach mit einer Frau ersetzt habe, wollte ich eigentlich „Batman“ sehen, aber da hat wohl ein interner „Intellectual Property“-Filter angeschlagen und das Ergebnis in eine andere Richtung gelenkt.
Mehrmals stieß ich aber auch bei meiner Meinung nach unverfänglichen Bearbeitungen auf die Fehlermeldung „Die erzeugten Bilder wurden entfernt, da sie gegen Benutzerrichtlinien verstoßen“ und Photoshop lieferte einfach keine oder weniger als drei Ergebnisse. Das passierte zum Beispiel manchmal, wenn ich schiefe, krumme Zähne von KI-Portraits markiert hatte und – ohne konkreten Prompt – schönere Zähne haben wollte. Aber auch, wenn ich Gebäudefassaden aufhübschen oder reparieren wollte, erhielt ich ab und zu Meldung, was nach einer Weile den Workflow unschön unterbrach.
Die KI in Photoshop liefert generell knackscharfe Ergebnisse, aber vor allem bei größeren Auflösungen kommt die KI manchmal an ihre Grenzen und die KI-Füllungen werden unscharf. Das liegt dann meist daran, dass der markierte Bereich größer als ein Megapixel (1024x1024 Pixel) ist. Bis zu dieser Größe arbeitet die KI bisher nativ, alles was größer ist, wird künstlich hochskaliert, was eben zur Unschärfe führen kann. Eine mögliche Abhilfe ist hier, bei großen Aufträgen die Fläche in kleinere Bereiche zu unterteilen und die „Generative Füllung“ mehrmals laufen zu lassen.
Die Vergütung der Urheber an den Trainingsdaten
Adobe wirbt damit, dass deren KI im Gegensatz zu gewissen anderen Anbietern rechtlich und ethisch „sauber“ sein soll, weil die Trainingsdaten alle legal genutzt worden seien.
Adobe beruft sich hier vor allem darauf, dass sie die Bilder aus ihrem Adobe Stock-Portfolio für Trainingszwecke verwendet haben. Das ist in den Nutzungsbedingungen für Adobe Stock-Anbieter vom 15. April 2022 geregelt, wo es plötzlich heißt:
„You grant us a non-exclusive, worldwide, perpetual, fully-paid, and royalty-free license to use, reproduce, publicly display, publicly perform, distribute, index, translate, and modify the Work for the purposes of operating the Website; presenting, distributing, marketing, promoting, and licensing the Work to users; developing new features and services; archiving the Work; and protecting the Work.“
(Hervorhebung durch mich)
Bezahlt wurden die Adobe Stock-Anbieter bisher für ihre Trainingsdaten noch nicht, was das „ethisch“ etwas grauer werden lässt. Zurecht sind daher einige Adobe Stock-Anbieter etwas sauer, dass sie weder bezahlt noch richtig gefragt wurden. Die Änderung der Nutzungsbedingungen geschah wie üblich ohne große Ankündigung oder gar Verweise auf geplante KI-Trainings.
Immerhin schreibt Adobe eher nebenbei auf Twitter, dass eine Kompensation der Urheber geplant sei, wenn die Firefly-KI die Betaphase verlasse:
Was habt ihr bisher mit dem Tool umsetzen können?
Was ist eure Meinung zu dem Werkzeug?
Schreibt es gerne in die Kommentare.