Seit über einem Jahr wird gefühlt in unserer Branche kaum noch über etwas anderes als über Künstliche Intelligenz (KI) geredet. Da passt es bestens, dass auch die neuste Podcast-Folge nach so langer Funkstille sich direkt diesem heißen Thema widmet.
Zu Gast habe ich diesmal Claudia Bußjaeger, welche die – vielleicht sogar erste – Repräsentanz für KI-Künstler namens yesweprompt ins Leben gerufen hat.
Was das genau ist, was sie vorher gemacht hat und über vieles mehr reden wir in der heutigen Folge vom „Podcast eines Fotoproduzenten“:
Seit einigen Wochen gibt es in der Beta-Version von Adobe Photoshop die Möglichkeit, den neuen „Generative Füllung“-Befehl auszuprobieren. Das ist quasi die Integration der Adobe Firefly-KI direkt als Tool in Photoshop, mit der ihr beliebige Elemente direkt in eure Bilder generieren lassen könnt – durch künstliche Intelligenz.
In den letzten Wochen habe ich einige Beispiele der neuen KI-Fähigkeiten auf meiner Facebook-Seite gezeigt (also folgt mir dort, falls ihr schneller informiert werden wollt), aber je mehr ich die Funktion nutze, desto mehr bekam ich das Gefühl, dass ich damit den neuen Möglichkeiten nicht gerecht würde.
Deshalb will ich heute einige meiner Experimente im Blog vorstellen, damit ihr eine Ahnung davon bekommt, was alles – nicht in Zukunft – sondern ab sofort in Photoshop möglich ist.
Was ist der „Generative Fill“-Befehl in Photoshop?
Seit der neusten Photoshop-Version werden je nach Werkzeug und Aktion im Bild häufig genutzte Befehle in einer Shortcut-Leiste eingeblendet. Wenn eine Markierung, also so eine gestrichelte Linie, aktiv ist, ist der erste Befehl in der Beta-Version von Photoshop der „Generative Fill“.
Wer darauf klickt, kann entweder Text in ein Bedienfeld eintippen oder einfach direkt auf „Generieren“ klicken. Wer Text eingibt, gibt damit den „Prompt“ an (vergleichbar mit der Texteingabe bei KI-Tools wie Midjourney, Stable Diffusion oder Dall‑E 2), welchen die KI zu einem Bildinhalt umwandeln soll. Wer darauf verzichtet, gibt der KI freie Hand bei der Motivauswahl und die KI versucht dann, den markierten Bereich so zu füllen, dass er sich nahtlos ins vorhandene Bild einpasst.
Damit handelt die KI quasi wie beim Befehl „Inhaltsbasiertes Füllen“, nur in deutlich besserer Qualität und mit dem Unterschied, dass die Füllung nicht aus dem bestehenden Bild genommen wird, sondern aus den Trainingsdaten der KI. Das hat den Vorteil, dass deutlich größere Bereiche gefüllt werden können und keine unnatürlichen Wiederholungsmuster entstehen, wie das beim „inhaltbasierten Füllen“ manchmal der Fall war.
Möglichkeiten in der Beta-Version
Die Adobe-eigene KI „Firefly“ befindet sich aktuell in der Betaphase zum Testen für die nicht-kommerzielle Nutzung und auch das „Generative Füllen“ in der Beta-Version von Photoshop ist aktuell nur für nicht-kommerzielle Anwendungen freigegeben.
In den letzten Tagen habe ich verstärkt bewusst nur mit der Beta-Version gearbeitet und probiert, an welchen Stellen die KI mich bei der Arbeit unterstütze könnte. Okay, manchmal habe ich auch einfach nur rumgealbert und ausprobiert, ob die KI meine lustigen Ideen glaubhaft umsetzen könnte.
Schauen wir uns einige der Ergebnisse an:
Das männliche Model hat vergessen Bescheid zu geben, dass er sich seit dem Sedcard-Shooting verändert hat und taucht am Set mit einem Schnauzbart auf? Kein Problem, einfach markieren und weg ist der Bart.
Das Model trägt nur ein Hemd, soll aber wie die anderen Personen im Bild einen dunklen Anzug tragen? Oder einen roten? Oder ein T‑Shirt? Oder einen Neoprenanzug? Oder doch lieber eine Lederjacke? Auch hier kein Problem, den Körper markieren und in das Feld für die generative Füllung das gewünschte Kleidungsstück auswählen.
Im KI-Bild ist die Smartwatch am Handgelenk nur matschiger Brei? Dann halt mit der zweiten KI, also hier Firefly, ein passendes Display für die Uhr generieren.
Beim Gruppen-Businessfoto will der Kunde mehr Diversität im Bild haben? Einfach paar Köpfe im Hintergrund markieren und gegen andere austauschen.
Diesen Trick nenne ich „den Trotzki machen“: Eine Person auf dem Foto soll verschwinden, wie auf dem Lenin-Foto von Grigori Goldstein im Jahr 1920? Einfach markieren und auf „generative Füllung“ klicken. Wer ins Textfeld stattdessen eine andere Personenbeschreibung einfügt, kann die Person auch austauschen.
Ihr habt eine Aufnahme und wollt „rauszoomen“? Geht jetzt einfach, indem ihr die Leinwand vergrößert und den nun leeren Teil markiert und generativ füllen lasst. Der schwarze Rahmen dient hier als Markierung, alles außerhalb davon ist KI-generiert, innerhalb ist eine Drohnenaufnahme.
Die Karre vor eurer Haustür ist zu klein? Einfach markieren und zack, wird ein Panzer draus. Hier wird auch erkennbar, wie problematisch diese Technik für die Erstellung von „Fake News“ sein kann.
Das Generative Füllen funktioniert nicht nur mit Teilen vom Bild. Auch eine komplett leere Leinwand kann markiert und gefüllt werden, wie hier in meinem Beispiel mit einem Dschungel. Im nächsten Schritt habe ich den Dschungel mit etlichen Tieren bevölkert.
Erkenntnisse des Beta-Tests
Es ist leicht erkennbar, wie mächtig und nützlich das neue KI-Tool in Photoshop sein kann. Bei den meisten Fällen liefert die Generative Füllung ganze Arbeit. Nur bei einigen Prompts versteht Photoshop (bisher) einfach nicht, was gemeint ist. Beim obigen Beispiel, wo ich zuerst die Person entfernt und danach mit einer Frau ersetzt habe, wollte ich eigentlich „Batman“ sehen, aber da hat wohl ein interner „Intellectual Property“-Filter angeschlagen und das Ergebnis in eine andere Richtung gelenkt.
Mehrmals stieß ich aber auch bei meiner Meinung nach unverfänglichen Bearbeitungen auf die Fehlermeldung „Die erzeugten Bilder wurden entfernt, da sie gegen Benutzerrichtlinien verstoßen“ und Photoshop lieferte einfach keine oder weniger als drei Ergebnisse. Das passierte zum Beispiel manchmal, wenn ich schiefe, krumme Zähne von KI-Portraits markiert hatte und – ohne konkreten Prompt – schönere Zähne haben wollte. Aber auch, wenn ich Gebäudefassaden aufhübschen oder reparieren wollte, erhielt ich ab und zu Meldung, was nach einer Weile den Workflow unschön unterbrach.
Die KI in Photoshop liefert generell knackscharfe Ergebnisse, aber vor allem bei größeren Auflösungen kommt die KI manchmal an ihre Grenzen und die KI-Füllungen werden unscharf. Das liegt dann meist daran, dass der markierte Bereich größer als ein Megapixel (1024x1024 Pixel) ist. Bis zu dieser Größe arbeitet die KI bisher nativ, alles was größer ist, wird künstlich hochskaliert, was eben zur Unschärfe führen kann. Eine mögliche Abhilfe ist hier, bei großen Aufträgen die Fläche in kleinere Bereiche zu unterteilen und die „Generative Füllung“ mehrmals laufen zu lassen.
Die Vergütung der Urheber an den Trainingsdaten
Adobe wirbt damit, dass deren KI im Gegensatz zu gewissen anderen Anbietern rechtlich und ethisch „sauber“ sein soll, weil die Trainingsdaten alle legal genutzt worden seien.
Adobe beruft sich hier vor allem darauf, dass sie die Bilder aus ihrem Adobe Stock-Portfolio für Trainingszwecke verwendet haben. Das ist in den Nutzungsbedingungen für Adobe Stock-Anbieter vom 15. April 2022 geregelt, wo es plötzlich heißt:
„You grant us a non-exclusive, worldwide, perpetual, fully-paid, and royalty-free license to use, reproduce, publicly display, publicly perform, distribute, index, translate, and modify the Work for the purposes of operating the Website; presenting, distributing, marketing, promoting, and licensing the Work to users; developing new features and services; archiving the Work; and protecting the Work.“
(Hervorhebung durch mich)
Bezahlt wurden die Adobe Stock-Anbieter bisher für ihre Trainingsdaten noch nicht, was das „ethisch“ etwas grauer werden lässt. Zurecht sind daher einige Adobe Stock-Anbieter etwas sauer, dass sie weder bezahlt noch richtig gefragt wurden. Die Änderung der Nutzungsbedingungen geschah wie üblich ohne große Ankündigung oder gar Verweise auf geplante KI-Trainings.
Immerhin schreibt Adobe eher nebenbei auf Twitter, dass eine Kompensation der Urheber geplant sei, wenn die Firefly-KI die Betaphase verlasse:
Was habt ihr bisher mit dem Tool umsetzen können? Was ist eure Meinung zu dem Werkzeug? Schreibt es gerne in die Kommentare.
Seit einigen Monaten werde ich für Vorträge und Workshops gebucht, welche sich mit der Bilderstellung durch KI beschäftigen.
Da ich andererseits auch oft Anfragen bekomme, wann ich wo welche Veranstaltungen dazu gebe, gibt es hier eine Übersicht der bisherigen und auch kommenden Events zum Thema „Generative KI“.
30.03.2023: „DALL‑E, Midjourney und Co.: Sind künstlich erzeugte Bilder auf dem Bildermarkt handelbar?“ mit Sebastian Deubelli auf dem PICTAday 2023 in München (Nachbericht)
02.06.2023: „KI in der Berufsfotografie“ Praxis-Workshop zusammen mit Silke Güldner in Hamburg (ausgebucht!)
15.06.2023: „Ki in der Bilderwelt“ Webinar zusammen mit Fachanwalt Sebastian Deubelli beim Storyboard Salon
-kommende Events-
23.06.2023: „Einführung in die KI“ Vortrag auf dem PIC Workshop in Memmingen (ausgebucht!)
01.09.2023: „KI in der Berufsfotografie“ Praxis-Workshop zusammen mit Silke Güldner in Hamburg (ausgebucht!)
22.09.2023: „[KI-Vortrag, genauer Titel tba]“ Vortrag und Diskussionsrunde auf der Photopia in Hamburg
Willst Du auch tiefer in die Welt der generativen KI einzutauchen? Oder suchst du nach einem knackigen Vortrag, einem interaktiven Workshop oder einem informativen Webinar für deine eigene Veranstaltung? Ich würde mich freuen, dir dabei zu helfen! Mit meiner Erfahrung in diesem Bereich kann ich dir ein Programm zusammenstellen, das genau auf deine Interessen und Bedürfnisse zugeschnitten ist.
Auch für persönliche Coachings und Schulungen stehe ich zur Verfügung. Zusammen können wir das Potential und die Möglichkeiten der generativen KI entdecken und sie effektiv für deine Projekte nutzen. Mir ist wichtig, dass du das Gelernte auch praktisch anwenden kannst.
Melde dich einfach bei mir, um mehr Details zu besprechen oder einen Termin zu vereinbaren. Ich freue mich darauf, meine Begeisterung für generative KI mit dir zu teilen und dir dabei zu helfen, in diesem spannenden Feld noch weiter voranzukommen.
Auch der eilig angesetzte Zusatztermin war in wenigen Stunden ausgebucht, daher haben Silke Güldner und ich entschieden, dass wir noch einen weiteren Zusatztermin anbieten werden.
Im Juli 2021 hatte die Bildagentur Shutterstock angekündigt, auch KI-Datensätze anzubieten, mit denen kommerzielle Anbieter ihre KI-Tools trainieren können.
Im Oktober 2022 führte Shutterstock dann in Zusammenarbeit mit den Firmen OpenAI und LG selbst die Möglichkeit ein, dass Kunden KI-generierte Bilder auf deren Webseite erstellen und lizenzieren können.
Für solche KI-Nutzungen des Bildmaterials sollen die Anbieter entschädigt werden.
Shutterstock selbst schreibt dazu im oben verlinkten FAQ:
„Wir haben einen Shutterstock Anbieter-Fonds eingerichtet, der Shutterstock Anbieter direkt vergütet, wenn ihr geistiges Eigentum bei der Entwicklung von KI-generativen Modellen wie dem OpenAI-Modell verwendet wurde, indem Daten aus dem Shutterstock Archiv lizenziert werden. Darüber hinaus wird Shutterstock die Anbieter weiterhin für die zukünftige Lizenzierung von KI-generiertem Content über das Shutterstock AI-Content-Generierungstool vergüten. Die Einnahmen aus den OpenAI-Datensätzen, auch bekannt als Datendeals, werden im 4. Quartal 2022 veröffentlicht. […]
Dies ist eine neue Einnahmequelle für Anbieter, die über Downloads und die Lizenzierung einzelner Assets für kommerzielle oder redaktionelle Zwecke hinausgeht. Wir sind fest entschlossen, unsere Anbieter als Partner auf diesem Weg einzubeziehen und sicherzustellen, dass sie einen Anteil an den Erlösen aus Computer-Vision-Datensätzen (auch bekannt als Datendeals) und generativen KI-Modellen erhalten, wenn ihre Inhalte bei der Erstellung dieser Technologien verwendet werden. Angesichts des kollektiven Charakters dieses Produkts haben wir ein Vergütungsmodell für Umsatzbeteiligungen entwickelt. […]
Die Anbieter erhalten einen Anteil am gesamten Vertragswert, der von den Plattform-Partnern bezahlt wird. Der Anteil, den einzelne Anbieter erhalten, steht im Verhältnis zum Umfang ihrer Inhalte und Metadaten, die in den erworbenen Datensätzen enthalten sind. Obwohl die Aufnahme in Datensätze nicht wie andere einzelne Downloads in der Ergebnisübersicht berücksichtigt wird, wie die Einnahmen aus anderen E‑Commerce-Produkten, unterhält Shutterstock eine interne Datenbank aller Assets, die in allen Datensätzen verwendet werden, die seit der Einführung dieses Produkts erstellt wurden, sodass wir unsere Anbieter entsprechend vergüten können.
Anbieter, deren Inhalte zum Trainieren eines der Modelle verwendet wurden, werden für die Rolle, die ihr geistiges Eigentum bei der Entwicklung der ursprünglichen Modelle gespielt hat, sowie durch Lizenzgebührenzahlungen vergütet, die an zukünftige generative Lizenzierungsaktivitäten gebunden sind. Wenn Ihre Inhalte in beiden verwendet wurden, erhalten Sie eine Zahlung, die Sie für die Aufnahme Ihrer Inhalte in beide Datensätze (auch bekannt als Datendeals) vergütet, und Sie haben Zugang zu mehr zukünftigen Umsatzmöglichkeiten, da Sie Anspruch auf eine Vergütung aus unserem Anbieter-Fonds für zukünftige Lizenzierungsereignisse der generativen Content-Entwicklung aus beiden Modellen haben. […]“
Alle sechs Monate werden laut Shutterstock die gesammelten Einnahmen an die Fotografen ausgeschüttet und in der Umsatzübersicht im Bereich „Anbieterfonds“ (auf englisch „Contributor Funds“) angezeigt.
So ganz scheint das nicht zu stimmen, da ich erstmalig eine solche Auszahlung Ende Dezember 2022 erhalten hatte und nun – wie viele andere Fotografen auch – Anfang Mai 2023 noch mal. Aber vielleicht pendelt sich das noch ein.
Analyse der Anbieterfonds-Umsätze
Da das eine ganz neue Einnahmekategorie für Fotografen ist, habe ich in auf meiner Facebook-Seite darum gebeten, dass meine Leser*innen ihre Umsätze aus den Anbieterfonds sowie ihre Portfolio-Größe nennen, damit ich die Durchschnitts- und Maximalwerte berechnen kann.
Es haben sich mit mir 58 Leute beteiligt, was die Ergebnisse ganz aussagekräftig macht, wie ich finde. Hier die visuelle Darstellung:
Im Durchschnitt betrug die Portfolio-Größe der Teilnehmer*innen 6343 Bilder. Da der Durchschnitt durch einige extreme Werte schnell verzehrt werden kann, ist der Median in der Regel aussagekräftiger. Dieser betrug 2112 Bilder.
Der durchschnittliche Erlös aus den Anbieterfonds pro Bild lag gerundet bei 0,0078 USD/Bild. Der Median lag bei 0,0069 USD/Bild. Mein eigener Wert lag übrigens zwischen diesen beiden Werten.
Als spannende Fußnote: Der höchste Wert betrug 0,0378 USD/Bild (bei einem eher kleinen Portfolio mit 1480 Bildern).
Die gesamte Auszahlung pro Portfolio der Teilnehmer*innen lag durchschnittlich bei 45,97 USD, der Median bei 18,49 USD.
Hochrechnung auf das gesamte Shutterstock-Portfolio
Für das erste Quartal 2023 hat das börsennotierte Unternehmen Shutterstock 615 Mio. Bilder im Portfolio gemeldet.
Wenn wir nun grob den Median von 0,0069 USD pro Bild auf die 615 Mio. Bilder im gesamten Portfolio umrechnen, erhalten wir einen Wert von ca. 4,24 Mio. USD an Auszahlungen als Schätzung für die Anbieterfonds allein für die Mai-Auszahlung.
Angesichts des gemeldeten Umsatzes von über 215 Mio. USD sowie einem Nettogewinn von über 32 Mio. USD ist das durchaus ein Wert, der nicht so ins Gewicht fällt für Shutterstock.
Perspektive
Sind ca. zwei Drittel eines US-Cents pro Bild im Portfolio zwei Mal im Jahr ausreichend und fair, um die KI-Nutzung der eigenen Bilder ausreichend zu kompensieren? Ich lehne mich mal weit aus dem Fenster und behaupte: Nein.
Allein mein Einnahmeverlust bei Shutterstock im letzten Monat war höher als ein Jahres-KI-Anbieterfonds-Erlös bei Shutterstock, weshalb meine Zweifel groß sind, dass diese Beträge motivierend genug für die Fotograf*innen sind, um weiterhin qualitativ hochwertige Inhalte zu produzieren.