Archiv der Kategorie: Künstliche Intelligenz

Adobe Stock schüttet Einnahmen aus Dataset-​Trainings an Anbieter aus

Seit eini­gen Monaten sind die beein­dru­cken­den Ergebnisse der Adobe-​eigenen gene­ra­ti­ven KI „Firefly“ als Beta-​Test zu sehen. Entweder auf der eige­nen Webseite oder direkt inte­griert in der Beta-​Version von Adobe Photoshop.

Adobe hat immer betont, dass deren KI-​Training legal, ethisch und mora­lisch sau­ber ablie­fe (und damit indi­rekt andeu­te­te, dass das nicht bei allen Anbietern der Fall sei).

Dafür wur­den eher still­schwei­gend die Nutzungsbedingungen von Adobe Stock im März 2023 geän­dert (mehr dazu hier), ein Opt-​Out war somit nicht mög­lich, wenn Künstler wei­ter­hin ihre Werke bei Adobe Stock anbie­ten wollten.

Hand zählt Münzen (KI-​generiert, gepromp­tet von Robert Kneschke)

Ein gewich­ti­ger Kritikpunkt der Künstler war bis­her, dass Adobe sich noch nicht dazu geäu­ßert hat, wie die Anbieter für deren Datennutzung hono­riert wer­den, mit der die Adobe-​KI zum Lernen gefüt­tert wurde.

Es hieß nur, es wer­de an einem Kompensationsmodell gear­bei­tet, des­sen Details ver­öf­fent­licht wer­den, sobald Firefly die Beta-​Phase been­det hat.

Das ist nun der Fall. Adobe Firefly ist nicht mehr in der Beta-​Phase und damit kön­nen die Ergebnisse nun auch kom­mer­zi­ell genutzt (und zu Adobe Stock hoch­ge­la­den) wer­den. Die Bilder ent­hal­ten auch kein sicht­ba­res Adobe-​Wasserzeichen mehr. 

Parallel dazu ver­öf­fent­lich­te Adobe die­sen Blogartikel, in dem das Vergütungsmodell namens „Firefly-​Bonusvergütungsplan“ vor­ge­stellt wird. Die ers­te Auszahlung an die Fotografen ist schon im Nutzer-​Backend von Adobe Stock sicht­bar. Der Betrag taucht unter „Einnahmen“ am 13.09.2023 auf, aber nicht unter „Downloads“ oder „Aktivitäten“.

Im Discord-​Server von Adobe Stock haben Nutzer von Beträgen von fast 2.500 USD berich­tet.

Wie wurde die Vergütung berechnet?

Hier ist Adobe lei­der etwas nebu­lös. In die­sem Hilfe-​Artikel wird die Vergütung genau­er erklärt.
Der Bonus basiert auf der Gesamtzahl der geneh­mig­ten Bilder, die bei Adobe Stock ein­ge­reicht wur­den, sowie der Anzahl der Lizenzen, die die­se Bilder in den 12 Monaten zwi­schen dem 3. Juni 2022 und dem 2. Juni 2023 gene­riert haben.

Damit scheint es, dass Adobe kei­ne zwin­gen­de Beziehung zwi­schen der Bonuszahlung und dem KI-​Training her­stellt, son­dern haupt­säch­lich Portfoliogröße und Umsatz als Faktoren berücksichtigt.

Interessant ist, dass des­halb auch eini­ge rei­ne KI-​Portfolios eine Vergütung erhal­ten haben, obwohl Adobe ver­mut­lich kein Interesse dar­an hat, KI-​Bilder für KI-​Trainings zu ver­wen­den, weil dadurch nach­weis­lich die KI-​Qualität leidet.

Geplant sind even­tu­ell auch künf­ti­ge Bonuszahlungen, die sich dann aber nur auf neu ein­ge­reich­te Werke und Verkäufe stüt­zen sol­len und deren Berechnung sich Adobe offen hält.

Auch andere Bildagenturen wollen kompensieren

Fast zeit­gleich kam auch die Meldung, dass eine „ethi­sche KI-​Bilder Initiative“ namens „The Fair Diffusion Program“ gegrün­det wur­de, wel­che sich eben­falls die fai­re Bezahlung der Urheber an den KI-​Trainingsdaten auf die Fahnen geschrie­ben hat.

Mit dabei sind unter ande­rem die Bildagenturen Alamy, Getty Images und Envato. In einem Blogpost schrieb Alamy, dass die Teilnahme der Fotografen unter deren „Novel Use“ sche­me (auf­find­bar im Nutzerbereich unter „Additional reve­nue opti­ons“) fal­le. Wer also die „Novel use“ bei Alamy akti­viert hat, des­sen Bilder wer­den für KI-​Trainings verwendet.

Wie hoch oder nied­rig die Vergütung genau ist und wie Getty Images und Envato die Teilnahme der Fotografen hand­ha­ben, ist noch unklar.

Ein Schritt in die richtige Richtung

Die Zahlungen von Adobe Stock, Shutterstock, Alamy und ande­ren Bildagenturen zei­gen, dass es mit etwas gutem Willen tat­säch­lich mög­lich ist, Urheber für ihre Beteiligung an den KI-​Trainingsdaten zu entlohnen.

Damit wird die Luft dün­ner für ande­re Anbieter wie den von mir ver­klag­ten LAION e.V., wel­che der Ansicht sind, sich urhe­ber­recht­lich geschütz­te Werke für KI-​Trainings unge­fragt und unent­gelt­lich aus dem Internet holen zu dürfen.

Leider ver­zich­tet Adobe aus­drück­lich dar­auf, auch eine Opt-​Out-Möglichkeit anzu­bie­ten.

Was sagt ihr zu dem Bonus?
Wie viel habt ihr erhalten?

Meine KI-​Vorträge auf der PHOTOPIA 2023 und kommende KI-Workshops

Konferenzen und Messen ver­su­chen in der Regel, aktu­el­le Trends und Entwicklungen abzu­bil­den, damit die Besucher*innen wert­vol­le Informationen und Einsichten für ihr (nicht nur Fotografie-)Business mit­neh­men können.

Nach dem Ende der Photokina in Köln arbei­tet die PHOTOPIA in Hamburg seit eini­gen Jahren dar­an, immer mehr zu einem gleich­wer­ti­gen Ersatz zu werden.

Ganz groß steht das Thema „Künstliche Intelligenz“ die­ses Jahr vom 21.–24. September 2023 auf der Photopia im Fokus mit einem eige­nen „AI Center“ und hau­fen­wei­se hoch­ka­rä­ti­gen und span­nen­den Experten-​Vorträgen und ‑Diskussionsrunden.

Ich habe die Ehre, an gleich zwei Events auf deren Creative Content Conference dabei sein zu dürfen:

Am Freitag, den 22. September 2023 von 14:30 bis 15:30 Uhr hal­te ich im Konferenzbereich der Halle A1 mei­nen Vortrag „Vom Fotografen zum KI-​Prompter“. Dabei bli­cke ich auf über ein Jahr inten­si­ver KI-​Nutzung zurück und tei­le wert­vol­le Erfahrungen zum Einsatz von KI-Tools.

Ebenfalls am Freitag, den 22. September 2023 bin ich spä­ter dann ab 17 Uhr an glei­cher Stelle Gast bei der DiskussionsrundeQ&A – Mensch oder Maschine: Wie sieht die Fotoproduktion von mor­gen aus?“ Neben mir spre­chen dort Claudia Bußjaeger, Sandramaria Schweda aka Tweda und Peter Hytrek über die viel­fäl­ti­gen Herausforderungen, vor die KI-​generierte Bilder die pro­fes­sio­nel­le Fotografie stellen.

Wer sich für die Teilnahme an der Konferenz und den Vorträgen inter­es­siert, fin­det hier die voll­stän­di­ge Programmübersicht.

Kommende Ki-​Workshops

Am 01. September 2023 schon fin­det zusam­men mit Fotografie-​Coach Silke Güldner unse­rer zwei­ter Praxis-​Workshop zur „KI in der Berufsfotografie“ in Hamburg statt (schon aus­ge­bucht!).

Ebenfalls in Hamburg gibt am 25. Oktober 2023 den drit­ten Praxis-​Workshop „KI in der Berufsfotografie“ zusam­men mit Silke Güldner. Dafür sind noch weni­ge Plätze frei.

Weitere Workshops, Vorträge und Webinare sind in Vorbereitung. Solltest Du auch Interesse dar­an haben, mich für eine Veranstaltung zu buchen, kannst Du mich hier kon­tak­tie­ren.

Ich freue mich schon auf euren Besuch und rege Diskussionen!

Instagram-​Account automatisiert mittels KI betreiben (ein Selbstexperiment)

Mein Instagram-​Account @rkneschke besteht seit über zehn Jahren, aber bis­her habe ich ihn eher stief­müt­ter­lich behandelt.

Zu sehen gab es dort auch fast nie Auszüge mei­ner pro­fes­sio­nel­len Arbeit, son­dern eher Bilder, die pri­vat enstan­den sind, ein Sammelsurium aus abs­trak­tem Minimalismus, Food, Landschaften, Konzertfotos und Drohnenaufnahmen (bis ich die­se geschrot­tet habe).

Aktueller Screenshot von mei­nem Instagram-Account

Seit ich mich vor einem Jahr stark auf die Bilderstellung mit­tels gene­ra­ti­ver KI fokus­siert habe, stand die Frage im Raum, ob die­se beein­dru­cken­den KI-​Bilder sich eig­nen wür­den, um damit – mehr oder weni­ger auto­ma­ti­siert – Social-​Media-​Accounts zu betreiben.

Da mein Instagram-​Kanal sowie­so nur spo­ra­disch gefüllt wur­de von mir, habe ich vor drei Monaten ein Experiment gestartet.

Der Aufbau vom Instagram-KI-Experiment

Ich habe mei­nen Instagram-​Kanal seit dem 16.4.2023 aus­schließ­lich mit kom­plett KI-​generierten Inhalten gefüllt. Das Ganze soll­te mög­lichst zeit­spa­rend von­stat­ten gehen, mein Ablauf war daher:

  1. Die Text-​KI ChatGPT nach einem Haufen tren­di­ger Instagram-​Motive fragen.
  2. Diese Motive auto­ma­ti­siert per Bild-​KI Midjourney in Bilder umwan­deln lassen.
  3. Die schöns­ten Bilder raus­su­chen und unbe­ar­bei­tet zu Instagram hochladen.
  4. Die Bildbeschreibung und Hashtags auto­ma­ti­siert durch ChatGPT gene­rie­ren las­sen basie­rend auf der Bildbeschreibung, die in Schritt 1 gene­riert wurde.
  5. Optional: Um noch mehr Zeit zu spa­ren, ab und zu eini­ge Instagram-​Beiträge im Voraus mit der Instagram-​App pla­nen.

Alle KI-​Bilder wur­den in den Hashtags und der Bildbeschreibung als sol­che ausgewiesen.

Das Ziel vom Experiment

Ich woll­te mit dem Experiment tes­ten, was mit mei­nem Instagram-​Account pas­siert, wenn ich die­sen kom­plett auf KI-​basierte Bilder umstelle.

  • Werde ich Follower gewin­nen oder verlieren?
  • Wird sich mei­ne Reichweite erhö­hen oder verringern?
  • Spare ich Zeit mit die­ser Art der Content-Erstellung?
  • Wie reagie­ren mei­ne bis­he­ri­gen Follower?

Die Ergebnisse in Zahlen

Das Wichtigste zuerst. Wie ihr an der Übersicht in den Instagram-​Insights sehen könnt, lie­gen alle Messwerte im grü­nen Bereich.

Begonnen habe ich das Experiment Mitte April 2023 mit 1216 Followern, aktu­ell lie­ge ich bei 1227, das ent­spricht einem Plus von 0,9%. Nicht viel, aber immer­hin kein Verlust.

Ich konn­te 634% mehr Konten errei­chen und 478% mehr Konten haben mit mei­nem Kanal inter­agiert. Dazu muss ich jedoch fai­rer­wei­se sagen, dass ich im Vergleichszeitraum der drei Monate vor­her (also Januar bis April 2023) nur ein Bild gepos­tet hat­te, die­se Werte also viel höher als nor­mal ausfallen.

Wie ihr am obi­gen Diagramm sehen könnt, ist auch die Zahl der Nicht-​Follower rela­tiv hoch, auf jeden Fall deut­lich höher als vor dem Experiment. Das liegt ver­mut­lich dar­an, dass ich durch die vie­len neu­en ver­schie­de­nen Motive auch ganz unter­schied­li­che Hashtags anbrin­gen konn­te, die außer­halb mei­ner „Instagram-​Follower-​Bubble“ lagen.

Was jedoch auf jeden Fall stark gefal­len ist, ist die Zeit, die ich zur Erstellung eines Posts benö­tig­te. In den 10 Jahren zuvor, habe ich ca. 55 Bilder pro Jahr hoch­ge­la­den, also gut ein Bild pro Woche. Im Experimentzeitraum habe ich allein fast 60 Bilder hoch­ge­la­den, also ca. 5 pro Woche.

Die Kommentare zu den Bildern waren gemischt. Einige posi­tiv, eini­ge kri­tisch, aber ins­ge­samt alles im Rahmen. Ich ver­mu­te, dass die radi­ka­len KI-​Gegner schnell ihr Abo gekün­digt haben, dafür jedoch eini­ge neue Fans dazu gekom­men sind.

Wer an der genaue­ren Entwicklung des Kanals inter­es­siert ist, kann sich die Statistiken hier bei Social Blade anschauen:

Persönliche Anmerkungen und Fazit

Ich hat­te ehr­lich gesagt schlim­me­re Ergebnisse befürch­tet und dach­te, dass viel­leicht vie­le mei­ner Fans, die eher aus dem Fotografie-​Lager kom­men, ange­sichts die­ser KI-​Bilder-​Flut frus­triert sind und davonlaufen.

Das hat sich zum Glück nicht bewahr­hei­tet und die leich­ten Verluste konn­ten durch neue KI-​Fans mehr als aus­ge­gli­chen werden.

Insgesamt ist das Experiment natür­lich wis­sen­schaft­lich gese­hen kaum halt­bar, da zum Beispiel der Vergleichszeitraum vor­her nicht reprä­sen­ta­tiv ist. Da hat­te ich fast nichts gepos­tet, wes­halb die Engagement-​Rate logi­scher­wei­se auf einem sehr nied­ri­gen Level lag.

Auch die Bildauswahl ist eher zufäl­lig. Ich habe vie­le atem­be­rau­ben­de Naturbilder, eini­ge Menschenbilder und nied­li­che Tiermotive gepos­tet. Alles quer durch den Gemüsegarten. Vermutlich ist das für den Aufbau einer spe­zi­el­len Zielgruppe eher unpas­send, aber da ich auch vor­her eher moti­visch gese­hen Querbeet unter­wegs war, passt das hier.

Interessant fand ich die Möglichkeit, mit­tels neu­er Motive und die ent­spre­chen­den Hashtags ganz ande­re Zielgruppen anspre­chen zu kön­nen, wel­che mir bis­her noch nicht folgen.

Das ist sicher für Accounts, wel­che pro­fes­sio­nel­le Ziele ver­fol­gen und ihre Reichweite erhö­hen wol­len, ein sehr span­nen­der Aspekt.

Beeindruckend war und ist aber auch das Zusammenspiel von ChatGPT und Midjourney, wel­ches die Zeit für die Content-​Erstellung stark redu­ziert hat, was natür­lich die Motivation erhöht, über­haupt mehr zu posten.

Wie geht es weiter?

Ich wer­de auf mei­nem Instagram-​Kanal wei­ter KI-​Inhalte pos­ten. Ob ich inhalt­lich mich mehr auf bestimm­te Motive kon­zen­trie­re oder ein­fach die Bilder zei­ge, die mir gefal­len, muss ich noch ent­schei­den. Wer es direkt wis­sen will, folgt bit­te am bes­ten ein­fach mei­nem Instagram-​Account @rkneschke hier.

In der Zwischenzeit habe ich heu­te für mein Seitenprojekt „www.eis-machen.de“ eben­falls einen Instagram-​Account gestar­tet. Unter @eiscremeparty wer­de ich nur KI-​Bilder zum Thema Eiscreme pos­ten. Wer dar­an Interesse hat, kann dem Kanal eben­falls ger­ne folgen.

Was sagt ihr?
Was könn­te ich noch testen?

Generatives Füllen in Adobe Photoshop – Erste Erfahrungen mit der Beta

Seit eini­gen Wochen gibt es in der Beta-​Version von Adobe Photoshop die Möglichkeit, den neu­en „Generative Füllung“-Befehl aus­zu­pro­bie­ren. Das ist qua­si die Integration der Adobe Firefly-KI direkt als Tool in Photoshop, mit der ihr belie­bi­ge Elemente direkt in eure Bilder gene­rie­ren las­sen könnt – durch künst­li­che Intelligenz.

In den letz­ten Wochen habe ich eini­ge Beispiele der neu­en KI-​Fähigkeiten auf mei­ner Facebook-​Seite gezeigt (also folgt mir dort, falls ihr schnel­ler infor­miert wer­den wollt), aber je mehr ich die Funktion nut­ze, des­to mehr bekam ich das Gefühl, dass ich damit den neu­en Möglichkeiten nicht gerecht würde.

Deshalb will ich heu­te eini­ge mei­ner Experimente im Blog vor­stel­len, damit ihr eine Ahnung davon bekommt, was alles – nicht in Zukunft – son­dern ab sofort in Photoshop mög­lich ist.

Was ist der „Generative Fill“-Befehl in Photoshop?

Seit der neus­ten Photoshop-​Version wer­den je nach Werkzeug und Aktion im Bild häu­fig genutz­te Befehle in einer Shortcut-​Leiste ein­ge­blen­det. Wenn eine Markierung, also so eine gestri­chel­te Linie, aktiv ist, ist der ers­te Befehl in der Beta-​Version von Photoshop der „Generative Fill“.

Wer dar­auf klickt, kann ent­we­der Text in ein Bedienfeld ein­tip­pen oder ein­fach direkt auf „Generieren“ kli­cken. Wer Text ein­gibt, gibt damit den „Prompt“ an (ver­gleich­bar mit der Texteingabe bei KI-​Tools wie Midjourney, Stable Diffusion oder Dall‑E 2), wel­chen die KI zu einem Bildinhalt umwan­deln soll. Wer dar­auf ver­zich­tet, gibt der KI freie Hand bei der Motivauswahl und die KI ver­sucht dann, den mar­kier­ten Bereich so zu fül­len, dass er sich naht­los ins vor­han­de­ne Bild einpasst.

Damit han­delt die KI qua­si wie beim Befehl „Inhaltsbasiertes Füllen“, nur in deut­lich bes­se­rer Qualität und mit dem Unterschied, dass die Füllung nicht aus dem bestehen­den Bild genom­men wird, son­dern aus den Trainingsdaten der KI. Das hat den Vorteil, dass deut­lich grö­ße­re Bereiche gefüllt wer­den kön­nen und kei­ne unna­tür­li­chen Wiederholungsmuster ent­ste­hen, wie das beim „inhalt­ba­sier­ten Füllen“ manch­mal der Fall war.

Möglichkeiten in der Beta-Version

Die Adobe-​eigene KI „Firefly“ befin­det sich aktu­ell in der Betaphase zum Testen für die nicht-​kommerzielle Nutzung und auch das „Generative Füllen“ in der Beta-​Version von Photoshop ist aktu­ell nur für nicht-​kommerzielle Anwendungen freigegeben.

In den letz­ten Tagen habe ich ver­stärkt bewusst nur mit der Beta-​Version gear­bei­tet und pro­biert, an wel­chen Stellen die KI mich bei der Arbeit unter­stüt­ze könn­te. Okay, manch­mal habe ich auch ein­fach nur rum­ge­al­bert und aus­pro­biert, ob die KI mei­ne lus­ti­gen Ideen glaub­haft umset­zen könnte.

Schauen wir uns eini­ge der Ergebnisse an:

Das männ­li­che Model hat ver­ges­sen Bescheid zu geben, dass er sich seit dem Sedcard-​Shooting ver­än­dert hat und taucht am Set mit einem Schnauzbart auf? Kein Problem, ein­fach mar­kie­ren und weg ist der Bart.

Das Model trägt nur ein Hemd, soll aber wie die ande­ren Personen im Bild einen dunk­len Anzug tra­gen? Oder einen roten? Oder ein T‑Shirt? Oder einen Neoprenanzug? Oder doch lie­ber eine Lederjacke?
Auch hier kein Problem, den Körper mar­kie­ren und in das Feld für die gene­ra­ti­ve Füllung das gewünsch­te Kleidungsstück auswählen.

Im KI-​Bild ist die Smartwatch am Handgelenk nur mat­schi­ger Brei? Dann halt mit der zwei­ten KI, also hier Firefly, ein pas­sen­des Display für die Uhr generieren.

Beim Gruppen-​Businessfoto will der Kunde mehr Diversität im Bild haben? Einfach paar Köpfe im Hintergrund mar­kie­ren und gegen ande­re austauschen.

Diesen Trick nen­ne ich „den Trotzki machen“: Eine Person auf dem Foto soll ver­schwin­den, wie auf dem Lenin-​Foto von Grigori Goldstein im Jahr 1920? Einfach mar­kie­ren und auf „gene­ra­ti­ve Füllung“ kli­cken. Wer ins Textfeld statt­des­sen eine ande­re Personenbeschreibung ein­fügt, kann die Person auch austauschen.

Ihr habt eine Aufnahme und wollt „raus­zoo­men“? Geht jetzt ein­fach, indem ihr die Leinwand ver­grö­ßert und den nun lee­ren Teil mar­kiert und gene­ra­tiv fül­len lasst. Der schwar­ze Rahmen dient hier als Markierung, alles außer­halb davon ist KI-​generiert, inner­halb ist eine Drohnenaufnahme.

Aerial view of rural land­scape in Ellenberg, Germany in summer

Die Karre vor eurer Haustür ist zu klein? Einfach mar­kie­ren und zack, wird ein Panzer draus.
Hier wird auch erkenn­bar, wie pro­ble­ma­tisch die­se Technik für die Erstellung von „Fake News“ sein kann.

Das Generative Füllen funk­tio­niert nicht nur mit Teilen vom Bild. Auch eine kom­plett lee­re Leinwand kann mar­kiert und gefüllt wer­den, wie hier in mei­nem Beispiel mit einem Dschungel. Im nächs­ten Schritt habe ich den Dschungel mit etli­chen Tieren bevölkert.

Erkenntnisse des Beta-Tests

Es ist leicht erkenn­bar, wie mäch­tig und nütz­lich das neue KI-​Tool in Photoshop sein kann. Bei den meis­ten Fällen lie­fert die Generative Füllung gan­ze Arbeit. Nur bei eini­gen Prompts ver­steht Photoshop (bis­her) ein­fach nicht, was gemeint ist. Beim obi­gen Beispiel, wo ich zuerst die Person ent­fernt und danach mit einer Frau ersetzt habe, woll­te ich eigent­lich „Batman“ sehen, aber da hat wohl ein inter­ner „Intellectual Property“-Filter ange­schla­gen und das Ergebnis in eine ande­re Richtung gelenkt.

Mehrmals stieß ich aber auch bei mei­ner Meinung nach unver­fäng­li­chen Bearbeitungen auf die Fehlermeldung „Die erzeug­ten Bilder wur­den ent­fernt, da sie gegen Benutzerrichtlinien ver­sto­ßen“ und Photoshop lie­fer­te ein­fach kei­ne oder weni­ger als drei Ergebnisse. Das pas­sier­te zum Beispiel manch­mal, wenn ich schie­fe, krum­me Zähne von KI-​Portraits mar­kiert hat­te und – ohne kon­kre­ten Prompt – schö­ne­re Zähne haben woll­te. Aber auch, wenn ich Gebäudefassaden auf­hüb­schen oder repa­rie­ren woll­te, erhielt ich ab und zu Meldung, was nach einer Weile den Workflow unschön unterbrach.

Die KI in Photoshop lie­fert gene­rell knack­schar­fe Ergebnisse, aber vor allem bei grö­ße­ren Auflösungen kommt die KI manch­mal an ihre Grenzen und die KI-​Füllungen wer­den unscharf. Das liegt dann meist dar­an, dass der mar­kier­te Bereich grö­ßer als ein Megapixel (1024x1024 Pixel) ist. Bis zu die­ser Größe arbei­tet die KI bis­her nativ, alles was grö­ßer ist, wird künst­lich hoch­ska­liert, was eben zur Unschärfe füh­ren kann. Eine mög­li­che Abhilfe ist hier, bei gro­ßen Aufträgen die Fläche in klei­ne­re Bereiche zu unter­tei­len und die „Generative Füllung“ mehr­mals lau­fen zu lassen.

Die Vergütung der Urheber an den Trainingsdaten

Adobe wirbt damit, dass deren KI im Gegensatz zu gewis­sen ande­ren Anbietern recht­lich und ethisch „sau­ber“ sein soll, weil die Trainingsdaten alle legal genutzt wor­den seien.

Adobe beruft sich hier vor allem dar­auf, dass sie die Bilder aus ihrem Adobe Stock-​Portfolio für Trainingszwecke ver­wen­det haben. Das ist in den Nutzungsbedingungen für Adobe Stock-​Anbieter vom 15. April 2022 gere­gelt, wo es plötz­lich heißt: 

You grant us a non-​exclusive, world­wi­de, per­pe­tu­al, fully-​paid, and royalty-​free licen­se to use, repro­du­ce, publicly dis­play, publicly per­form, dis­tri­bu­te, index, trans­la­te, and modi­fy the Work for the pur­po­ses of ope­ra­ting the Website; pre­sen­ting, dis­tri­bu­ting, mar­ke­ting, pro­mo­ting, and licen­sing the Work to users; deve­lo­ping new fea­tures and ser­vices; archi­ving the Work; and pro­tec­ting the Work.“

(Hervorhebung durch mich)

Bezahlt wur­den die Adobe Stock-​Anbieter bis­her für ihre Trainingsdaten noch nicht, was das „ethisch“ etwas grau­er wer­den lässt. Zurecht sind daher eini­ge Adobe Stock-​Anbieter etwas sau­er, dass sie weder bezahlt noch rich­tig gefragt wur­den. Die Änderung der Nutzungsbedingungen geschah wie üblich ohne gro­ße Ankündigung oder gar Verweise auf geplan­te KI-Trainings.

Immerhin schreibt Adobe eher neben­bei auf Twitter, dass eine Kompensation der Urheber geplant sei, wenn die Firefly-​KI die Betaphase verlasse:

Was habt ihr bis­her mit dem Tool umset­zen kön­nen?
Was ist eure Meinung zu dem Werkzeug?
Schreibt es ger­ne in die Kommentare.

Übersicht: Meine Vorträge und Workshops zum Thema „Künstliche Intelligenz“

Seit eini­gen Monaten wer­de ich für Vorträge und Workshops gebucht, wel­che sich mit der Bilderstellung durch KI beschäftigen.

Da ich ande­rer­seits auch oft Anfragen bekom­me, wann ich wo wel­che Veranstaltungen dazu gebe, gibt es hier eine Übersicht der bis­he­ri­gen und auch kom­men­den Events zum Thema „Generative KI“.

Ki-​Vortrag, mit KI generiert

-ver­gan­ge­ne Events-

  • 16.10.2022: Gespräch mit der kwerfeldein-​Redakteurin Katja Kemnitz im Vortrag „Ist die KI der Tod der Stockfotografie? auf der Photopia in Hamburg
  • 30.03.2023: „DALL‑E, Midjourney und Co.: Sind künst­lich erzeug­te Bilder auf dem Bildermarkt han­del­bar?“ mit Sebastian Deubelli auf dem PICTAday 2023 in München (Nachbericht)
  • 02.06.2023: „KI in der Berufsfotografie“ Praxis-​Workshop zusam­men mit Silke Güldner in Hamburg (aus­ge­bucht!)
  • 15.06.2023: „Ki in der Bilderwelt“ Webinar zusam­men mit Fachanwalt Sebastian Deubelli beim Storyboard Salon

-kom­men­de Events-

  • 23.06.2023: „Einführung in die KI“ Vortrag auf dem PIC Workshop in Memmingen (aus­ge­bucht!)
  • 01.09.2023: „KI in der Berufsfotografie“ Praxis-​Workshop zusam­men mit Silke Güldner in Hamburg (aus­ge­bucht!)
  • 22.09.2023: „[KI-​Vortrag, genau­er Titel tba]“ Vortrag und Diskussionsrunde auf der Photopia in Hamburg
  • 25.10.2023: „KI in der Berufsfotografie“ Praxis-​Workshop zusam­men mit Silke Güldner in Hamburg

Willst Du auch tie­fer in die Welt der gene­ra­ti­ven KI ein­zu­tau­chen?
Oder suchst du nach einem kna­cki­gen Vortrag, einem inter­ak­ti­ven Workshop oder einem infor­ma­ti­ven Webinar für dei­ne eige­ne Veranstaltung? Ich wür­de mich freu­en, dir dabei zu hel­fen! Mit mei­ner Erfahrung in die­sem Bereich kann ich dir ein Programm zusam­men­stel­len, das genau auf dei­ne Interessen und Bedürfnisse zuge­schnit­ten ist.

Auch für per­sön­li­che Coachings und Schulungen ste­he ich zur Verfügung. Zusammen kön­nen wir das Potential und die Möglichkeiten der gene­ra­ti­ven KI ent­de­cken und sie effek­tiv für dei­ne Projekte nut­zen. Mir ist wich­tig, dass du das Gelernte auch prak­tisch anwen­den kannst.

Melde dich ein­fach bei mir, um mehr Details zu bespre­chen oder einen Termin zu ver­ein­ba­ren. Ich freue mich dar­auf, mei­ne Begeisterung für gene­ra­ti­ve KI mit dir zu tei­len und dir dabei zu hel­fen, in die­sem span­nen­den Feld noch wei­ter voranzukommen.