Schlagwort-Archive: Dall-E

Das Geheimnis hinter dem Hype-​Text2Video KI-​Generator Sora von OpenAI

Seit Tagen ist in der KI-​Welt kaum von etwas ande­rem die Rede als den beein­dru­cken­den Ergebnissen von Sora.

Sora ist der Name des kürz­lich hier vor­ge­stell­ten Text2Video-​Generators der Firma OpenAI, wel­che auch schon den Text2Bild-​Generator Dall‑E und das Text2Text-​Generator ChatGPT ver­öf­fent­licht hat.

Standbild aus einem Sora-​Video [Montage]

Mit Sora kön­nen durch simp­le Texteingaben hoch­auf­lö­sen­de Videos von bis zu einer Minute Länge gene­riert werden.

Einen Überblick über die Ergebnisse fin­det ihr hau­fen­wei­se, ent­we­der auf der Sora-​Seite direkt oder bei YouTube, zum Beispiel in die­sem Video:

Ki-​Videos, mit­tels Sora von OpenAI generiert

Auf der offi­zi­el­len Webseite wird lang und breit über die Sicherheit des Tools gere­det und ger­ne erwähnt, dass geplant sei, den C2PA-Metadaten-​Standard zur Erkennung von KI-​generierten Inhalten zu unter­stüt­zen. Auffällig ist aber, dass ande­re Informationen fehlen.

Das Geheimnis der Trainingsdaten

Auffällig ist, dass an kei­ner Stelle der Vorstellung von Sora dar­auf ein­ge­gan­gen wird, wie genau das KI-​Tool trai­niert wur­de. Welche Daten wur­den dafür verwendet?

Im tech­ni­schen Report fin­det sich nur der lapi­da­re Satz:
“[…] we train text-​conditional dif­fu­si­on models joint­ly on vide­os and images of varia­ble dura­ti­ons, reso­lu­ti­ons and aspect ratios.“

Ach? Ja, das war uns allen klar, aber wel­che Videos und Bilder habt ihr dafür nun genau benutzt?

In der Vergangenheit hat sich OpenAI nicht mit Ruhm bekle­ckert, wenn es um Rücksicht auf Urheberrechte bei Trainingsdaten ging.

Das „Opt-​Out“, um zu ver­hin­dern, dass Bilder für Dall‑E trai­niert wer­den, ist berüch­tigt und wur­de auch viel zu spät ein­ge­führt. Dall‑E 2 wur­de laut die­ser GitHub-​Seite unter ande­rem auch mit Hilfe des Vereins LAION e.V. trai­niert, wel­chen ich selbst gera­de wegen Urheberrechtsverletzung ver­kla­ge.

Auch beim zwei­ten Produkt von OpenAI, ChatGPT, liegt die Sache ähn­lich. OpenAI wird gera­de von der Zeitung New York Times ver­klagt, weil urhe­ber­recht­lich geschütz­te Trainingsdaten der Zeitung für das KI-​Training von ChatGPT benutzt wor­den seien.

Bei einer Zeugenanhörung von OpenAI durch das Oberhaus des bri­ti­schen Parlaments fiel sei­tens OpenAI auch der fol­gen­schwe­re Satz:

Because copy­right today covers vir­tual­ly every sort of human expression–including blog posts, pho­to­graphs, forum posts, scraps of soft­ware code, and govern­ment documents–it would be impos­si­ble to train today’s lea­ding AI models wit­hout using copy­righ­ted mate­ri­als. Limiting trai­ning data to public domain books and dra­wings crea­ted more than a cen­tu­ry ago might yield an inte­res­t­ing expe­ri­ment, but would not pro­vi­de AI sys­tems that meet the needs of today’s citizens“

Frei über­setzt: Ohne den Zugriff auf urhe­ber­recht­lich geschütz­te Trainingsdaten könn­ten wir unse­re Tools nicht anbieten.

Genau wegen die­sem bis­her schon bekann­ten rück­sichts­lo­sen Umgang mit Urheberrechten muss eine Frage viel lau­ter gestellt werden:

Welche Videos und Bilder wur­den für das Training der Sora-​KI verwendet?

Die Wahrscheinlichkeit ist sehr hoch, dass auch hier – ähn­lich wie beim Training von Dall‑E und ChatGPT urhe­ber­recht­lich geschütz­te Videos (und Bilder) zum Einsatz kamen.

Selbst Wasserzeichen in Videos sind für KI-​Entwickler schon lan­ge kein Hindernis mehr. Schon 2017 hat Google selbst eine Technik vor­ge­stellt, mit der Wasserzeichen aus Bildern ent­fernt wer­den können.

Auch der LAION-​Verein bie­tet auf GitHub ein kos­ten­lo­ses Tool für die „Wasserzeichen-​Erkennung“ an. Von der Erkennung zur Entfernung ist es für geüb­te Programmierer dann nur noch ein klei­ner Schritt, über den aus recht­li­chen Gründen nicht so ger­ne öffent­lich gere­det wird.
Manchmal aber doch:

Aus dem #video-​generation Kanal des Discord-​Servers von LAION
Aus dem #video-​generation Kanal des Discord-​Servers von LAION

Bei LAION wird zwar an einem eige­nen Text2Video-​Generator namens phena­ki gear­bei­tet, die tech­ni­schen Details des Trainings sind denen von Sora aber sehr ähn­lich, soweit ich das beur­tei­len kann.

Die Wahrscheinlichkeit, dass OpenAI daher mit der glei­chen Rücksichtslosigkeit wie LAION gegen­über Urhebern beim KI-​Training vor­geht, hal­te ich für hoch, zumal die bis­he­ri­gen Aussagen und Handlungen von OpenAI lei­der nicht geeig­net sind, Zweifel zu zerstreuen.

Beim gan­zen Hype vom SORA und dem Staunen über die tol­len Ergebnisse soll­te nicht ver­ges­sen wer­den zu fra­gen, wel­che (Video-)Künstler beim Training betei­ligt waren.

DALL- E, Midjourney und Co.: Sind künstlich erzeugte Bilder auf dem Bildermarkt handelbar? Vortrag mit Sebastian Deubelli auf dem PICTAday am 30.03.2023

Am Donnerstag, den 30.03.2023 fin­det der dies­jäh­ri­ge PICTAday in der Alten Kongresshalle in München statt von 10–18 Uhr.

Der PICTAday ist eine ein­mal jähr­lich statt­fin­den­de Networking-​Veranstaltung des renom­mier­ten Branchenverbandes BVPA und fei­ert die­ses Jahr sein 20-​jähriges Bestehen.

Beim PICTAday kön­nen sich Bildagenturen und Dienstleister den Bildeinkäufern prä­sen­tie­ren und letz­te­re sich über Neuigkeiten in der Agenturlandschaft und dem Bildermarkt infor­mie­ren. Der Eintritt ist für Bildeinkäufer kostenfrei.

Auf dem PICTAday fin­den auch die PICTAtalks statt, wo namen­haf­te Branchenexperten neue Impulse zu aktu­el­len Entwicklungen der Bilderbranche und einen Einblick in ihre täg­li­che Arbeit geben.

Von 15–15:45 Uhr wer­de ich dort zusam­men mit dem Fachanwalt für Urheber- und Medienrecht, Sebastian Deubelli von der SLD Intellectual Property Rechtsanwaltsgesellschaft über das Thema „DALL- E, Midjourney und Co.: Sind künst­lich erzeug­te Bilder auf dem Bildermarkt han­del­bar?“ dis­ku­tie­ren:

Die Qualität von künst­lich erzeug­ten Bildern wird bes­ser und bes­ser und stellt längst kein Hindernis für deren all­täg­li­chen Einsatz dar. Aus recht­li­cher Sicht ist vie­les aller­dings noch unklar. Der Talk beschäf­tigt sich ins­be­son­de­re mit der Frage, ob die recht­li­che Unklarheit dem gewohn­ten Handel mit Bildlizenzen im Weg steht und wel­che recht­li­chen aber auch prak­ti­schen Vorkehrungen hier getrof­fen wer­den sollten.“

Der PICTAday ist eine groß­ar­ti­ge Gelegenheit, um sich über die neu­es­ten Entwicklungen auf dem Bildermarkt zu infor­mie­ren, wert­vol­le Kontakte zu knüp­fen und an den hoch­ka­rä­ti­gen Vorträgen teilzunehmen. 

Wir freu­en uns auf eine span­nen­de Diskussion und hof­fen, euch am 30. März 2023 auf dem PICTAday in München zu tref­fen! Weitere Informationen zur Veranstaltung und zur Anmeldung sowie das Anmeldeformular fin­det ihr auf der Webseite des PICTAday.

Shutterstock verbietet Upload von KI-​Bildern und will gleichzeitig selbst KI-​Bilder anbieten

Meine geplan­ten Artikel zu den neus­ten KI-​Entwicklungen sind noch nicht mal fer­tig, da plat­zen stän­dig auf­re­gen­de Neuigkeiten her­ein. Die Nachricht vom 25.10.2022 von Shutterstock kann ich hier aber nicht igno­rie­ren, da sie einen wil­den Mix von Konsequenzen nach sich zieht, den ich hier ver­mut­lich nur ansatz­wei­se beleuch­ten kann.

Aber ver­su­chen wir es der Reihe nach: Shutterstock hat vor weni­gen Tagen die­se Pressemitteilung ver­öf­fent­licht, in der die Firma die Partnerschaft mit dem Unternehmen OpenAI ver­kün­det, wel­che hin­ter dem KI-​Tool DALL‑E ste­cken. Hinter OpenAI ste­cken übri­gens u.a. Elon Musk als Gründer und Microsoft als Investor.

Bild von DALL‑E 2 gene­riert mit der Beschreibung „A tor­na­do made of cash hit­ting a govern­ment building“

Zeitgleich gab es eine Rundmail an alle Shutterstock-​Anbieter, in der zusätz­lich zur obi­gen Information eine eben­so wich­ti­ge wei­te­re Nachricht steck­te: Shutterstock will kei­ne KI-​generierten Inhalte mehr auf ihrem Marktplatz anbie­ten, mit der Begründung, dass „die Urheberschaft nicht einer ein­zel­nen Person zuge­ord­net wer­den kann, wie es für die Lizenzierung von Rechten erfor­der­lich ist“.

Oder hier im Hilfebereich von Shutterstock noch aus­führ­li­cher begrün­det: „KI-​generierte Inhalte dür­fen nicht auf Shutterstock hoch­ge­la­den wer­den, da KI-​Inhaltsgenerierungsmodelle das geis­ti­ge Eigentum vie­ler Künstler und ihrer Inhalte nut­zen, was bedeu­tet, dass das Eigentum an KI-​generierten Inhalten nicht einer Einzelperson zuge­wie­sen wer­den kann und statt­des­sen alle Künstler ent­schä­digt wer­den müs­sen, die an der Erstellung jedes neu­en Inhalts betei­ligt waren“.

Diese Kombination von Aussagen wirft so vie­le Fragen auf, dass ich gar nicht weiß, wo ich anfan­gen soll.

Gehen wir mal in der Zeit etwas zurück: Shutterstock koope­riert schon seit 2021 mit der Firma OpenAI, indem OpenAI Shutterstock-​Bilder lizen­ziert hat, um das Tool DALL‑E zu trai­nie­ren. Der CEO von OpenAI, Sam Altman, sagt dazu in der Pressemitteilung:

Die Daten, die wir von Shutterstock lizen­ziert haben, waren ent­schei­dend für das Training von DALL‑E. Wir freu­en uns, dass Shutterstock sei­nen Kunden die DALL-​E-​Bilder als eine der ers­ten Anwendungen über unse­re API zur Verfügung stellt, und wir freu­en uns auf künf­ti­ge Kooperationen, wenn künst­li­che Intelligenz ein inte­gra­ler Bestandteil der krea­ti­ven Arbeitsabläufe von Künstlern wird.“

In weni­gen Monaten sol­len Shutterstock-​Kunden in der Lage sein, mit Hilfe von OpenAI direkt auf der Shutterstock-​Webseite durch Texteingabe Bilder selbst gene­rie­ren zu können.

Im Gegenzug dafür sol­len die Shutterstock-​Anbieter für die Rolle, die ihre Inhalte bei der Entwicklung die­ser Technologie gespielt haben, ent­schä­digt werden.

Die ers­te Frage hier ist doch: Wurden die Shutterstock-​Anbieter auch für die Trainingsdaten, die seit 2021 von OpenAI lizen­ziert wur­den, entschädigt?

Die zwei­te Frage ist: Haben die Künstler, auf deren Eigentum Shutterstock angeb­lich so viel Wert lege, damals über­haupt zuge­stimmt, dass ihre Bilder für Trainingszwecke genutzt wer­den dürfen?

Die drit­te Frage ist logi­scher­wei­se: Wie vie­le Bruchteile von US-​Cents sol­len die Anbieter als „Entschädigung“ erhal­ten?

Ich könn­te jetzt eine Weile mit sol­chen Fragen wei­ter­ma­chen, aber betrach­ten wir erst mal ande­re Perspektiven.

Die Kunden-​Sicht

Aus Kundensicht erschließt sich nicht sofort, war­um sie KI-​Bilder bei Shutterstock – sehr ver­mut­lich gegen Geld – gene­rie­ren soll­ten, wenn sie es bei OpenAI auch kos­ten­los machen kön­nen. Jeden Monat gibt es bei DALL‑E 2 kos­ten­los 15 Credits für je Bilderstellungen (1 Credit pro Bild), 115 wei­te­re Credits kos­ten dann 15 USD, also ca. 13 US-​Cent pro Bild.

Es könn­te auch sein, dass Shutterstock die­sen Preis noch mal unter­bie­ten will.

Darüber hin­aus gibt es aber gänz­lich kos­ten­lo­se KI-​Tools wie Stable Diffusion (und pas­sen­de GUIs), mit der Nutzer ihre Bilder kom­plett gra­tis erstel­len können.

Der Vorteil wäre maxi­mal, wenn Kunden mit Shutterstock eine Firma haben, die für even­tu­el­le (recht­li­che?) Probleme haf­ten könn­te. Ansonsten spe­ku­liert Shutterstock viel­leicht dar­auf, dass es genug Bestandskunden gibt, wel­che sich nicht die Mühe machen (wol­len), sich bei einer Plattform wie Dall‑E 2 zu regis­trie­ren, um dort die Gratis-​KI-​Bilder zu nutzen.

Die Agentur-​Sicht

Aus Sicht von Shutterstock ist es natür­lich cle­ver: Warum soll­ten sie die­se ner­vi­gen Bildlieferanten bezah­len müs­sen, wenn sie den Kunden auch ohne den Umweg über die Fotografen Bilder ver­kau­fen können?

Das geht natür­lich nur, wenn gleich­zei­tig den Anbietern ver­bo­ten wird, KI-​generierte Bilder selbst zum Verkauf anzu­bie­ten, denn immer­hin will das ja die Agentur über­neh­men. Warum die angeb­li­chen recht­li­chen Risiken, wel­che als Grund für das Upload-​Verbot vor­ge­scho­ben wer­den, plötz­lich nicht mehr gege­ben sind, wenn Shutterstock die KI-​Bilder gene­riert, erschließt sich nicht ganz. Dazu spä­ter mehr.

Das Verbot ist augen­schein­lich vor allem dazu da, um mehr Kunden zur agen­tur­ei­ge­nen KI-​Generierung zu bewegen.

Zwar hat Shutterstock schon „Entschädigungen“ für die Shutterstock-​Künstler ange­bo­ten, deren Werke zum Training der KI benutzt wer­den, aber machen wir uns nichts vor: Das wer­den pro Bild maxi­mal etli­che Stellen hin­ter dem Komma sein und auch in der Summe deut­lich weni­ger sein als die Verluste, wel­che die Anbieter erlei­den wer­den, weil Kunden kei­ne Bilder aus dem Portfolio kau­fen, son­dern sich wel­che gene­rie­ren las­sen und die Fotografen auch selbst kei­ne KI-​Bilder ver­kau­fen dürfen.

Zur Erinnerung: Als Getty Images 2013 einen Deal mit Pinterest mach­te, um die Getty-​Fotografen für deren Bildnutzungen auf Pinterest zu ent­schä­di­gen, erhiel­ten die­se zum Beispiel 0,00062 USD für das „welt­wei­te Recht, Metadaten ihres Bildes auf Pinterest anzu­zei­gen und zu nut­zen“, wäh­rend Getty selbst sich immer­hin noch 0,00411 USD in die Tasche steck­te. Anders gerech­net: Bei 1000 Bildnutzungen waren das für den Fotografen 62 Cent und für Getty Images aber 4,11 USD.

Die Konkurrenz ist zudem groß: Auch Microsoft will DALL‑E in deren Suchmaschine Bing inte­grie­ren und hat eine neue App namens „Designer“, die Produkt- oder Firmennamen und die dazu pas­sen­den Bilder oder Logos gene­rie­ren kön­nen soll.

Bild von Stable Diffusion gene­riert mit der Beschreibung „A tor­na­do made of cash hit­ting a govern­ment building“

Die Anbieter-​Sicht

Für Shutterstock-​Anbieter sind die­se Nachrichten aus­nahms­los schlecht. Die „Entschädigung“ ist ein arm­se­li­ges Feigenblatt, hin­ter dem Shutterstock die Marginalisierung ihrer Lieferanten ver­steckt. In der Pressemitteilung wird stän­dig von „Ethik“ und „Verantwortung“ gere­det, aber damit ist nicht die Rücksicht auf die Anbieter gemeint, son­dern auf die der Shutterstock-Aktionäre.

Shutterstock hat halt end­lich einen Weg gefun­den, die läs­ti­gen 20% Fotografen-​Kommissionen auch noch los­zu­wer­den, um es lapi­dar zu formulieren.

Die genann­te „Entschädigung“ soll aus einem „Contributor Fund“ kom­men und alle sechs Monate aus­ge­zahlt wer­den. Als Einnahmen dafür sol­len sowohl die Lizenzgebühren für die KI-​Inhalte als auch Einnahmen aus Datenverkäufen gezählt wer­den. Der Anteil für die Anbieter soll pro­por­tio­nal sein zum Volumen ihrer Inhalte in den Datensätzen.

Wie das kon­trol­liert oder über­prüft wer­den soll, ist auch völ­lig schlei­er­haft und ver­mut­lich unmög­lich ohne die Offenlegung des kom­plet­ten Datensatzes.

Wenn Shutterstock und Getty Images kei­ne KI-​Bilder haben wol­len, wird es aber wei­ter­hin genug ande­re Agenturen geben, wel­che die­se mit Kusshand anneh­men. Es drän­gen jetzt schon die ers­ten Bildagenturen auf den Markt wie StockAI, wel­che nur KI-​Bilder anbie­ten und die­se natür­lich auch gene­rie­ren können.

Die Künstler-​Sicht

In der o.g. Pressemitteilung heißt es zum Schluss:

Und in einem wich­ti­gen Bestreben, die IP-​Rechte sei­ner Künstler, Fotografen und Schöpfer zu schüt­zen, ist Shutterstock wei­ter­hin füh­rend in der Entwicklung von Richtlinien und Verfahren und setzt Methoden ein, um sicher­zu­stel­len, dass Nutzungsrechte und ord­nungs­ge­mä­ße Lizenzen für alle vor­ge­stell­ten Inhalte – ein­schließ­lich KI-​generierter Inhalte – gesi­chert sind.“

DALL‑E wur­de mit über 12 Milliarden Text/​Bild-​Kombinationen trai­niert, wäh­rend Shutterstock gera­de mal 424 Millionen Bilder online hat. Das heißt im Umkehrschluss, der größ­te Teil des Trainings wur­den mit Bildern von Künstlern gemacht, die nicht bei Shutterstock sind. Das gan­ze Gerede vom „Schützen von IP-​Rechten“ bezieht sich aber nur auf die Shutterstock-​Anbieter, der gro­ße Rest kann zuse­hen, wie für die KI-​Trainings „ent­schä­digt“ wird.

Das zeigt auch gut die Heuchelei von Shutterstock. Angeblich weil bei KI-​Inhalten alle Künstler ent­schä­digt wer­den müss­ten, dür­fen Anbieter kei­ne KI-​Inhalte hoch­la­den, aber wenn Shutterstock selbst via API einen Zugang zu OpenAI’s DALL‑E anbie­tet, wer­den eben­falls nicht alle Künstler entschädigt.

Die rechtliche Sicht

Ist die Entschädigung von Künstlern, deren Werke für das KI-​Training benutzt wur­den, recht­lich gese­hen über­haupt not­wen­dig? Ich weiß es ehr­lich gesagt nicht. Einige mei­nen, das sei eine klas­si­sche „fair use“-Nutzung, ande­re sehen es nicht so.

Mal ange­nom­men, recht­lich wäre eine Entschädigung nicht not­wen­dig: Dann fal­len Shutterstocks Argumente, war­um sie kei­ne KI-​Bilder anneh­men wol­len, in sich zusammen.

Wenn eine Entschädigung recht­lich aber doch not­wen­dig wäre: Dann ist voll­kom­men unbe­greif­lich, war­um sich die­se ers­tens nur auf Shutterstock-​Künstler beschrän­ken soll­te (und nicht z.B. auf Künstler wie Greg Rutkowski) und zwei­tens war­um die­se nicht statt­fin­det, wenn Bilder direkt bei DALL‑E gene­riert wer­den statt über deren API zu Shutterstock.

Es ist also so oder so ein gro­ßes unlo­gi­sches Konstrukt, wel­ches sich am bes­ten dadurch erklärt, dass es Shutterstock eben nicht um die Belange der Künstler, son­dern nur um den eige­nen Profit geht.

Spannend auch, dass der Getty Images-CEO Craig Peters KI-​Bilder u.a. des­halb in sei­ner Agentur ver­bie­tet, weil sie recht­li­che Probleme für die Kunden mit sich brin­gen könn­ten. Warum das anders sein soll, wenn Shutterstock Kunden KI-​Bilder gene­rie­ren lässt, ist ein gro­ßes Rätsel.

Eine mög­li­che Lösung wäre, dass die OpenAI-​KI aus­schließ­lich auf Shutterstock-​Bildern trai­niert wur­de, für die sowohl Shutterstock die Einwilligung aller Rechteinhaber zum Training hat­te als auch OpenAI die­se Rechte lizen­ziert habe. In den aktu­el­len Shutterstock-​AGB von 2020 steht bei­spiels­wei­se, dass Shutterstock das Recht zur Bildanalyse unter­li­zen­zie­ren darf. Aber selbst wenn OpenAI jedes ein­zel­ne Bild aus der Shutterstock-​Datenbank lizen­ziert habe, wür­de das bei ver­mut­lich wei­tem nicht aus­rei­chen, um als allei­ni­ge Datenbasis für das KI-​Training zu dienen.

Aber viel­leicht lie­ge ich damit auch falsch und es ist sogar ein Vorteil, weil die Shutterstock-​Bilder alle eine hohe Auflösung haben und im Vergleich zu ande­ren Bildern meist recht gut ver­schlag­wor­tet sind.

Auch die EU hat im Blick, dass die Künstliche Intelligenz gefähr­lich sein könn­te und arbei­tet an einer „KI-​Verordnung“. Ob sol­che Verordnungen aber den aktu­el­len Graubereich der Legalität von urhe­ber­recht­lich geschütz­ten Werken für KI-​Trainingszwecke regu­lie­ren wer­den, bleibt abzuwarten.

Bild von Midjourney gene­riert mit der Beschreibung „A tor­na­do made of cash hit­ting a govern­ment building“

Die politische Sicht

Shutterstock wur­de 2019 von den eige­nen Mitarbeitern kri­ti­siert, dass die Agentur in China Suchbegriffe wie „Flagge Taiwans“, „Diktator“, „Präsident Xi“ oder „Regenschirm“ gesperrt habe.

Sehr span­nend ist hier jetzt die Frage, ob die­se Begriffe dann auch bei der KI-​Generierung in China gesperrt sein wer­den oder nicht.

Auch ande­re Begriffe, zum Beispiel sexu­el­ler oder gewalt­ver­herr­li­chen­der Natur, könn­ten gesperrt wer­den, um sich weni­ger Haftungsfragen aus­set­zen zu müssen.

Die technische Sicht

Viele der genann­ten Tools sind aktu­ell noch im Beta-​Stadium und sie ent­wi­ckeln sie unglaub­lich rasant. Es ist ver­mut­lich nur eine Frage der Zeit, bis Methoden wie das In- und Outpainting von DALL‑E 2 auch in Grafikprogramm wie Adobe Photoshop Einzug hal­ten wer­den oder es WordPress-Plugins geben wird, wel­che auf Knopfdruck zum Artikeltext pas­sen­de Bilder generieren.

Auch das Trainieren der KI zum Generieren vom eige­nen Gesicht (oder das von Kundengesichtern) ist jetzt schon mög­lich und wird bald sicher noch ein­fa­cher mach­bar sein.

Was noch?

Ganz wil­de Zeiten also mit viel Unsicherheit, Abwehrreaktionen eta­blier­ter Künstler, recht­li­chen Grauzonen, dem Zusammenbruch bestehen­der und Aufbau neu­er Geschäftsmodelle und mit­ten­drin Bildagenturen, Fotografen und KI-Anbieter.

Es gibt noch etli­che Aspekte, die hier nicht unter­ge­bracht wer­den konn­te, das kommt bestimmt bald in einem wei­te­ren Artikel. 

Was denkt ihr darüber?

Künstliche Intelligenz in der Stockfotografie – Vorträge auf der Photopia 2022 vom 13.–16.10.2022 in Hamburg

Fotorealistische Bilder durch die Eingabe eini­ger Wörter auf Knopfdruck erstel­len? Das ist heut­zu­ta­ge mit­tels Künstlicher Intelligenz und Tools wie Dall‑E, Stable Diffusion, Nightcafe und ande­ren Anbietern pro­blem­los möglich.

Für pro­fes­sio­nel­le Fotografen, Illustratoren und Designer wirft das sehr grund­le­gen­de Fragen auf. Ist die neue Technik ein Bedrohung oder eine Bereicherung? Vielleicht beides?

Auf der dies­jäh­ri­gen Photopia, dem vier­tä­gi­gen „Festival of Imaging“ in Hamburg vom 13. bis 16.10.2022 dreht sich alles um das Thema Fotografie, Bildbearbeitung und Technik. Die neus­ten Entwicklungen wie KI-​Bilderstellung dür­fen da natür­lich nicht fehlen.

In der dazu­ge­hö­ri­gen „Creative Content Conference“ gibt es an drei Tagen (14.–16.10.2022) etli­che Vorträge zur Fotografie, dar­un­ter auch zum Thema KI: Ich wer­de am Sonntag, den 16.10.2022 um 16:30 Uhr im Gespräch mit der kwerfeldein-​Redakteurin Katja Kemnitz im Vortrag „Ist die KI der Tod der Stockfotografie?“ die Möglichkeiten und Grenzen der neu­en Technik ausloten.

Zwei Stunden vor­her schon am glei­chen Tag gibt es den Vortrag „KI: Warum DALL E2 und Co. Totengräber der Fotografie sind und uns für die Leichenfledderei begeis­tern“ von Boris Eldagsen, Fotokünstler und „Head of Digital“ der Deutschen Fotografischen Akademie.

Wer Interesse an einem Besuch der Veranstaltung hat, fin­det hier auf deren Webseite alle Informationen.

Ich freue mich auf eure rege Teilnahme.