Konferenzen und Messen versuchen in der Regel, aktuelle Trends und Entwicklungen abzubilden, damit die Besucher*innen wertvolle Informationen und Einsichten für ihr (nicht nur Fotografie-)Business mitnehmen können.
Nach dem Ende der Photokina in Köln arbeitet die PHOTOPIA in Hamburg seit einigen Jahren daran, immer mehr zu einem gleichwertigen Ersatz zu werden.
Ganz groß steht das Thema „Künstliche Intelligenz“ dieses Jahr vom 21.–24. September 2023 auf der Photopia im Fokus mit einem eigenen „AI Center“ und haufenweise hochkarätigen und spannenden Experten-Vorträgen und ‑Diskussionsrunden.
Ich habe die Ehre, an gleich zwei Events auf deren Creative Content Conference dabei sein zu dürfen:
Am Freitag, den 22. September 2023 von 14:30 bis 15:30 Uhr halte ich im Konferenzbereich der Halle A1 meinen Vortrag „Vom Fotografen zum KI-Prompter“. Dabei blicke ich auf über ein Jahr intensiver KI-Nutzung zurück und teile wertvolle Erfahrungen zum Einsatz von KI-Tools.
Ebenfalls am Freitag, den 22. September 2023 bin ich später dann ab 17 Uhr an gleicher Stelle Gast bei der Diskussionsrunde „Q&A – Mensch oder Maschine: Wie sieht die Fotoproduktion von morgen aus?“ Neben mir sprechen dort Claudia Bußjaeger, Sandramaria Schweda aka Tweda und Peter Hytrek über die vielfältigen Herausforderungen, vor die KI-generierte Bilder die professionelle Fotografie stellen.
Am 01. September 2023 schon findet zusammen mit Fotografie-Coach Silke Güldner unserer zweiter Praxis-Workshop zur „KI in der Berufsfotografie“ in Hamburg statt (schon ausgebucht!).
Ebenfalls in Hamburg gibt am 25. Oktober 2023 den dritten Praxis-Workshop „KI in der Berufsfotografie“ zusammen mit Silke Güldner. Dafür sind noch wenige Plätze frei.
Weitere Workshops, Vorträge und Webinare sind in Vorbereitung. Solltest Du auch Interesse daran haben, mich für eine Veranstaltung zu buchen, kannst Du mich hier kontaktieren.
Ich freue mich schon auf euren Besuch und rege Diskussionen!
Mein Instagram-Account@rkneschke besteht seit über zehn Jahren, aber bisher habe ich ihn eher stiefmütterlich behandelt.
Zu sehen gab es dort auch fast nie Auszüge meiner professionellen Arbeit, sondern eher Bilder, die privat enstanden sind, ein Sammelsurium aus abstraktem Minimalismus, Food, Landschaften, Konzertfotos und Drohnenaufnahmen (bis ich diese geschrottet habe).
Aktueller Screenshot von meinem Instagram-Account
Seit ich mich vor einem Jahr stark auf die Bilderstellung mittels generativer KI fokussiert habe, stand die Frage im Raum, ob diese beeindruckenden KI-Bilder sich eignen würden, um damit – mehr oder weniger automatisiert – Social-Media-Accounts zu betreiben.
Da mein Instagram-Kanal sowieso nur sporadisch gefüllt wurde von mir, habe ich vor drei Monaten ein Experiment gestartet.
Der Aufbau vom Instagram-KI-Experiment
Ich habe meinen Instagram-Kanal seit dem 16.4.2023 ausschließlich mit komplett KI-generierten Inhalten gefüllt. Das Ganze sollte möglichst zeitsparend vonstatten gehen, mein Ablauf war daher:
Die Text-KI ChatGPT nach einem Haufen trendiger Instagram-Motive fragen.
Diese Motive automatisiert per Bild-KI Midjourney in Bilder umwandeln lassen.
Die schönsten Bilder raussuchen und unbearbeitet zu Instagram hochladen.
Die Bildbeschreibung und Hashtags automatisiert durch ChatGPT generieren lassen basierend auf der Bildbeschreibung, die in Schritt 1 generiert wurde.
Optional: Um noch mehr Zeit zu sparen, ab und zu einige Instagram-Beiträge im Voraus mit der Instagram-App planen.
Alle KI-Bilder wurden in den Hashtags und der Bildbeschreibung als solche ausgewiesen.
Das Ziel vom Experiment
Ich wollte mit dem Experiment testen, was mit meinem Instagram-Account passiert, wenn ich diesen komplett auf KI-basierte Bilder umstelle.
Werde ich Follower gewinnen oder verlieren?
Wird sich meine Reichweite erhöhen oder verringern?
Spare ich Zeit mit dieser Art der Content-Erstellung?
Wie reagieren meine bisherigen Follower?
Die Ergebnisse in Zahlen
Das Wichtigste zuerst. Wie ihr an der Übersicht in den Instagram-Insights sehen könnt, liegen alle Messwerte im grünen Bereich.
Begonnen habe ich das Experiment Mitte April 2023 mit 1216 Followern, aktuell liege ich bei 1227, das entspricht einem Plus von 0,9%. Nicht viel, aber immerhin kein Verlust.
Ich konnte 634% mehr Konten erreichen und 478% mehr Konten haben mit meinem Kanal interagiert. Dazu muss ich jedoch fairerweise sagen, dass ich im Vergleichszeitraum der drei Monate vorher (also Januar bis April 2023) nur ein Bild gepostet hatte, diese Werte also viel höher als normal ausfallen.
Wie ihr am obigen Diagramm sehen könnt, ist auch die Zahl der Nicht-Follower relativ hoch, auf jeden Fall deutlich höher als vor dem Experiment. Das liegt vermutlich daran, dass ich durch die vielen neuen verschiedenen Motive auch ganz unterschiedliche Hashtags anbringen konnte, die außerhalb meiner „Instagram-Follower-Bubble“ lagen.
Was jedoch auf jeden Fall stark gefallen ist, ist die Zeit, die ich zur Erstellung eines Posts benötigte. In den 10 Jahren zuvor, habe ich ca. 55 Bilder pro Jahr hochgeladen, also gut ein Bild pro Woche. Im Experimentzeitraum habe ich allein fast 60 Bilder hochgeladen, also ca. 5 pro Woche.
Die Kommentare zu den Bildern waren gemischt. Einige positiv, einige kritisch, aber insgesamt alles im Rahmen. Ich vermute, dass die radikalen KI-Gegner schnell ihr Abo gekündigt haben, dafür jedoch einige neue Fans dazu gekommen sind.
Wer an der genaueren Entwicklung des Kanals interessiert ist, kann sich die Statistiken hier bei Social Blade anschauen:
Persönliche Anmerkungen und Fazit
Ich hatte ehrlich gesagt schlimmere Ergebnisse befürchtet und dachte, dass vielleicht viele meiner Fans, die eher aus dem Fotografie-Lager kommen, angesichts dieser KI-Bilder-Flut frustriert sind und davonlaufen.
Das hat sich zum Glück nicht bewahrheitet und die leichten Verluste konnten durch neue KI-Fans mehr als ausgeglichen werden.
Insgesamt ist das Experiment natürlich wissenschaftlich gesehen kaum haltbar, da zum Beispiel der Vergleichszeitraum vorher nicht repräsentativ ist. Da hatte ich fast nichts gepostet, weshalb die Engagement-Rate logischerweise auf einem sehr niedrigen Level lag.
Auch die Bildauswahl ist eher zufällig. Ich habe viele atemberaubende Naturbilder, einige Menschenbilder und niedliche Tiermotive gepostet. Alles quer durch den Gemüsegarten. Vermutlich ist das für den Aufbau einer speziellen Zielgruppe eher unpassend, aber da ich auch vorher eher motivisch gesehen Querbeet unterwegs war, passt das hier.
Interessant fand ich die Möglichkeit, mittels neuer Motive und die entsprechenden Hashtags ganz andere Zielgruppen ansprechen zu können, welche mir bisher noch nicht folgen.
Das ist sicher für Accounts, welche professionelle Ziele verfolgen und ihre Reichweite erhöhen wollen, ein sehr spannender Aspekt.
Beeindruckend war und ist aber auch das Zusammenspiel von ChatGPT und Midjourney, welches die Zeit für die Content-Erstellung stark reduziert hat, was natürlich die Motivation erhöht, überhaupt mehr zu posten.
Wie geht es weiter?
Ich werde auf meinem Instagram-Kanal weiter KI-Inhalte posten. Ob ich inhaltlich mich mehr auf bestimmte Motive konzentriere oder einfach die Bilder zeige, die mir gefallen, muss ich noch entscheiden. Wer es direkt wissen will, folgt bitte am besten einfach meinem Instagram-Account @rkneschke hier.
In der Zwischenzeit habe ich heute für mein Seitenprojekt „www.eis-machen.de“ ebenfalls einen Instagram-Account gestartet. Unter @eiscremeparty werde ich nur KI-Bilder zum Thema Eiscreme posten. Wer daran Interesse hat, kann dem Kanal ebenfalls gerne folgen.
Seit über einem Jahr wird gefühlt in unserer Branche kaum noch über etwas anderes als über Künstliche Intelligenz (KI) geredet. Da passt es bestens, dass auch die neuste Podcast-Folge nach so langer Funkstille sich direkt diesem heißen Thema widmet.
Zu Gast habe ich diesmal Claudia Bußjaeger, welche die – vielleicht sogar erste – Repräsentanz für KI-Künstler namens yesweprompt ins Leben gerufen hat.
Was das genau ist, was sie vorher gemacht hat und über vieles mehr reden wir in der heutigen Folge vom „Podcast eines Fotoproduzenten“:
Seit einigen Wochen gibt es in der Beta-Version von Adobe Photoshop die Möglichkeit, den neuen „Generative Füllung“-Befehl auszuprobieren. Das ist quasi die Integration der Adobe Firefly-KI direkt als Tool in Photoshop, mit der ihr beliebige Elemente direkt in eure Bilder generieren lassen könnt – durch künstliche Intelligenz.
In den letzten Wochen habe ich einige Beispiele der neuen KI-Fähigkeiten auf meiner Facebook-Seite gezeigt (also folgt mir dort, falls ihr schneller informiert werden wollt), aber je mehr ich die Funktion nutze, desto mehr bekam ich das Gefühl, dass ich damit den neuen Möglichkeiten nicht gerecht würde.
Deshalb will ich heute einige meiner Experimente im Blog vorstellen, damit ihr eine Ahnung davon bekommt, was alles – nicht in Zukunft – sondern ab sofort in Photoshop möglich ist.
Was ist der „Generative Fill“-Befehl in Photoshop?
Seit der neusten Photoshop-Version werden je nach Werkzeug und Aktion im Bild häufig genutzte Befehle in einer Shortcut-Leiste eingeblendet. Wenn eine Markierung, also so eine gestrichelte Linie, aktiv ist, ist der erste Befehl in der Beta-Version von Photoshop der „Generative Fill“.
Wer darauf klickt, kann entweder Text in ein Bedienfeld eintippen oder einfach direkt auf „Generieren“ klicken. Wer Text eingibt, gibt damit den „Prompt“ an (vergleichbar mit der Texteingabe bei KI-Tools wie Midjourney, Stable Diffusion oder Dall‑E 2), welchen die KI zu einem Bildinhalt umwandeln soll. Wer darauf verzichtet, gibt der KI freie Hand bei der Motivauswahl und die KI versucht dann, den markierten Bereich so zu füllen, dass er sich nahtlos ins vorhandene Bild einpasst.
Damit handelt die KI quasi wie beim Befehl „Inhaltsbasiertes Füllen“, nur in deutlich besserer Qualität und mit dem Unterschied, dass die Füllung nicht aus dem bestehenden Bild genommen wird, sondern aus den Trainingsdaten der KI. Das hat den Vorteil, dass deutlich größere Bereiche gefüllt werden können und keine unnatürlichen Wiederholungsmuster entstehen, wie das beim „inhaltbasierten Füllen“ manchmal der Fall war.
Möglichkeiten in der Beta-Version
Die Adobe-eigene KI „Firefly“ befindet sich aktuell in der Betaphase zum Testen für die nicht-kommerzielle Nutzung und auch das „Generative Füllen“ in der Beta-Version von Photoshop ist aktuell nur für nicht-kommerzielle Anwendungen freigegeben.
In den letzten Tagen habe ich verstärkt bewusst nur mit der Beta-Version gearbeitet und probiert, an welchen Stellen die KI mich bei der Arbeit unterstütze könnte. Okay, manchmal habe ich auch einfach nur rumgealbert und ausprobiert, ob die KI meine lustigen Ideen glaubhaft umsetzen könnte.
Schauen wir uns einige der Ergebnisse an:
Das männliche Model hat vergessen Bescheid zu geben, dass er sich seit dem Sedcard-Shooting verändert hat und taucht am Set mit einem Schnauzbart auf? Kein Problem, einfach markieren und weg ist der Bart.
Das Model trägt nur ein Hemd, soll aber wie die anderen Personen im Bild einen dunklen Anzug tragen? Oder einen roten? Oder ein T‑Shirt? Oder einen Neoprenanzug? Oder doch lieber eine Lederjacke? Auch hier kein Problem, den Körper markieren und in das Feld für die generative Füllung das gewünschte Kleidungsstück auswählen.
Im KI-Bild ist die Smartwatch am Handgelenk nur matschiger Brei? Dann halt mit der zweiten KI, also hier Firefly, ein passendes Display für die Uhr generieren.
Beim Gruppen-Businessfoto will der Kunde mehr Diversität im Bild haben? Einfach paar Köpfe im Hintergrund markieren und gegen andere austauschen.
Diesen Trick nenne ich „den Trotzki machen“: Eine Person auf dem Foto soll verschwinden, wie auf dem Lenin-Foto von Grigori Goldstein im Jahr 1920? Einfach markieren und auf „generative Füllung“ klicken. Wer ins Textfeld stattdessen eine andere Personenbeschreibung einfügt, kann die Person auch austauschen.
Ihr habt eine Aufnahme und wollt „rauszoomen“? Geht jetzt einfach, indem ihr die Leinwand vergrößert und den nun leeren Teil markiert und generativ füllen lasst. Der schwarze Rahmen dient hier als Markierung, alles außerhalb davon ist KI-generiert, innerhalb ist eine Drohnenaufnahme.
Aerial view of rural landscape in Ellenberg, Germany in summer
Die Karre vor eurer Haustür ist zu klein? Einfach markieren und zack, wird ein Panzer draus. Hier wird auch erkennbar, wie problematisch diese Technik für die Erstellung von „Fake News“ sein kann.
Das Generative Füllen funktioniert nicht nur mit Teilen vom Bild. Auch eine komplett leere Leinwand kann markiert und gefüllt werden, wie hier in meinem Beispiel mit einem Dschungel. Im nächsten Schritt habe ich den Dschungel mit etlichen Tieren bevölkert.
Erkenntnisse des Beta-Tests
Es ist leicht erkennbar, wie mächtig und nützlich das neue KI-Tool in Photoshop sein kann. Bei den meisten Fällen liefert die Generative Füllung ganze Arbeit. Nur bei einigen Prompts versteht Photoshop (bisher) einfach nicht, was gemeint ist. Beim obigen Beispiel, wo ich zuerst die Person entfernt und danach mit einer Frau ersetzt habe, wollte ich eigentlich „Batman“ sehen, aber da hat wohl ein interner „Intellectual Property“-Filter angeschlagen und das Ergebnis in eine andere Richtung gelenkt.
Mehrmals stieß ich aber auch bei meiner Meinung nach unverfänglichen Bearbeitungen auf die Fehlermeldung „Die erzeugten Bilder wurden entfernt, da sie gegen Benutzerrichtlinien verstoßen“ und Photoshop lieferte einfach keine oder weniger als drei Ergebnisse. Das passierte zum Beispiel manchmal, wenn ich schiefe, krumme Zähne von KI-Portraits markiert hatte und – ohne konkreten Prompt – schönere Zähne haben wollte. Aber auch, wenn ich Gebäudefassaden aufhübschen oder reparieren wollte, erhielt ich ab und zu Meldung, was nach einer Weile den Workflow unschön unterbrach.
Die KI in Photoshop liefert generell knackscharfe Ergebnisse, aber vor allem bei größeren Auflösungen kommt die KI manchmal an ihre Grenzen und die KI-Füllungen werden unscharf. Das liegt dann meist daran, dass der markierte Bereich größer als ein Megapixel (1024x1024 Pixel) ist. Bis zu dieser Größe arbeitet die KI bisher nativ, alles was größer ist, wird künstlich hochskaliert, was eben zur Unschärfe führen kann. Eine mögliche Abhilfe ist hier, bei großen Aufträgen die Fläche in kleinere Bereiche zu unterteilen und die „Generative Füllung“ mehrmals laufen zu lassen.
Die Vergütung der Urheber an den Trainingsdaten
Adobe wirbt damit, dass deren KI im Gegensatz zu gewissen anderen Anbietern rechtlich und ethisch „sauber“ sein soll, weil die Trainingsdaten alle legal genutzt worden seien.
Adobe beruft sich hier vor allem darauf, dass sie die Bilder aus ihrem Adobe Stock-Portfolio für Trainingszwecke verwendet haben. Das ist in den Nutzungsbedingungen für Adobe Stock-Anbieter vom 15. April 2022 geregelt, wo es plötzlich heißt:
„You grant us a non-exclusive, worldwide, perpetual, fully-paid, and royalty-free license to use, reproduce, publicly display, publicly perform, distribute, index, translate, and modify the Work for the purposes of operating the Website; presenting, distributing, marketing, promoting, and licensing the Work to users; developing new features and services; archiving the Work; and protecting the Work.“
(Hervorhebung durch mich)
Bezahlt wurden die Adobe Stock-Anbieter bisher für ihre Trainingsdaten noch nicht, was das „ethisch“ etwas grauer werden lässt. Zurecht sind daher einige Adobe Stock-Anbieter etwas sauer, dass sie weder bezahlt noch richtig gefragt wurden. Die Änderung der Nutzungsbedingungen geschah wie üblich ohne große Ankündigung oder gar Verweise auf geplante KI-Trainings.
Immerhin schreibt Adobe eher nebenbei auf Twitter, dass eine Kompensation der Urheber geplant sei, wenn die Firefly-KI die Betaphase verlasse:
Was habt ihr bisher mit dem Tool umsetzen können? Was ist eure Meinung zu dem Werkzeug? Schreibt es gerne in die Kommentare.
Seit einigen Monaten werde ich für Vorträge und Workshops gebucht, welche sich mit der Bilderstellung durch KI beschäftigen.
Da ich andererseits auch oft Anfragen bekomme, wann ich wo welche Veranstaltungen dazu gebe, gibt es hier eine Übersicht der bisherigen und auch kommenden Events zum Thema „Generative KI“.
30.03.2023: „DALL‑E, Midjourney und Co.: Sind künstlich erzeugte Bilder auf dem Bildermarkt handelbar?“ mit Sebastian Deubelli auf dem PICTAday 2023 in München (Nachbericht)
02.06.2023: „KI in der Berufsfotografie“ Praxis-Workshop zusammen mit Silke Güldner in Hamburg (ausgebucht!)
15.06.2023: „Ki in der Bilderwelt“ Webinar zusammen mit Fachanwalt Sebastian Deubelli beim Storyboard Salon
-kommende Events-
23.06.2023: „Einführung in die KI“ Vortrag auf dem PIC Workshop in Memmingen (ausgebucht!)
01.09.2023: „KI in der Berufsfotografie“ Praxis-Workshop zusammen mit Silke Güldner in Hamburg (ausgebucht!)
22.09.2023: „[KI-Vortrag, genauer Titel tba]“ Vortrag und Diskussionsrunde auf der Photopia in Hamburg
Willst Du auch tiefer in die Welt der generativen KI einzutauchen? Oder suchst du nach einem knackigen Vortrag, einem interaktiven Workshop oder einem informativen Webinar für deine eigene Veranstaltung? Ich würde mich freuen, dir dabei zu helfen! Mit meiner Erfahrung in diesem Bereich kann ich dir ein Programm zusammenstellen, das genau auf deine Interessen und Bedürfnisse zugeschnitten ist.
Auch für persönliche Coachings und Schulungen stehe ich zur Verfügung. Zusammen können wir das Potential und die Möglichkeiten der generativen KI entdecken und sie effektiv für deine Projekte nutzen. Mir ist wichtig, dass du das Gelernte auch praktisch anwenden kannst.
Melde dich einfach bei mir, um mehr Details zu besprechen oder einen Termin zu vereinbaren. Ich freue mich darauf, meine Begeisterung für generative KI mit dir zu teilen und dir dabei zu helfen, in diesem spannenden Feld noch weiter voranzukommen.