Dies ist jetzt schon die siebte Auswertung meiner jährlichen Umfrage unter meinen Leser*innen, welche Agenturen ihnen im Vorjahr, also diesmal 2022, den meisten Umsatz gebracht haben. Die Agenturen sollten sie nach Umsatz absteigend sortiert als Kommentar hinterlassen. Zusammen mit mir haben sich 56 Fotograf*innen beteiligt. Vielen Dank dafür!
Die Ergebnisse will ich euch hier gerne vorstellen. Zuerst die eindeutige Grafik (Klick zum Vergrößern):
Meine Vorgehensweise: Ich habe in einer Excel-Tabelle eine Liste gemacht und in die erste Spalte jede Agentur eingetragen, die genannt wurde. In den nächsten Spalten habe ich dann für jede Teilnehmer*in und jede Agentur Punkte vergeben, basierend auf der Sortierung der genannten Agenturen. Die erste Agentur, also die mit dem meisten Umsatz, bekam 10 Punkte, die als zweites genannte Agentur bekam 9 Punkte und so weiter. Die Werte habe ich pro Agentur summiert und die Liste dann nach den Punkten sortiert. Das Ergebnis seht ihr oben, die Zahl in Klammern ist also die Gesamtpunktzahl der jeweiligen Agentur. Insgesamt wurden 45 verschiedene Agenturen benannt, ich habe die Liste jedoch auf die ersten 15 Agenturen beschränkt, weil das statistische Rauschen zum Ende hin mit meist nur einer Nennung sehr viel größer ist.
Hinweise: Bei der Umfrage wurde nicht unterschieden, ob die Leute Videos oder Fotos oder beides verkaufen, wie viele Dateien sie online haben oder seit wann sie dort hochladen. In der letzten Klammer sehr ihr die Veränderung zum Vorjahr.
In der Liste oben sind iStock und Getty zwar getrennt aufgeführt, ganz trennscharf lassen sich diese jedoch nicht auseinanderhalten, da iStock ja auch über Getty Images verkauft und beide Agenturen zusammengehören. Aber selbst wenn ich Getty zu iStock addiert hätte, hätte sich an der Platzierung von iStock auf dem dritten Platz nicht geändert, dafür wäre hinten nur der „eigene Bildershop“ (verschiedener Leute) auf Platz 15 aufgetaucht, wenn Getty entfallen wäre.
Meine besten Agenturen 2022 Wer die obige Liste nachrechnen oder anders auswerten will, kann das ebenfalls machen, meine Datenbasis ist frei einsehbar. Was jedoch noch fehlt, sind die Agenturen, bei denen ich selbst 2022 am meisten Umsatz erzielt habe und die ich ebenfalls in obige Rechnung habe einfließen lassen. In Klammern wieder die Veränderung zum Vorjahr, das heißt also, das die Reihenfolge identisch mit der von 2021 ist:
Adobe Stock (-)
Shutterstock (-)
Canva (-)
123rf (-)
Zoonar (-)
EyeEm (-)
Dreamstime (-)
Alamy (-)
Pond5 (-)
Westend61 (-)
Was sagt uns diese Auswertung?
Adobe Stock hat seine Spitzenposition im Vergleich zu den Vorjahren noch weiter ausgebaut, Shutterstock bleibt jedoch weiterhin stabil auf dem zweiten Platz.
Mit deutlichem Abstand führt iStock das Mittelfeld an, in dem sich noch Dreamstime, Alamy, 123rf, Depositphotos und EyeEm tummeln. Depositphotos hat absolut gesehen etwas zugelegt, die anderen Agenturen im Mittelfeld jedoch abgenommen.
Die restlichen Agenturen sind kaum noch der Rede wert. Diese Formulierung fand sich auch häufig in den Kommentaren der Teilnehmer.
Hier könnt die auch die Auswertungen aus den Jahren 2022, 2021, 2020, 2019, 2018 und 2017 nachlesen.
Interessante Auffälligkeiten
Der höchste Neueinstieg letztes Jahr war Wirestock, welche jedoch dieses Jahr auch schon wieder einige Plätze verloren haben. Einziger Neueinstieg 2022 in das Ranking war Canva, ausgestiegen aus der Liste ist dadurch Panthermedia.
Habt ihr die Ergebnisse erwartet? Oder sind Überraschungen für euch dabei?
Seit über zwei Jahren betreibt Dirk Primbs den Podcast „fotomenschen“, wo er sich pro Folge ein – meist berühmtes – Foto herausgreift und über dessen Geschichte und Entstehung erzählt.
Das halte ich für ein sehr spannendes Konzept, nur leider bin ich bisher nicht dazu gekommen, mir den Podcast tatsächlich anzuhören.
Im Buch wird das Podcast-Konzept auf knapp 170 Seiten im Softcover fortgesetzt, bzw. genauer gesagt, eine Art „Best Of“ der bisherigen 89 Podcast-Folgen wiedergegeben.
Dirk pickt sich 30 berühmte Fotos heraus und erzählt auf ca. drei bis zehn Seiten Anekdoten zur Entstehungsgeschichte. Zu den ausgewählten Fotos gehört beispielsweise das erste Foto der Welt, die Portraits vom „Afghan Girl“, der „Migrant Mother“, Che Guevara und Winston Churchill, der Absturz der Hindenburg, die Pause machenden Bauarbeiter auf dem Stahlträger in New York City, der Kuss vor dem Pariser Rathaus oder das Foto vom Ungeheuer von Loch Ness.
Die Texte sind kurz, gut lesbar und unterhaltsam geschrieben und eignen sich gut, um das Interesse am Thema Fotografie zu wecken. Die erzählten Details lesen sich aber teilweise so unglaublich, dass ich mir öfters Fußnoten gewünscht hätte, um bestimmte Themen etwas zu vertiefen oder Fakten überprüfen zu können.
Auch das Lektorat lässt leider etwas zu wünschen übrig und so stolpern die Leser*innen manchmal über Rechtschreibfehler oder falsch zusammengeschusterte Sätze.
Insgesamt überwiegt aber der kurzweilige Lesespaß. Ich kann mir das Buch auch gut als Einstiegspunkt vorstellen, wenn jemand Kinder und Jugendliche für die Fotografie begeistern will oder einfach nur mit einigen unterhaltsamen Anekdoten auf Partys glänzen will.
Es ist wieder ein Jahr rum und wir können die Gelegenheit nutzen, einen Blick auf die meistgelesenen und meistkommentierten Blogartikel zu werfen, welche ich im jahe 2022 veröffentlicht hatte.
Vielleicht ist dem einen oder anderen ja eine Artikelperle durch die Lappen gegangen und nun gibt es die Chance, das nachzuholen.
Daher ohne große Umschweife hier direkt die zehn meistgelesenen Blogartikel vom letzten Jahr:
Und als längerfristiger Rückblick hier mal die Ehrenhalle mit den bisher zehn meistgelesenen Artikeln im Blog insgesamt über die gesamte Zeit hinweg:
Falls ihr über bestimmte Themen gerne öfter hier im Blog lesen wollt, könnt ihr gerne die Kommentarfunktion nutzen, um mir eure Wünsche mitzuteilen.
Nur gut zwei Wochen nach der Bekanntgabe von Adobe, dass Adobe Stock nun durch Künstliche Intelligenz erzeugte Bilder akzeptiere, hat auch die Bildagentur Panthermedia bekannt gegeben, dass sie nun KI-Material annehmen.
Der Newsletter von Panthermedia im Wortlaut
Die Voraussetzungen lesen sich im Grunde fast identisch wie die von Adobe Stock, mit der Ausnahme, dass die Bilder im Titel statt des Hinweises „Generative AI“ nun „AI generated image“ enthalten sollen.
Da drängt sich etwas der Verdacht auf, dass hier einfach die Entscheidung von Adobe Stock nachgeahmt wurde, was ich aber inhaltlich begrüßenswert finde.
Unter dem Reiter „KI-Bilder“ finden sich auf der Startseite von Panthermedia jedoch bisher nur knapp 2.500 künstlich erzeugte Portraits, welche vor ungefähr einem Jahr vorgestellt wurden. Das kann sich natürlich bald ändern.
Das Jahr 2022 war der Durchbruch der Bilderstellung durch Künstliche Intelligenz (KI), weil Projekte wie Dall‑E, Stable Diffusion oder Midjourney der breiten Öffentlichkeit zugänglich wurden.
Auch ich habe hier im Blog schon einige Beiträge über KI-Bilder geschrieben, aber bisher noch nicht von Grund auf erklärt, wie die KI-Bildgenerierung funktioniert.
Das Thema „Artificial Intelligence“ interpretiert von der KI-Engine Stable Diffusion
Das ist aber essential für das Verständnis der aktuellen Debatten um Urheberrechte, Bilderdiebstahl und die ethischen Auswirkungen der neuen Technik.
Daher hier ein kurzer Exkurs in die Geschichte der KI-Bilderstellung.
Bild-zu-Text-Erkennung
Um 2015 herum lernten maschinell trainierte Algorithmen, Objekte in vorhandenen Bildern zu benennen. Das kennen Fotografen sicher von Lightroom, Google Images oder Facebook, wo die Software oder Webseite automatisch erkennt, welche Dinge grob auf einem Bild sichtbar sind. Zusätzlich lernten die Algorithmen schnell, die beschriebenen Objekte in einen lesbaren Satz umzuwandeln. Aus „Frau, Handy, lachen“ wurde also „Eine lachende Frau am Handy“.
Text-zu-Bild-Erkennung
Findige Forscher dachten nun, dass dieser Prozess auch umkehrbar sein müsste. Sie kombinierten hier – sehr vereinfacht gesprochen – die obige Technologie mit einem Entrauschungsverfahren, welches wiederum mit obiger Technologie auf Genauigkeit getestet wurde.
Im Grunde trainierten sich zwei verschiedene KIs gegenseitig. Die erste KI nahm zufällig erzeugtes Bildrauschen und versuchte, aus der Texteingabe ein Bild zu erzeugen. Die zweite KI versuchte, aus dem erzeugten Bild zu erraten, was darauf erkennbar ist. Wenn die zweite KI der ersten bestätigte, dass sie „die lachende Frau am Handy“ erkannt hat, speicherte sich die erste KI einen Pluspunkt für das Entrauschungsmuster und schlug ein neues vor. Nach vielen Millionen Trainingsrunden wurde die erste KI durch diese Tests immer treffsicherer bei der Umwandlung von Texten zu Bildern.
Massenhafte Text-zu-Bild-Erkennung
Die obere Methode funktioniert zwar prinzipiell, hat aber einen Haken. Sie ist langsam und setzt natürlich irgendwie voraus, dass irgendjemand massenhaft Texteingaben der KI zum Trainieren vorsetzt, damit sie später weiß, welche Begriffe wie bildlich umgesetzt werden.
Forscher nutzten deshalb einen Trick, der heute einer der Grundprobleme bei der Akzeptanz von KI-Bilder-Tools ist: Sie gründeten das „Large-scale Artificial Intelligence Open Network“ (Groß angelegtes offenes Netz für künstliche Intelligenz), kurz LAION.
LAION ist ein gemeinnütziger Verein, welcher massenhaft Daten aus dem Internet sammelt, um damit KIs zu trainieren. Diese Daten werden nach Typ und Qualität sortiert. So gibt es zum Beispiel das „LAION-5B“-Set, welches 5,85 Milliarden Text-Bild-Kombinationen in allen möglichen Sprachen zusammengefasst hat, das „LAION-400M“-Set mit 400 Millionen Text-Bild-Kombinationen in englischer Sprache oder das „LAION-Aesthetics“-Set, welches eine Untergruppe von „LAION-5B“ ist, welches nur ästhetisch ansprechende Bilder enthalten soll.
In der Praxis wurden neben der Bild-URL und der Beschreibung noch andere Kriterien gespeichert, welche ebenfalls durch eine KI erzeugt wurden, wie Qualität der Beschreibung oder wie wahrscheinlich das Bild „NSFW“ (not safe for work) ist, also nicht jugendfrei.
Der Knackpunkt ist hier, dass der Verein also haufenweise Bilder gespeichert hat, um sie der Forschung zugänglich zu machen. Wie soll die KI aber genau wissen, was auf den Bildern zu sehen ist? Dafür nutzten die Forscher die häufig vorhandenen Metadaten, welche Fotografen, Künstler oder SEO-Firmen an die Bilder angehängt hatten, damit Suchmaschinen die Bilder besser einordnen konnten.
Stockfotografen kennen das von der Bildbeschreibung, mit der sie ein Bild zusätzlich mit dessen Text-Äquivalent versehen, damit Bildkunden es über die Suchfunktion der Bildagentur finden können.
Besonderen Wert hatten also die sorgfältig beschrifteten Bilder, die als Futter für das KI-Training genutzt wurden und weiterhin werden.
Die Erstellung vom latenten Raum
Wenn jetzt jemand einen Befehl in eine Bild-KI eingibt, kopiert die KI nicht einfach stumpf Teile existierender Bilder, sondern die Informationen kommen aus dem sogenannten „latenten Raum“ (latent space). Dieser heißt so, weil die Objekte und Konzepte dort „latent“ vorhanden sind. Der Computer weiß, wie etwas generiert wird, macht es aber erst, wenn eine bestimmte Kombination abgerufen wird.
Das KI-Training kann mensch sich ähnlich vorstellen wie Kleinkinder ihre Welt entdecken. Woher wissen Kleinkinder, wenn sie ein Bilderbuch ansehen, dass die gezeichneten Figuren ein Elefant, eine Giraffe und ein Ball sind?
Sie wissen es erst, wenn sie genug verschiedene Versionen dieser Dinge gesehen haben, um die Gemeinsamkeiten abstrahieren zu können. Ein Elefant ist zum Beispiel meist grau und groß, eine Giraffe gelb-gescheckt mit einem langen Hals und ein Ball rund und bunt.
Die KI hat das ebenfalls so gelernt, nur eben an Millionen Bild-Text-Kombinationen. So ruft sie beispielsweise alle Bilder auf, die mit dem Wort „Giraffe“ beschriftet sind, und versucht, die Gemeinsamkeiten zu erkennen. Beim Wort „Ball“ genauso. Am Anfang rät sie einfach, aber je öfter sie es macht, desto mehr erkennt sich bestimmte Muster.
Die KI merkt jedoch, dass beispielsweise Farbe oder Form kein ausreichendes Kriterium für bestimmte Objekte oder Konzepte sind, weil sich diese ändern können. Bälle können zum Beispiel verschiedene Farben haben, Elefanten verschiedene Formen und so weiter. Daher versucht die KI, möglichst viele verschiedene Variablen zu kreieren und die Begriffe in so einem Koordinatensystem zu verorten. Dieses System hat deutlich mehr als drei Dimensionen und wird als der „latente Raum“ bezeichnet.
Er enthält hunderte Variablen und deren Beziehungen zueinander. So entsteht ein multidimensionales Netzwerk aus Beziehungen, ähnlich wie eine „soziale Netzwerkanalyse“. Die Variablen für „Spaghettieis“ würden da zum Beispiel irgendwo zwischen denen für „Eiscreme“ und „Pasta“ liegen, in der Nähe von anderen kalten Objekten wie „Antarktis“ oder „Winter“, fernab von Objekten, welche mit „Härte“ assoziiert sind. Das ist für den menschlichen Geist schwer verständlich, für moderne Computer aber kein Problem.
Vom latenten Raum zur stabilen Diffusion
Wie kriegt mensch aber nun neue Bilder aus diesem latenten Raum? Durch die Texteingabe navigiert der Mensch den Computer zu einer Stelle im multidimensionalen Raumen, wo die Wahrscheinlichkeit am höchsten ist, dass die dortigen Variablen die Begriffe gut abdecken.
Nun kommt wieder das obige Entrauschungsverfahren zum Einsatz. Aus einem zufälligen Bildrauschen schärft der Computer in sehr vielen Durchgängen das Chaos zu einer Anordnung, in welcher Menschen die gewünschten Begriffe erkennen können sollen. Da dieser Prozess zufallsbasiert ist, wird auch mit der gleichen Texteingabe niemals exakt das gleiche Bild entstehen.
Diese zufallsbasierte Pixelstreuung heißt im Lateinischen „Diffusion“ und da das System stabil zwar keine gleichen, aber ähnliche Ergebnisse erzielen kann, nennt sich dieses Verfahren der KI-Bilderstellung „Stable Diffusion“.
Auch wenn die gleiche Texteingabe in ein anderes KI-Modell gegeben wird, werden sich die Ergebnisse unterscheiden, weil das Bild dann durch andere Trainingsdaten in einem anderen „latenten Raum“ erzeugt wurde.
Es gibt einige KI-Gegner, welche die KI-Bilder ablehnen, weil sie fälschlicherweise annehmen, dass die KI-Tools nur eine Art intelligente Bildmontagen-Maschine sind, welche Versatzstücke aus bestehenden Bildschnipseln neu zusammensetzt.
Als „Beweis“ werden hier gerne die manchmal sichtbaren Wasserzeichen genannt, welche erkennbar bestimmten Bildagenturen zugeordnet werden können. Diese ergeben sich jedoch aus der oben genannten Trainingsmethode. Die Agenturbilder sind für LAION besonders wertvoll gewesen, weil diese besonders häufig besonders hochqualitative Beschreibungen zu den Bildern hatten. Stockfotografen waren ja auf treffende Bildbeschreiben angewiesen für häufige Verkäufe. Das erklärt, warum Bilder mit Agenturwasserzeichen besonders häufig für KI-Trainingszwecke genutzt wurden.
Bei besonders „stocklastigen“ Motiven (denke an den „Business-Handshake“) war also die Wahrscheinlichkeit hoch, dass die KI lernte, dass solche Wasserzeichen irgendwie normal seien für das Motiv und dementsprechend „dazugehörten“. Also versucht die KI, diese Wasserzeichen mit zu reproduzieren.
Die rechtlichen Implikationen dieser Methode
Aber auch ohne das obige Missverständnis gibt es genug berechtigte Kritik. So werfen Kritiker der LAION vor, millionenfach die urheberrechtlich geschützten Werke zu Trainingszwecken genutzt zu haben, ohne dass die Künstler dafür irgendwie entschädigt wurden. LAION beruft sich zur Verteidigung darauf, dass sie eine gemeinnützige Organisation (eingetragener deutscher Verein) sei, welche nur zu Forschungszwecken arbeite.
Angesichts der Finanzierung dieses gemeinnützigen Vereins durch kommerzielle Firmen wie u.a. Stability AI, welche die Entstehung des LAION-5B“-Datensets finanziert haben und es letztendlich in ihrer KI „Stable Diffusion“ nutzen, ist das ein wackliges Argument.
KI-Befürworter weisen darauf hin, dass die KI bei ihrem Training im Grunde vergleichbar sei mit dem Vorgehen von Google. Google hatte jahrelang massenhaft urheberrechtlich geschützte Bücher und andere Texte eingescannt, um Ausschnitte davon in deren Dienst „Google Books“ zu nutzen. 2015 urteilte der us-amerikanische oberste Gerichtshof, dass dieses Vorgehen legal und von der „Fair Use“-Klausel gedeckt sei.
Auch die Frage, wie der rechtliche Status der durch die KI erstellten Bilder zu bewerten ist, ist noch völlig offen und wird vermutlich bald von einigen Gerichten geklärt werden müssen.
Die moralischen Probleme vom latenten Raum
Da das KI-Training im latenten Raum quasi ohne menschliche Eingriffe geschah, hat die KI einige Erkenntnisse gewonnen, die wir Menschen problematisch halten könnten.
Bestehende Vorurteile, Fehler oder diskriminierende Praktiken werden von de KI ungefiltert einfach übernommen und danach wiedergegeben. Wer sich bei den KI-Tools beispielsweise Bilder von einem „CEO“ generieren lässt, wird hauptsächlich ältere weiße Männer erhalten, Bilder von „Krankenpflegern“ hingegen werden vor allem weiblich sein. Auch der Fokus auf die englische Sprache schließt viele anderssprachige Kulturen und Traditionen stark aus. Versucht beispielsweise mal ein „Sankt Martin“-Bild durch die KI erzeugen zu lassen…
Stable Diffusion versucht sich an der Darstellung eines „CEO“…
…und einer Krankenschwester („nurse“)
Die KI scheitert an der Darstellung des Begriffs „Sankt Martin“
Branchen im Wandel
Ungeachtet der noch ungelösten rechtlichen und moralischen Probleme der KI-Bilderzeugung hat die Technologie jedoch das Potential, gesamte Branchen auf den Kopf zu stellen, vergleichbar mit der Erfindung des Fotoapparats.
Auch hören die Forscher längst nicht bei der Bilderzeugung auf. Mit „ChatGPT“ gibt es von den DALL-E-Machern schon eine funktionsfähige Chat-KI welche auf Zuruf längere Texte schreibt. Andere Firmen arbeiten an Text-zu-Video-Generatoren, Text-zu-3D-Objekt-Generatoren und so weiter. Werden einige der bestehenden Technologien kombiniert, beispielsweise die Chat-KI mit einer Video-KI und einer Sprach-KI, so könnten auf Knopfdruck bald individualisierte Spielfilme erzeugt werden. Die Entwicklungen hier werden in einem atemberaubenden Tempo veröffentlicht.
Ist die Funktionsweise der generierenden KIs etwas klarer geworden? Was versteht ihr ggf. noch nicht?