Schlagwort-Archive: Midjourney

Ausführliches Tutorial: Interaktive 360°-KI-Bilder mit Midjourney erstellen

Auf mei­ner Facebook-​Seite hat­te ich hier kürz­lich gefragt, wie groß das Interesse sei, die Erstellung von sol­chen inter­ak­ti­ven 360°-Bildern zu lernen:

Da der Andrang groß war, gibt es heu­te das kom­plet­te Tutorial, wie ihr die­se 360-​Grad-​Bilder selbst erstel­len und anzei­gen las­sen könnt. Klickt ger­ne mit der Maus auf das Bild, um die Ansicht zu ändern oder unten rechts auf das „VR“-Symbol, um das Gleiche im Vollbild-​Modus zu machen.

1. Die Bilderstellung

Zuerst braucht ihr dafür natür­lich Zugang zu einem Generativen KI-​Programm. Ich arbei­te bevor­zugt mit Midjourney, aber getes­tet habe ich es auch mit Dall‑E 3 und prin­zi­pi­ell soll­te es – je nach Qualität des KI-​Generators – auch mit ande­ren Tools wie Adobe Firefly oder Stable Diffusion funktionieren.

Als Prompt habe ich bei Midjourney die­sen hier ver­wen­det (die ecki­ge Klammer soll­te weg­ge­las­sen wer­den, mehr dazu unten):

/​imagine 360° equi­rec­tan­gu­lar pho­to­graph of [an emp­ty futu­ristic space­ship com­man­do room inte­ri­or] –ar 2:1 –v 6.0 –style raw

Wichtig sind hier vor allem die ers­ten bei­den Begriffe 360° und die gleich­wink­li­ge Projektion (equi­rec­tan­gu­lar pro­jec­tion) sowie das Seitenverhältnis von 2:1, wel­ches im Midjourney-​Prompt durch das Parameter-​Kürzel –ar defi­niert wird.

Bei der gleich­wink­li­gen Projektion wird die­se aus einem ein­zi­gen Bild zusam­men­ge­setzt, wobei der hori­zon­ta­le Winkel 360° und der ver­ti­ka­le 180° beträgt. Daher soll­te das Seitenverhältnis 2:1 sein, um unnö­ti­ge Verzerrungen zu ver­mei­den. Adobe Firefly kommt z.B. nur bis zum Seitenverhältnis 16:9, wes­halb die Ergebnisse weni­ger über­zeu­gend aussehen.

Die Versionsnummer (v6) und der Style (raw) sind Geschmackssache und kön­nen vari­iert wer­den. Ich habe die­se gewählt, weil sie aktu­ell die bes­te Renderqualität (v6) lie­fern bei rea­lis­tisch anmu­ten­dem Ergebnis (raw).

Statt des Raumschiff-​Prompts in der ecki­gen Klammer könnt ihr natür­lich eurer Fantasie frei­en Lauf las­sen. Beim oben ver­link­ten Facebook-​Post lau­te­te der Prompt zum Beispiel:

/​imagine 360° equi­rec­tan­gu­lar pho­to­graph of the rain­fo­rest –v 6.0 –ar 2:1 –style raw

Ihr könnt aber auch deut­lich ela­bo­rier­ter in eurer Beschreibung wer­den, wenn ihr wollt.

Midjourney zeigt euch dann vier Auswahlmöglichkeiten an. Hier soll­tet ihr bei der Wahl eures Favoriten schon dar­auf ach­ten, ob die lin­ke und rech­te Bildkante sich halb­wegs dazu eig­nen, mit­ein­an­der ver­bun­den zu werden.

Die vier Ergebnisse des ers­ten Prompts

Im obi­gen Beispiel habe ich mit einem roten Pfeil mar­kiert, wo die KI einen Lichteinfall ger­en­dert hat, der sich nicht auf der rech­ten Kante wie­der­fin­det. Das wür­de die opti­sche Illusion zer­stö­ren. Beim obe­ren lin­ken Bild sind oben und unten schwar­ze Balken, die eben­falls stö­rend sind. Daher habe ich mich für das Bild links unten entschieden.

Hinweis: Es gibt in Midjourney auch den Parameter „–tile“, der dafür sor­gen soll, dass die Bilder naht­los kachel­bar sind, was für unse­re Zwecke erst mal prin­zi­pi­ell gut klingt. Manchmal funk­tio­niert es auch gut, aber lei­der ach­tet Midjourney dann auch dar­auf, dass die obe­re und unte­re Kante zusam­men­pas­sen, was bei Außenaufnahme, wo oben Himmel und unten Erde ist, sel­ten gute Ergebnisse bringt. Bei Innenaufnahmen ist die Trefferquote höher. Daher: Einfach mal testen.

Das fer­ti­ge Bild wird mit „U3“ ver­grö­ßert (ups­ca­ling) und dann noch mal „Upscale (Subtle)“ ver­grö­ßert. Damit haben wir schon eine Auflösung von 1536x3072 Pixeln. Wer will, kann die­se Auflösung mit einer der hier auf­ge­zähl­ten Upscale-​Methoden noch wei­ter erhö­hen. Das Raumschiff-​Bild habe ich mit Topaz Photo AI auf 3072x6144 Pixel vergrößert.

Wie schon oben erwähnt, funk­tio­niert es prin­zi­pi­ell auch mit ChatGPT, wenn auch das Seitenverhältnis nicht kor­rekt als 2:1 aus­ge­ge­ben wur­de und die fer­ti­ge Auflösung gerin­ger ist:

2. Die Bildbearbeitung

Das fer­ti­ge PNG-​Bild öff­ne ich nun in Photoshop und wäh­le den Befehl „Verschiebungseffekt“ (unter Filter/​Sonstige Filter):

Im sich öff­ne­nen Menüfenster gebe ich nun „hori­on­zal +1000 Pixel nach rechts“ ein. Wichtig ist, dass unten die Option „Durch ver­scho­be­nen Teil erset­zen“ aktiv ist.

Damit ver­schiebt sich das Bild um ein­tau­send Pixel nach rechts und wir sehen auch im Screenshot schon, wo die Nahtkante unse­res Bildes ist. Diese kön­nen wir mit den Photop-​Bordmitteln wie „gene­ra­ti­ves Entfernen“, „gene­ra­ti­ves Füllen“ und den alt­be­kann­ten Stempel-​Werkzeugen bear­bei­ten, bis die Kante nicht mehr so stark erkenn­bar ist. Tipp: Einfach den Übergang kom­plett mit dem recht­ecki­gen Auswahlwerkzeug mar­kie­ren und „Generatives Füllen“ ankli­cken, wirkt oft wah­re Wunder.

Hier mei­ne bear­bei­te­te Version:

Zusätzlich könnt ihr natür­lich je nach Belieben das Bild vom Farbton, Kontrast etc. anpas­sen oder ande­re Bildbereiche ver­bes­sern, ent­fer­nen oder austauschen.

Wenn ihr fer­tig seid, könnt ihr den „Verschiebungseffekt“ in die ande­re Richtung (also ‑1000) anwen­den, damit das Bild wie­der in sei­ne Ausgangsposition ver­scho­ben wird.

Das ist nicht unbe­dingt not­wen­dig, aber die meis­ten 360°-Anzeigen nut­zen die Bildmitte als Startpunkt, wel­cher dadurch von uns beein­flusst wer­den kann.

Das fer­ti­ge Bild soll­te als JPG abge­spei­chert werden.

3. Die Bild-Metadaten

Damit Tools unser Bild nun auch als „ech­tes“ 360°-Bild erken­nen, müs­sen wir manu­ell Metadaten hin­zu­fü­gen, wel­che durch 360°-Kameras erzeugt wer­den. Wir täu­schen damit qua­si vor, unser KI-​Bild sei mit einer rich­ti­gen Kamera auf­ge­nom­men worden.

Das sind die not­wen­di­gen Metadaten:

-xmp:ProjectionType=equirectangular
-xmp:CroppedAreaLeftPixels=0
-xmp:CroppedAreaTopPixels=0
-xmp:CroppedAreaImageWidthPixels=3072
-xmp:CroppedAreaImageHeightPixels=1536
-xmp:FullPanoWidthPixels=3072
-xmp:FullPanoHeightPixels=1536
-xmp:UsePanoramaViewer=true

Die Pixelwerte kön­nen (und soll­ten) natür­lich abwei­chen, wenn euer Bild ande­re Pixelmaße aufweist.

Damit ihr nicht wie der letz­te Höhlenmensch in eure EXIF-​Daten ein­grei­fen müsst, gibt es ver­schie­de­ne Offline- und Online-​Tools, wel­che das für euch übernehmen.

Ich nut­ze selbst ger­ne den „Exif Fixer Online“. Dieser unter­stützt JPG-​Bilder bis zu 15 MB. Nach dem Hochladen des Bildes erhal­tet ihr einen Link, wo ihr die „gefix­te“ Version mit den kor­rek­ten Metadaten run­ter­la­den könnt:

WICHTIG: Damit die Datei als 360°-Bild aus­ge­le­sen wer­den kann, müs­sen die­se Metadaten intakt blei­ben. Das Versenden der Datei mit Whatsapp oder Email etc. kann dazu füh­ren, dass die­se Metadaten wie­der gelöscht wer­den und das Bild nicht inter­ak­tiv ange­zeigt wer­den kann.

4. Die Anzeige

Kommen wir zur Belohnung für unse­re Mühen. Damit wir das 360°-Bild anzei­gen las­sen kön­nen, müs­sen wir es irgend­wo hoch­la­den, wo die­se Art der Anzeige unter­stützt wird.

Hier im Blog habe ich auf die Schnelle das kos­ten­lo­se Plugin Algori 360 Image“ instal­liert, es gibt aber auch etli­che ande­re.

Eine ande­re Möglichkeit ist das Hochladen des Bildes bei Facebook oder Google Photos. Zusätzlich gibt es hier eine Liste von wei­te­ren Apps, wel­che die­se 360°-Anzeige unterstützen.

5. Galerie und Material zum Testen

Wer sehen will, dass das oben kein Glückgriff war, son­dern auch mehr­mals funk­tio­niert, kann sich hier mei­ne „360° KI-Bilder“-Galerie auf Facebook ansehen.

Wer gera­de kei­nen Zugriff auf einen KI-​Generator hat, kann sich die Rohdaten für die Galerie-​Bilder hier run­ter­la­den, direkt ohne Bildbearbeitung aus Midjourney expor­tiert. Die jewei­li­gen Prompts fin­det ihr in den Metadaten in der Bildbeschreibung oder in der Facebook-Galerie.

Wichtiger Hinweis: Die Bilder sind die rohen Ausgangsbilder, es müs­sen also wei­ter­hin die Schritte 2–4 durch­lau­fen wer­den, wenn die Bilder 360°-tauglich wer­den sol­len. Alternativ könnt ihr die Bilder direkt in der Galerie ansehen.

Der große KI-​Upscaler-​Test: Vergleich von Bildqualität, Kosten und mehr

Was ist der aktu­ell bes­te KI-​Upscaler?
Vor weni­gen Tagen hat die KI-​Firma Midjourney einen neu­en Upscaler ver­öf­fent­licht, der deren KI-​Bilder um den Faktor 2 oder 4 ver­grö­ßern kann.

Da ich bis­her ein ande­res Tool genutzt habe, woll­te ich her­aus­fin­den, wie sich die Bildqualität unter­schei­det. Wo ich schon dabei war, habe ich noch paar ande­re Upscaler ver­gli­chen und die Ergebnisse bei Facebook und LinkedIn gepos­tet. Da gab es in den Kommentaren noch wei­te­re Vorschläge, wel­che Upscaler ich berück­sich­ti­gen sollte.

Na gut, dach­te ich mir, dann zie­he ich das eben grö­ßer auf und ver­öf­fent­li­che hier einen umfas­sen­den Test über die Bildqualität und Unterschiede der aktu­ell auf dem Markt erhält­li­chen Upscaler.

Alle Testausschnitte im direk­ten Vergleich (Klicken zum Vergrößern)

Der Testaufbau und das Ausgangsbild

Ich habe mir mit dem KI-​Tool Midjourney ein qua­dra­ti­sches PNG-​Bild einer blon­den Frau gene­rie­ren las­sen mit der Auflösung 1024x1024 Pixel (1,05 Megapixel):

Das Testbild

Dieses Bild habe ich dann mit ver­schie­de­nen Methoden um den Faktor 4 auf 4096x4096 Pixel (16,7 Megapixel) ver­grö­ßern lassen.

Da die Beurteilung der Ergebnisse sub­jek­tiv gefärbt ist und jeder ande­re Maßstäbe an sei­ne Bilder anlegt, ver­öf­fent­li­che ich hier auch die PSD-​Datei der ver­schie­de­nen Ergebnisse als Download, jede Ebene ist sau­ber nach der genutz­ten Upscaler-​Methode benannt.

DOWLOAD-​Link (Dropbox) als gepack­te .rar-​Datei (ACHTUNG: Datei ist 610 MB groß, ent­packt dann 889 MB!) BACKUP-​Link (Wetransfer).

Damit kann jede*r durch das Ein- und Ausblenden der Ebenen in der 100%-Ansicht selbst ent­schei­den, wel­ches Ergebnis ihm/​ihr am meis­ten zusagt.

Für die­sen Blogartikel habe ich einen Bereich des lin­ken Auges aus­ge­schnit­ten, damit hier die 100%-Ansicht (500x500 Pixel) gezeigt wer­den kann. Die Ausschnitte habe ich sau­ber benannt und als JPG (Qualität 10) abge­spei­chert. Der Ausschnitt ist in der Photoshop-​Datei auch als Pfad hinterlegt.

Der große Upscaler-​Test: Die Ergebnisse

1. Midjourney Upscaler

Beginnen wir mit dem Upscaler von Midjourney. Obwohl die­ser erst weni­ge Tage alt ist, gibt es schon zwei Versionen und Midjourney behält sich vor, den Upscaler auch in Zukunft zu verändern/​verbessern:

The ups­ca­ler is subt­le and tri­es to keep details as clo­se as pos­si­ble to the ori­gi­nal image (but may not fix glit­ches or issues with the old image)“

Midjourney Upscaler 4x V1 (18.10.2023)

Die ers­te Version (V1) des Midjourney-​Upscaler bügel­te die Hauttextur ziem­lich glatt, das gan­ze Bild wirkt ins­ge­samt sehr nach 1980er-Jahre-Airbrush-Retusche.

Das Entwickler-​Team nahm sich die Kritik der Community jedoch zu Herzen und schob zwei Tage spä­ter das ers­te Update hinterher:

We’re […] hea­ring everyone’s feed­back that the 4x ups­ca­ler is a bit soft and we’­re loo­king at impro­ve­ments which may fur­ther impro­ve things. This means the ups­ca­ler set­tings may chan­ge sud­den­ly over the next week wit­hout war­ning as we tweak things.
[…]
The V5 4x Upscale now fea­tures impro­ved sharp­ness, and in some cases smal­ler sca­le high fre­quen­cy details“

Dadurch sieht das Ergebnis deut­lich bes­ser aus, die Haare und Wimpern sehen täu­schend echt aus und auch die Hauttextur kann überzeugen:

Midjourney Upscaler 4x V2 (20.10.2023)

Der ers­te gro­ße Nachteil die­ses Upscalers ist logi­scher­wei­se, dass er nur auf KI-​Bilder anwend­bar ist, die direkt in Midjourney erstellt wurden.

Ein wei­te­rer Punkt sind die Kosten: Der 4x Upscaler kos­tet grob 6x soviel GPU-​Minuten wie die Generierung eines 4x4-​Bilder-​Grids. Diese Zeit wird von dem bezahl­ten Minutenkontingent abge­zo­gen, wel­ches die Nutzer je nach Abomodell zur Verfügung haben. Im Standard-​Plan sind das zum Beispiel 15 Stunden pro Monat.

Eine Stunde Rechenzeit kann aktu­ell für 4 USD dazu gekauft wer­den. Ich habe mal geschaut, wie viel Zeit für ein 4x-​Upscale von Midjourney berech­net wird. Beim obi­gen Bild waren das ca. 3 Minuten. Mit einer Stunde Rechenzeit könn­ten damit 20 Bilder hoch­ska­liert wer­den. Bei Kosten von 4 USD/​Stunde wür­de ein Upscale ca. 20 US-​Cent kos­ten. Wer die inklu­si­ven Stunden im Standard- oder Pro-​Plan nutzt, zahlt nur die Hälfte.

2. Topaz Photo AI

Der Upscaler von Topaz Labs war unse­re bis­he­ri­ge bevor­zug­te Upscale-​Methode. Getestet haben wir hier mit der Version 2.0.5.
Topaz Photo AI ist ein recht neu­es Tool, mit dem ver­schie­de­ne KI-​basierte Werkzeuge wie Topaz Gigapixel, Topaz Sharpen etc. zusam­men­ge­fasst wurden.

Topaz Photo AI V2 Upscaler 4x

Die Ergebnisse sehen sehr über­zeu­gend aus, vor allem die Hauttextur ist sehr rea­lis­tisch, die Details wie Wimpern und Haare sind jedoch etwas gröber.

Topaz hat auch eine Funktion namens „Recovering Face“, womit laut Hersteller die Ergebnisse von Gesichtern in gerin­ger bis mitt­le­rer Auflösung deut­lich ver­bes­sert wer­den kann:

Recover Faces dra­ma­ti­cal­ly impro­ves low-​medium qua­li­ty faces.“

Es gibt einen Regler, der stu­fen­los von 0 bis 100% ein­ge­stellt wer­den kann. Bei 25% sieht das Ergebnis so aus:

Topaz Photo AI V2 Upscaler 4x + 25% Recovering Face

Ich fin­de, dass das Gesicht dadurch ein­fach mat­schi­ger wird. Dieser Effekt nimmt mit der Stärke der Recover-​Funktion zu, bei 100% ist das Ergebnis deut­lich unbrauch­ba­rer als ganz ohne die Funktion. Vermutlich liegt das dar­an, dass die Bildqualität vom Ausgangsmaterial schon „zu gut“ für die­se Funktion ist, die der Verbesserung von „low qua­li­ty faces“ die­nen soll.

Ein wei­te­rer Vorteil von Topaz Photo AI ist, dass hier Bilder als Batch bear­bei­tet wer­den kön­nen und neben dem Hochskalieren im glei­chen Arbeitsgang wahl­wei­se auch geschärft, ent­rauscht, farb­lich ange­passt etc. wer­den können.

Mit 199 USD sind die Kosten initi­al recht hoch, dafür kön­nen damit unbe­grenzt Bilder bear­bei­tet wer­den und es gibt regel­mä­ßi­ge Updates. Für Vielnutzer preis­lich die bes­te Wahl. Weiterer Pluspunkt: Es gibt ein Photoshop-​Plugin.

3. Photoshop

Die frü­her übli­che und seit lan­gem ver­füg­ba­re Methode mit Photoshop-Bordmitteln war, ein­fach die Bildgröße hoch­zu­set­zen. Das Ergebnis, getes­tet mit Photoshop 2024 (V25.0), sieht dann so aus:

Photoshop-​Vergrößerung V25 (Berechnung: Automatisch)

Es ist damit sicht­bar mit Abstand das schlech­tes­te Ergebnis, was wenig ver­wun­dert, da hier noch kei­ne KI Hilfestellung leis­tet. Selbst mit dem bekann­ten Kniff, das Bild in 10%-Schritten hoch­zu­ska­lie­ren, war das Ergebnis nur mini­mal bes­ser und reicht trotz­dem nicht an die ande­ren Methoden heran.

In den Kommentaren zu mei­nem ers­ten Test gab es zwei Hinweise, wie ich die Ergebnisse ver­bes­sern könn­te. Der ers­te war, dass sich hin­ter dem Häkchen „Neu berech­nen“ noch eine Auswahlmöglichkeit für „Details erhal­ten 2.0“ verbirgt:

Photoshop-​Vergrößerung V25 (Berechnung: Details erhal­ten 2.0)

Das Ergebnis ist zwar „bes­ser“ und schär­fer, dafür aber mit sicht­ba­ren Artefakten über­sät. Wenn ich den Regler „Rauschen redu­zie­ren“ auf 50% set­ze, ver­schwin­den die Artefakte, aber das Bild sieht etwas weich­ge­zeich­net aus.

Kurz: Der schlech­tes­te Upscaler im Test. Es wun­dert mich etwas, dass hier die Adobe Sensei-​KI noch nicht Einzug gehal­ten hat, aber ver­mut­lich wird das ein Feature sein, was eher frü­her als spä­ter ver­öf­fent­licht wer­den wird.

Jemand mein­te noch, dass sich unter den „Neural Filters“ ein „Superzoom“-Filter ver­ber­ge. Das ist jedoch kein rich­ti­ger „Upscaler“, weil damit das Bild tat­säch­lich „ran­ge­zoomt“ wird, ich ver­lie­re also die Bildmotive am Rand.

Dafür sind die Kosten jedoch unschlag­bar, da jeder mit einem Photoshop-​Abo unbe­grenzt vie­le Bilder hoch­ska­lie­ren kann.

Kurzes Update 23.10.2023: (sam­ple images not included in down­load yet)
Einige Leser wie­sen mich dar­auf hin, dass die „Superzoom“-Funktion doch das gan­ze Bild anzeigt, wenn die Option „Bild > Alles ein­blen­den“ genutzt wird. Zusätzlich gibt es eini­ge Auswahlmöglichkeiten wie z.B. „Gesichtsdaten ver­bes­sern“ und „JPG Artefakte reduzieren“:

Photoshop Neural Filter „Superzoom“ mit „Gesichtsdaten ver­bes­sern“ und „JPG Artefakt-​Reduzierung“ aktiv

Das Ergebnis sieht schon bes­ser als mit der alten Photoshop-​Methode aus und ran­giert damit im obe­ren Mittelfeld. Für die Top-​Liga sind die Bereiche wie Haare oder Wimpern noch etwas zu matschig.

Außerdem bie­tet Adobe in Lightroom oder Camera Raw die „Verbessern“-Option, wel­che eben­falls hoch­ska­liert, aber nur bei Raw-​Dateien funk­tio­nie­ren soll.

4. Luminar Neo

Luminar Neo Hochskalieren 4x

Luminar Neo ist, ähn­lich wie Topaz Labs, ein wei­te­res KI-​gestütztes Tool-​Kit für die Fotobearbeitung mit vie­len Funktionen. Getestet wur­de hier mit der Version 1.14.1.12230 im Upscale Type „Universell“.

Gefühlt wür­de ich sagen, dass das Ergebnis irgend­wo zwi­schen Midjourney und Topaz liegt. Die Details sind etwas grö­ber als bei den ande­ren bei­den Upscalern, die Haut weich­ge­zeich­ne­ter als bei Topaz, aber weni­ger als bei Midjourney.

Luminar Neo Hochskalieren 4x + Gesichtsverstärker AI

Es gibt bei der Hochskalieren-​Funktion noch das optio­na­le Häkchen „Gesichtsverstärker AI“, wel­ches jedoch schlicht gesagt (bis­her) grau­sa­me Ergebnisse lie­fert. Es sieht so aus als wür­de hier ein Geisterbild über dem ande­ren lie­gen. Kurz: Finger weg von dem Häkchen.

Die Kosten von Luminar Neo lie­gen bei 219 Euro für die lebens­lan­ge Nutzung, es gibt aber auch Abo-​Modelle ab 11,95 Euro/​Monat, was sich gut zum Testen eig­net. Dafür bekommt man aber nicht nur die Hochskalieren-​Funktion, son­dern ein brei­tes Bündel an Werkzeugen wie Entrauschen, Schärfen, Lichtmanipulationen, und vie­les mehr. Die Handhabung mit dem sepa­ra­ten Installieren der ver­schie­de­nen Plugins fin­de ich jedoch nicht ganz intuitiv.

5. Pixelcut

Pixelcut ist ein kos­ten­lo­ser Online-​Upscaler, wel­cher bequem via Drag & Drop funktioniert.

Pixelcut Upscaler 4x

Das Ergebnis ist rela­tiv grob, aber bes­ser als Photoshop. Dafür sind die Kosten gleich null. Für Gelegenheitsnutzer also sehr praktisch.

Es ist auch eine Batch-​Nutzung mög­lich, die dann jedoch im „Pixelcut Pro“ 9.99 USD pro Monat oder 59.99 USD im Jahr kos­tet. Dafür ist dann auch eine iPhone/​Android-​App-​Nutzung ent­hal­ten und unbe­grenz­te Hintergrundentfernung.

6. Neural.love

Neural.love ist ein online-​basierter AI-​gestützter HD Portrait-​Generator, der als Leserhinweis sei­nen Eingang in die­sen Test fand.

Der Leistungsumfang reicht von der direk­ten KI-​Bilderstellung über Image-​to-​Image Bildremixe, Portraitrestaurierungen etc. und eben auch ein Upscaler namens „Image Enhance/​Quality Enhance“.

Neural.love Upscaler 4x

Das Ergebnis ist etwas detail­lier­ter als bei Pixelcut, reicht aber von der Schärfe nicht an Topaz oder Midjourney heran.

Neural.love Upscaler 4x + Smart Noise

Es gibt noch die Option, „Smart Noise“ zu akti­vie­ren, was – wie der Name schon ver­mu­ten lässt – ein fei­nes Rauschen über das Bild liegt. In der 100%-Ansicht ist das recht auf­fäl­lig, beim Rauszoomen ist der Eindruck aber posi­ti­ver als ohne das Rauschen.

Das Online-​Tool erfor­dert eine Registrierung per Email und arbei­tet mit einem Credit-​System für die Kosten. Die ers­ten fünf Credits sind frei (also 5x Upscaling), danach kön­nen 300 Credits im Abo für 30 Euro/​Monat oder zeit­lich unbe­grenzt für 57 Euro gekauft wer­den. Das wären dann 10 bzw. 19 Cent pro Upscale.

7. Upscale.media

Upscale.media ist ein wei­te­rer Online-​Upscaler auf Credit-Basis:

Upscale.media 4x Upscaler

Das Ergebnis ran­giert soli­de im Mittelfeld und ist schon gut brauchbar.

Upscale.media 4x Upscaler + Qualität verbessern

Es gibt auch die Option, ein Häkchen bei „Qualität ver­bes­sern“ zu set­zen, doch das scheint das Gegenteil zu bewir­ken. Das Bild ver­liert an Details und die Konturen wer­den unna­tür­lich stark betont. Würde ich nicht empfehlen.

Kosten? Pro Tag sind zwei Uploads ohne Registrierung kos­ten­los mög­lich, nach Registrierung gibt es fünf kos­ten­lo­se Uploads. 100 Credits kos­ten im Abo 19 USD bzw. zeit­lich unbe­grenzt 49 USD, was 19 US-​Cent bzw. 49 US-​Cent pro Upscaling entspricht.

8. Stable Diffusion Upscaler

Auch im quell­of­fe­nen KI-​Generator Stable Diffusion gibt es gleich meh­re­re Upscaler. Hier öff­net sich aber auch die Büchse der Pandora, weil es neben den sie­ben ver­schie­de­nen Upscalern, die im Web-​UI von Automatic111 dabei sind, noch unzäh­li­ge wei­te­re gibt, die auch jeweils noch vie­le ver­schie­de­ne Settings haben.

Allein in der Datenbank OpenModelDB fin­den sich unter „General Upscaler“ 66 ver­schie­de­ne Modelle, die kos­ten­los her­un­ter­ge­la­den und instal­liert wer­den kön­nen und alle ihre Stärken und Schwächen haben.

Um die Sache noch kom­ple­xer zu machen, kön­nen Bilder auch mit­tels der „IMG2IMG“-Methode hoch­ska­liert wer­den, wobei hun­der­te ver­schie­de­ne KI-​Modelle zur Auswahl stehen.

Deshalb habe ich hier nur mal einen inter­nen Upscaler getes­tet, den Upscaler „ESRGAN_​4x“ mit einer GFPGAN visi­bi­li­ty von 0.5.

Stable Diffusion Upscaler ESRGAN_​4x (GFPGAN visi­bi­li­ty 0.5)

Das Ergebnis ist ca. dop­pelt so gut wie die Photoshop-​Methode, aber sicht­bar schlech­ter als die meis­ten ande­ren Upscaler im Test.

Dazu kommt, dass die Geschwindigkeit des Skalierens ganz stark von der lokal ver­wen­de­ten Hardware abhängt. Mit einer RTX 2080-​Grafikkarte dau­er­te das Hochskalieren über 15 Minuten. Wer die Settings noch etwas mehr hoch­dreht, muss expo­nen­ti­ell län­ger warten.

Auch die Bedienung gestal­tet sich kom­plex, da die Modelle gefun­den und run­ter­ge­la­den wer­den müs­sen und für die ver­schie­de­nen Settings kei­ne Anleitung exis­tiert. Ihr wer­det also auf etli­chen Webseiten rum­sur­fen, um euch die emp­foh­le­nen Einstellungen zusam­men­zu­su­chen.
Dafür sind die Kosten fast Null, da alle benö­tig­ten Tools kos­ten­los erhält­lich sind. Ihr zahlt also nur für euren Strom.

Wer mehr Stable Diffusion Upscaler im Vergleich sehen will, fin­det hier einen ähn­li­chen Test.

9. ChaiNNer Upscaler

ChaiNNer ist ein wei­te­rer Tipp aus den Kommentaren. Das ist ein OpenSource-​Projekt, wel­ches ursprüng­lich als KI-​Upscaler gestar­tet ist, mitt­ler­wei­le aber sehr umfang­rei­che Bildverarbeitungsfunktionen bietet.

ChaiNNER ist node-​basiert, was sehr unge­wohnt ist, für die, die es nicht ken­nen, aber wer das Prinzip ver­stan­den hat, kann auf die­se Weise sehr kom­ple­xe Workflow-​Ketten auf­bau­en, die dann mit einem Klick abge­ar­bei­tet wer­den. Der Workflow für das ein­fa­che Hochskalieren sieht dann so aus:

ChaiNNer-​Upscaling-​Workflow (Klicken zum Vergrößern)

Das Programm ist noch in der Alpha-​Phase (ich habe v0.20.2 genutzt) und kos­ten­los für Windows, Mac und Linux erhält­lich. Die Installation erfor­dert etwas Zeit, ist aber in der GitHub-​Anleitung gut beschrieben.

ChainNNer selbst ist genau genom­men gar kein Upscaler, son­dern dient als GUI (gra­fi­sche Benutzeroberfläche) für ande­re OpenSource-​Upscaler auf PyTorch-​Basis. Das heißt, fast alle Upscaler die bei Stable Diffusion inte­griert wer­den kön­nen, sind auch in ChaiNNer nutz­bar. Wie im Bereich „Stable Diffusion“ erwähnt, ste­hen euch also min­des­tens 66 ver­schie­de­ne Möglichkeiten zur Verfügung.

ChaiNNer 4x Upscaler mit Model „Remacri“

Getestet habe ich ChaiNNer mit dem belieb­ten „Remacri“-Modell, wel­ches eine über­zeu­gen­de Kombination aus Schärfe und Struktur lie­fert. Ebenfalls nicht ganz so gut wie Topaz oder Midjourney, dafür kos­ten­los und see­ehr flexibel.

ChaiNNer 4x Upscaler mit Model „UniScale-​Balanced“

Ich habe noch ein wei­te­res Modell getes­tet, das „UniScale-​Balanced“ auf Basis der ESRGAN-​Architektur. Das schnitt jedoch deut­lich schlech­ter ab als „Remacri“.

Noch mal zum Verständnis: In Stable Diffusion und ChaiNNer kön­nen die glei­chen Upscaler-​Modelle ein­ge­setzt wer­den, bei mir lief die Verarbeitung jedoch deut­lich schnel­ler bei ChaiNNer. Dafür gibt es bei Stable Diffusion etwas mehr Einstellmöglichkeiten, die ich auf die Schnelle nicht bei ChaiNNer gefun­den habe.

Das Resultat

Es gibt noch unzäh­li­ge wei­te­re Tools, vor allem online, aber die meis­ten davon ran­gie­ren im Mittelfeld und sind preis­lich ähn­lich angesiedelt.

Von der Bildqualität liegt Midjourney aktu­ell mei­ner Meinung nach stark vor­ne, hat eben aber den gra­vie­ren­den Nachteil, dass damit nur Midjourney-​Bilder hoch­ska­liert wer­den kön­nen. Auch preis­lich ist Midjourney kein Zuckerschlecken, wenn man nicht gera­de eh Stunden übrig hat in deren Abo-Modell.

Für Power-​User, die mehr als 1000 Bilder hoch­ska­lie­ren wol­len, bleibt die Wahl zwi­schen Topaz Photo AI und Luminar Neo preis­lich die bes­se­re Wahl, wobei Topaz in der Bedienung wegen der Automatisierungsmöglichkeiten etwas die Nase vorn hat.

Insgesamt ist die Qualität aber auch sub­jek­tiv behaf­tet und kann sich je nach Motiv oder mit einem Update eines Tools auch wie­der ändern.

Bei den gan­zen, teils kos­ten­lo­sen, Online-​Upscalern soll­tet ihr auch beden­ken, dass ihr eure Daten in frem­de Hände gebt und dem Anbieter ver­trau­en soll­tet, damit ver­trau­lich umzu­ge­hen. Vermutlich wer­den auch die meis­ten die­ser Anbieter unter der Haube eines der unzäh­li­gen OpenSource-​Upscaler lau­fen haben.

Welchen Upscaler nutzt ihr aktu­ell und wel­ches Ergebnis hat euch hier am meis­ten überzeugt?

Die Community-​Test-​Erweiterung

Wer den Test mit eige­nen Modellen oder ande­ren Anbietern erwei­tern will, hat in die­sem Artikel alle not­wen­di­gen Grundlagen: Das 1024x1024-​Ausgangsbild steht oben zum Download zur Verfügung sowie die Photoshop-​Datei mit den Ebenen der Upscaler und der Pfad-​Auswahl für die Ausschnittvergrößerung.

Ihr könnt also ger­ne wei­te­re Methoden tes­ten und das Ergebnis ger­ne in den Kommentaren pos­ten (Bilder bit­te als Link).

Instagram-​Account automatisiert mittels KI betreiben (ein Selbstexperiment)

Mein Instagram-​Account @rkneschke besteht seit über zehn Jahren, aber bis­her habe ich ihn eher stief­müt­ter­lich behandelt.

Zu sehen gab es dort auch fast nie Auszüge mei­ner pro­fes­sio­nel­len Arbeit, son­dern eher Bilder, die pri­vat enstan­den sind, ein Sammelsurium aus abs­trak­tem Minimalismus, Food, Landschaften, Konzertfotos und Drohnenaufnahmen (bis ich die­se geschrot­tet habe).

Aktueller Screenshot von mei­nem Instagram-Account

Seit ich mich vor einem Jahr stark auf die Bilderstellung mit­tels gene­ra­ti­ver KI fokus­siert habe, stand die Frage im Raum, ob die­se beein­dru­cken­den KI-​Bilder sich eig­nen wür­den, um damit – mehr oder weni­ger auto­ma­ti­siert – Social-​Media-​Accounts zu betreiben.

Da mein Instagram-​Kanal sowie­so nur spo­ra­disch gefüllt wur­de von mir, habe ich vor drei Monaten ein Experiment gestartet.

Der Aufbau vom Instagram-KI-Experiment

Ich habe mei­nen Instagram-​Kanal seit dem 16.4.2023 aus­schließ­lich mit kom­plett KI-​generierten Inhalten gefüllt. Das Ganze soll­te mög­lichst zeit­spa­rend von­stat­ten gehen, mein Ablauf war daher:

  1. Die Text-​KI ChatGPT nach einem Haufen tren­di­ger Instagram-​Motive fragen.
  2. Diese Motive auto­ma­ti­siert per Bild-​KI Midjourney in Bilder umwan­deln lassen.
  3. Die schöns­ten Bilder raus­su­chen und unbe­ar­bei­tet zu Instagram hochladen.
  4. Die Bildbeschreibung und Hashtags auto­ma­ti­siert durch ChatGPT gene­rie­ren las­sen basie­rend auf der Bildbeschreibung, die in Schritt 1 gene­riert wurde.
  5. Optional: Um noch mehr Zeit zu spa­ren, ab und zu eini­ge Instagram-​Beiträge im Voraus mit der Instagram-​App pla­nen.

Alle KI-​Bilder wur­den in den Hashtags und der Bildbeschreibung als sol­che ausgewiesen.

Das Ziel vom Experiment

Ich woll­te mit dem Experiment tes­ten, was mit mei­nem Instagram-​Account pas­siert, wenn ich die­sen kom­plett auf KI-​basierte Bilder umstelle.

  • Werde ich Follower gewin­nen oder verlieren?
  • Wird sich mei­ne Reichweite erhö­hen oder verringern?
  • Spare ich Zeit mit die­ser Art der Content-Erstellung?
  • Wie reagie­ren mei­ne bis­he­ri­gen Follower?

Die Ergebnisse in Zahlen

Das Wichtigste zuerst. Wie ihr an der Übersicht in den Instagram-​Insights sehen könnt, lie­gen alle Messwerte im grü­nen Bereich.

Begonnen habe ich das Experiment Mitte April 2023 mit 1216 Followern, aktu­ell lie­ge ich bei 1227, das ent­spricht einem Plus von 0,9%. Nicht viel, aber immer­hin kein Verlust.

Ich konn­te 634% mehr Konten errei­chen und 478% mehr Konten haben mit mei­nem Kanal inter­agiert. Dazu muss ich jedoch fai­rer­wei­se sagen, dass ich im Vergleichszeitraum der drei Monate vor­her (also Januar bis April 2023) nur ein Bild gepos­tet hat­te, die­se Werte also viel höher als nor­mal ausfallen.

Wie ihr am obi­gen Diagramm sehen könnt, ist auch die Zahl der Nicht-​Follower rela­tiv hoch, auf jeden Fall deut­lich höher als vor dem Experiment. Das liegt ver­mut­lich dar­an, dass ich durch die vie­len neu­en ver­schie­de­nen Motive auch ganz unter­schied­li­che Hashtags anbrin­gen konn­te, die außer­halb mei­ner „Instagram-​Follower-​Bubble“ lagen.

Was jedoch auf jeden Fall stark gefal­len ist, ist die Zeit, die ich zur Erstellung eines Posts benö­tig­te. In den 10 Jahren zuvor, habe ich ca. 55 Bilder pro Jahr hoch­ge­la­den, also gut ein Bild pro Woche. Im Experimentzeitraum habe ich allein fast 60 Bilder hoch­ge­la­den, also ca. 5 pro Woche.

Die Kommentare zu den Bildern waren gemischt. Einige posi­tiv, eini­ge kri­tisch, aber ins­ge­samt alles im Rahmen. Ich ver­mu­te, dass die radi­ka­len KI-​Gegner schnell ihr Abo gekün­digt haben, dafür jedoch eini­ge neue Fans dazu gekom­men sind.

Wer an der genaue­ren Entwicklung des Kanals inter­es­siert ist, kann sich die Statistiken hier bei Social Blade anschauen:

Persönliche Anmerkungen und Fazit

Ich hat­te ehr­lich gesagt schlim­me­re Ergebnisse befürch­tet und dach­te, dass viel­leicht vie­le mei­ner Fans, die eher aus dem Fotografie-​Lager kom­men, ange­sichts die­ser KI-​Bilder-​Flut frus­triert sind und davonlaufen.

Das hat sich zum Glück nicht bewahr­hei­tet und die leich­ten Verluste konn­ten durch neue KI-​Fans mehr als aus­ge­gli­chen werden.

Insgesamt ist das Experiment natür­lich wis­sen­schaft­lich gese­hen kaum halt­bar, da zum Beispiel der Vergleichszeitraum vor­her nicht reprä­sen­ta­tiv ist. Da hat­te ich fast nichts gepos­tet, wes­halb die Engagement-​Rate logi­scher­wei­se auf einem sehr nied­ri­gen Level lag.

Auch die Bildauswahl ist eher zufäl­lig. Ich habe vie­le atem­be­rau­ben­de Naturbilder, eini­ge Menschenbilder und nied­li­che Tiermotive gepos­tet. Alles quer durch den Gemüsegarten. Vermutlich ist das für den Aufbau einer spe­zi­el­len Zielgruppe eher unpas­send, aber da ich auch vor­her eher moti­visch gese­hen Querbeet unter­wegs war, passt das hier.

Interessant fand ich die Möglichkeit, mit­tels neu­er Motive und die ent­spre­chen­den Hashtags ganz ande­re Zielgruppen anspre­chen zu kön­nen, wel­che mir bis­her noch nicht folgen.

Das ist sicher für Accounts, wel­che pro­fes­sio­nel­le Ziele ver­fol­gen und ihre Reichweite erhö­hen wol­len, ein sehr span­nen­der Aspekt.

Beeindruckend war und ist aber auch das Zusammenspiel von ChatGPT und Midjourney, wel­ches die Zeit für die Content-​Erstellung stark redu­ziert hat, was natür­lich die Motivation erhöht, über­haupt mehr zu posten.

Wie geht es weiter?

Ich wer­de auf mei­nem Instagram-​Kanal wei­ter KI-​Inhalte pos­ten. Ob ich inhalt­lich mich mehr auf bestimm­te Motive kon­zen­trie­re oder ein­fach die Bilder zei­ge, die mir gefal­len, muss ich noch ent­schei­den. Wer es direkt wis­sen will, folgt bit­te am bes­ten ein­fach mei­nem Instagram-​Account @rkneschke hier.

In der Zwischenzeit habe ich heu­te für mein Seitenprojekt „www.eis-machen.de“ eben­falls einen Instagram-​Account gestar­tet. Unter @eiscremeparty wer­de ich nur KI-​Bilder zum Thema Eiscreme pos­ten. Wer dar­an Interesse hat, kann dem Kanal eben­falls ger­ne folgen.

Was sagt ihr?
Was könn­te ich noch testen?

DALL- E, Midjourney und Co.: Sind künstlich erzeugte Bilder auf dem Bildermarkt handelbar? Vortrag mit Sebastian Deubelli auf dem PICTAday am 30.03.2023

Am Donnerstag, den 30.03.2023 fin­det der dies­jäh­ri­ge PICTAday in der Alten Kongresshalle in München statt von 10–18 Uhr.

Der PICTAday ist eine ein­mal jähr­lich statt­fin­den­de Networking-​Veranstaltung des renom­mier­ten Branchenverbandes BVPA und fei­ert die­ses Jahr sein 20-​jähriges Bestehen.

Beim PICTAday kön­nen sich Bildagenturen und Dienstleister den Bildeinkäufern prä­sen­tie­ren und letz­te­re sich über Neuigkeiten in der Agenturlandschaft und dem Bildermarkt infor­mie­ren. Der Eintritt ist für Bildeinkäufer kostenfrei.

Auf dem PICTAday fin­den auch die PICTAtalks statt, wo namen­haf­te Branchenexperten neue Impulse zu aktu­el­len Entwicklungen der Bilderbranche und einen Einblick in ihre täg­li­che Arbeit geben.

Von 15–15:45 Uhr wer­de ich dort zusam­men mit dem Fachanwalt für Urheber- und Medienrecht, Sebastian Deubelli von der SLD Intellectual Property Rechtsanwaltsgesellschaft über das Thema „DALL- E, Midjourney und Co.: Sind künst­lich erzeug­te Bilder auf dem Bildermarkt han­del­bar?“ dis­ku­tie­ren:

Die Qualität von künst­lich erzeug­ten Bildern wird bes­ser und bes­ser und stellt längst kein Hindernis für deren all­täg­li­chen Einsatz dar. Aus recht­li­cher Sicht ist vie­les aller­dings noch unklar. Der Talk beschäf­tigt sich ins­be­son­de­re mit der Frage, ob die recht­li­che Unklarheit dem gewohn­ten Handel mit Bildlizenzen im Weg steht und wel­che recht­li­chen aber auch prak­ti­schen Vorkehrungen hier getrof­fen wer­den sollten.“

Der PICTAday ist eine groß­ar­ti­ge Gelegenheit, um sich über die neu­es­ten Entwicklungen auf dem Bildermarkt zu infor­mie­ren, wert­vol­le Kontakte zu knüp­fen und an den hoch­ka­rä­ti­gen Vorträgen teilzunehmen. 

Wir freu­en uns auf eine span­nen­de Diskussion und hof­fen, euch am 30. März 2023 auf dem PICTAday in München zu tref­fen! Weitere Informationen zur Veranstaltung und zur Anmeldung sowie das Anmeldeformular fin­det ihr auf der Webseite des PICTAday.

Bildagenturen wie Shutterstock und Getty Images verbannen KI-​Bilder aus ihrem Portfolio

Kurz hin­ter­ein­an­der haben sowohl Shutterstock als auch Getty Images mit deren Tochter-​Agentur iStock ange­kün­digt, kei­ne KI-​Bilder mehr anneh­men zu wollen.

Ki-​Bild (Dall‑E 2) von einem Roboter, der ein Bild malt

Angesichts der stei­gen­den Popularität von KI-​Software zur Bild-​Generierung wie Dall‑E 2, Stable Diffusion, Midjourney und Konsorten sowie der ver­bes­ser­ten Bildqualität die­ser Tools gab es in den letz­ten Monaten einen star­ken Anstieg von KI-​Bildern im Portfolio von Bildagenturen.

Email, die an iStock/​Getty-​Fotografen ging

Nun haben zumin­dest die bei­den gro­ßen Platzhirsche Shutterstock und Getty Images die Reißleine gezo­gen und ange­kün­digt, kei­ne KI-​Bilder mehr anneh­men zu wollen.

Als Grund wer­den in einer Email von Getty Images „unadres­sier­te recht­li­che Fragen mit Hinblick auf die zugrun­de lie­gen­den Bilder und Metadaten, die zum Training der KI genutzt wor­den sind“ ange­ge­ben.

Auch Shutterstock for­mu­liert in einer Email an aus­ge­wähl­te Kontributoren ähn­li­che Bedenken:

Email von Shutterstock an eini­ge Kontributoren

Hier wer­den „recht­li­che Implikationen“ als Grund dafür genannt, dass etli­che KI-​Bilder der ange­schrie­be­nen Personen gelöscht wur­den und es wird geschrie­ben, dass Shutterstock „kei­ne maschi­nen­ge­ne­rier­ten Inhalte akzep­tie­ren“ wür­de gemäß Sektion 13.d/f ihrer Nutzungsbedingungen.

Ich bin mir zwar nicht ganz sicher, ob sie da wirk­lich die rich­ti­gen Absätze raus­ge­sucht haben, aber grund­sätz­lich steht es Shutterstock natür­lich frei, sol­che Regeln auf­zu­stel­len, wenn sie der Meinung sind, dass sie hilf­reich seien.

Zeitgleich expe­ri­men­tiert Shutterstock aber selbst schon mit künst­li­cher Intelligenz. So bie­tet deren neu­es Projekt „Predict“ Kunden die Möglichkeit, mit­tels KI erken­nen zu kön­nen, wel­che Bilder für wel­che Zwecke am pas­sends­ten sein sol­len. Shutterstock schreibt:

Was per­formt bes­ser?
Diese wie­der­keh­ren­de Frage ist mit Predict viel ein­fa­cher zu beant­wor­ten. Die App nutzt KI, um die Stärken und Schwächen indi­vi­du­el­ler Assets spe­zi­ell für Ihre Anforderungen zu ana­ly­sie­ren. Predict sagt Ihnen, WARUM ein emp­foh­le­ner Inhalt vor­aus­sicht­lich gut per­formt, damit Sie selbst­be­wusst krea­tiv wer­den können.“

Nach einer kos­ten­lo­sen Testphase wol­len sie sich die­se Informationen natür­lich bezah­len lassen.

Getty Images ver­sucht eben­falls seit Januar 2022, die Vorteile der KI für sich auf eine ande­re Weise zu nut­zen. So ver­öf­fent­lich­te die Agentur einen neu­en Modelvertrag, der jetzt unter ande­rem einen neu­en Passus ent­hält, mit dem sich das Model bereit erklärt, dass die Bilder zum Trainieren von Künstlicher Intelligenz genutzt wer­den dürfen:

Ich erklä­re mich fer­ner damit ein­ver­stan­den, dass der Inhalt mit ande­ren Bildern, Texten, Grafiken, Filmen, Audio- und audio­vi­su­el­len Werken kom­bi­niert und zur Entwicklung und Verbesserung von maschi­nel­len Lernalgorithmen, künst­li­cher Intelligenz und ande­ren Technologien bear­bei­tet und genutzt wer­den darf.“

Auch bei der deut­schen Bildagentur Westend61 wer­den die KI-​Bilder als hoch pro­ble­ma­tisch ange­se­hen und aus recht­li­chen Gründen soll­ten die­se momen­tan nicht akzep­tiert wer­den. Mehr Informationen dazu sol­len folgen.

Einige Online-​Kunst-​Communities wie Newgrounds, Inkblot Art und Fur Affinity haben eben­falls das Hochladen von KI-​Werken unter­sagt oder ein­ge­schränkt.

Währenddessen arbei­tet die bri­ti­sche Gesetzgebung schon an Änderungen, um den neu­en KI-​Entwicklungen Rechnung zu tragen.

Diese Bildlöschungen fol­gen eini­ge Wochen nach der Veröffentlichung eines Teils des KI-​Trainings-​Datensatzes mit rund 12 Mio. Bildern von den ins­ge­samt über 2,3 Milliarden Trainingsbildern. Dieser Trainingsdatensatz der Organisation LAION wur­de zum Beispiel für das Anlernen der KI von NightCafe, Midjourney und Stable Diffusion genutzt.

In der Veröffentlichung wur­de unter ande­rem deut­lich, dass zum Lernen auch gro­ße Bildbestände der Bildagenturen benutzt wur­den. So waren von den aus­ge­wer­te­ten 12 Mio. Bildern min­des­tens 497.000 von 123rf, 171.000 von Adobe Stock/​Fotolia, 117.000 von PhotoShelter, 35.000 von Dreamstime, 23.000 von iStock, 22.000 von Unsplash, 15.000 von Getty Images, 10.000 von VectorStock, 10.000 von Shutterstock und so wei­ter. Die Dunkelziffer dürf­te hier weit höher sein, da vie­le dort gekauf­te Bilder auf Kundenwebseiten nicht immer als von einer Agentur kom­mend erkenn­bar sind.

Ich bin unsi­cher, ob die­se Entscheidung so klug ist. Denn sol­che Verbote könn­ten dazu füh­ren, dass sich die KI-​Szene ande­re „Ökosysteme“ auf­baut. So gibt es bei­spiels­wei­se mit PromptBase schon eine Webseite, wo Anbieter auf einem Marktplatz „Prompts“ für KI-​Systeme ver­kau­fen kön­nen. Prompts sind die Texteingaben, die zur Bilderstellung (noch) nötig sind und die Anbieter garan­tie­ren mit ihren Prompts ähn­li­che Ergebnisse wie die, die sie im Marktplatz vor­zei­gen. Im Kern ist das schon eine Art neu­er Bildagentur, bei der die Leute nicht die Bilder direkt kau­fen, son­dern die Option, sich sehr ähn­li­che Bilder selbst gra­tis gene­rie­ren zu können.

Außerdem erhö­hen sol­che Einschränkungen wie das Verbot von KI-​Bildern in den bestehen­den Bildagenturen nur die Wahrscheinlichkeit, dass ein neu­es Start-​Up eine neue Bildagentur auf­macht, wel­che offen­siv ein­fach nur noch KI-​generiertes Material verkauft.

Mit der Webseite Lexica gibt es auch schon eine Art „Open Source“-Community für KI-​Bilder, wo Nutzer sich meh­re­re Millionen mit Stable Diffusion erstell­te Bilder anschau­en, durch­su­chen und sehen kön­nen, wel­che Prompts zur Erstellung genutzt wur­den. Von der Möglichkeit, die­se Bilder direkt zur Lizenzierung anzu­bie­ten, ist es dann nur noch ein klei­ner Schritt.

Während die gro­ßen Bildagenturen einen Abwehrkampf gegen die KI-​Bilder begin­nen, fan­gen ande­re Start-​Ups längst an, mit­tels KI aus Text-​Prompts gan­ze Video-​Sequenzen zu erstel­len.

Was die­se KI-​Entwicklung für die (Stock-)Fotografen selbst bedeu­tet, wer­de ich hof­fent­lich bald in einem eige­nen Artikel beleuchten.

Wie seht ihr das?
Bringen Verbote von KI-​Bildern etwas?