Schlagwort-Archive: Test

Der große KI-​Upscaler-​Test: Vergleich von Bildqualität, Kosten und mehr

Was ist der aktu­ell bes­te KI-​Upscaler?
Vor weni­gen Tagen hat die KI-​Firma Midjourney einen neu­en Upscaler ver­öf­fent­licht, der deren KI-​Bilder um den Faktor 2 oder 4 ver­grö­ßern kann.

Da ich bis­her ein ande­res Tool genutzt habe, woll­te ich her­aus­fin­den, wie sich die Bildqualität unter­schei­det. Wo ich schon dabei war, habe ich noch paar ande­re Upscaler ver­gli­chen und die Ergebnisse bei Facebook und LinkedIn gepos­tet. Da gab es in den Kommentaren noch wei­te­re Vorschläge, wel­che Upscaler ich berück­sich­ti­gen sollte.

Na gut, dach­te ich mir, dann zie­he ich das eben grö­ßer auf und ver­öf­fent­li­che hier einen umfas­sen­den Test über die Bildqualität und Unterschiede der aktu­ell auf dem Markt erhält­li­chen Upscaler.

Alle Testausschnitte im direk­ten Vergleich (Klicken zum Vergrößern)

Der Testaufbau und das Ausgangsbild

Ich habe mir mit dem KI-​Tool Midjourney ein qua­dra­ti­sches PNG-​Bild einer blon­den Frau gene­rie­ren las­sen mit der Auflösung 1024x1024 Pixel (1,05 Megapixel):

Das Testbild

Dieses Bild habe ich dann mit ver­schie­de­nen Methoden um den Faktor 4 auf 4096x4096 Pixel (16,7 Megapixel) ver­grö­ßern lassen.

Da die Beurteilung der Ergebnisse sub­jek­tiv gefärbt ist und jeder ande­re Maßstäbe an sei­ne Bilder anlegt, ver­öf­fent­li­che ich hier auch die PSD-​Datei der ver­schie­de­nen Ergebnisse als Download, jede Ebene ist sau­ber nach der genutz­ten Upscaler-​Methode benannt.

DOWLOAD-​Link (Dropbox) als gepack­te .rar-​Datei (ACHTUNG: Datei ist 610 MB groß, ent­packt dann 889 MB!) BACKUP-​Link (Wetransfer).

Damit kann jede*r durch das Ein- und Ausblenden der Ebenen in der 100%-Ansicht selbst ent­schei­den, wel­ches Ergebnis ihm/​ihr am meis­ten zusagt.

Für die­sen Blogartikel habe ich einen Bereich des lin­ken Auges aus­ge­schnit­ten, damit hier die 100%-Ansicht (500x500 Pixel) gezeigt wer­den kann. Die Ausschnitte habe ich sau­ber benannt und als JPG (Qualität 10) abge­spei­chert. Der Ausschnitt ist in der Photoshop-​Datei auch als Pfad hinterlegt.

Der große Upscaler-​Test: Die Ergebnisse

1. Midjourney Upscaler

Beginnen wir mit dem Upscaler von Midjourney. Obwohl die­ser erst weni­ge Tage alt ist, gibt es schon zwei Versionen und Midjourney behält sich vor, den Upscaler auch in Zukunft zu verändern/​verbessern:

The ups­ca­ler is subt­le and tri­es to keep details as clo­se as pos­si­ble to the ori­gi­nal image (but may not fix glit­ches or issues with the old image)“

Midjourney Upscaler 4x V1 (18.10.2023)

Die ers­te Version (V1) des Midjourney-​Upscaler bügel­te die Hauttextur ziem­lich glatt, das gan­ze Bild wirkt ins­ge­samt sehr nach 1980er-Jahre-Airbrush-Retusche.

Das Entwickler-​Team nahm sich die Kritik der Community jedoch zu Herzen und schob zwei Tage spä­ter das ers­te Update hinterher:

We’re […] hea­ring everyone’s feed­back that the 4x ups­ca­ler is a bit soft and we’­re loo­king at impro­ve­ments which may fur­ther impro­ve things. This means the ups­ca­ler set­tings may chan­ge sud­den­ly over the next week wit­hout war­ning as we tweak things.
[…]
The V5 4x Upscale now fea­tures impro­ved sharp­ness, and in some cases smal­ler sca­le high fre­quen­cy details“

Dadurch sieht das Ergebnis deut­lich bes­ser aus, die Haare und Wimpern sehen täu­schend echt aus und auch die Hauttextur kann überzeugen:

Midjourney Upscaler 4x V2 (20.10.2023)

Der ers­te gro­ße Nachteil die­ses Upscalers ist logi­scher­wei­se, dass er nur auf KI-​Bilder anwend­bar ist, die direkt in Midjourney erstellt wurden.

Ein wei­te­rer Punkt sind die Kosten: Der 4x Upscaler kos­tet grob 6x soviel GPU-​Minuten wie die Generierung eines 4x4-​Bilder-​Grids. Diese Zeit wird von dem bezahl­ten Minutenkontingent abge­zo­gen, wel­ches die Nutzer je nach Abomodell zur Verfügung haben. Im Standard-​Plan sind das zum Beispiel 15 Stunden pro Monat.

Eine Stunde Rechenzeit kann aktu­ell für 4 USD dazu gekauft wer­den. Ich habe mal geschaut, wie viel Zeit für ein 4x-​Upscale von Midjourney berech­net wird. Beim obi­gen Bild waren das ca. 3 Minuten. Mit einer Stunde Rechenzeit könn­ten damit 20 Bilder hoch­ska­liert wer­den. Bei Kosten von 4 USD/​Stunde wür­de ein Upscale ca. 20 US-​Cent kos­ten. Wer die inklu­si­ven Stunden im Standard- oder Pro-​Plan nutzt, zahlt nur die Hälfte.

2. Topaz Photo AI

Der Upscaler von Topaz Labs war unse­re bis­he­ri­ge bevor­zug­te Upscale-​Methode. Getestet haben wir hier mit der Version 2.0.5.
Topaz Photo AI ist ein recht neu­es Tool, mit dem ver­schie­de­ne KI-​basierte Werkzeuge wie Topaz Gigapixel, Topaz Sharpen etc. zusam­men­ge­fasst wurden.

Topaz Photo AI V2 Upscaler 4x

Die Ergebnisse sehen sehr über­zeu­gend aus, vor allem die Hauttextur ist sehr rea­lis­tisch, die Details wie Wimpern und Haare sind jedoch etwas gröber.

Topaz hat auch eine Funktion namens „Recovering Face“, womit laut Hersteller die Ergebnisse von Gesichtern in gerin­ger bis mitt­le­rer Auflösung deut­lich ver­bes­sert wer­den kann:

Recover Faces dra­ma­ti­cal­ly impro­ves low-​medium qua­li­ty faces.“

Es gibt einen Regler, der stu­fen­los von 0 bis 100% ein­ge­stellt wer­den kann. Bei 25% sieht das Ergebnis so aus:

Topaz Photo AI V2 Upscaler 4x + 25% Recovering Face

Ich fin­de, dass das Gesicht dadurch ein­fach mat­schi­ger wird. Dieser Effekt nimmt mit der Stärke der Recover-​Funktion zu, bei 100% ist das Ergebnis deut­lich unbrauch­ba­rer als ganz ohne die Funktion. Vermutlich liegt das dar­an, dass die Bildqualität vom Ausgangsmaterial schon „zu gut“ für die­se Funktion ist, die der Verbesserung von „low qua­li­ty faces“ die­nen soll.

Ein wei­te­rer Vorteil von Topaz Photo AI ist, dass hier Bilder als Batch bear­bei­tet wer­den kön­nen und neben dem Hochskalieren im glei­chen Arbeitsgang wahl­wei­se auch geschärft, ent­rauscht, farb­lich ange­passt etc. wer­den können.

Mit 199 USD sind die Kosten initi­al recht hoch, dafür kön­nen damit unbe­grenzt Bilder bear­bei­tet wer­den und es gibt regel­mä­ßi­ge Updates. Für Vielnutzer preis­lich die bes­te Wahl. Weiterer Pluspunkt: Es gibt ein Photoshop-​Plugin.

3. Photoshop

Die frü­her übli­che und seit lan­gem ver­füg­ba­re Methode mit Photoshop-Bordmitteln war, ein­fach die Bildgröße hoch­zu­set­zen. Das Ergebnis, getes­tet mit Photoshop 2024 (V25.0), sieht dann so aus:

Photoshop-​Vergrößerung V25 (Berechnung: Automatisch)

Es ist damit sicht­bar mit Abstand das schlech­tes­te Ergebnis, was wenig ver­wun­dert, da hier noch kei­ne KI Hilfestellung leis­tet. Selbst mit dem bekann­ten Kniff, das Bild in 10%-Schritten hoch­zu­ska­lie­ren, war das Ergebnis nur mini­mal bes­ser und reicht trotz­dem nicht an die ande­ren Methoden heran.

In den Kommentaren zu mei­nem ers­ten Test gab es zwei Hinweise, wie ich die Ergebnisse ver­bes­sern könn­te. Der ers­te war, dass sich hin­ter dem Häkchen „Neu berech­nen“ noch eine Auswahlmöglichkeit für „Details erhal­ten 2.0“ verbirgt:

Photoshop-​Vergrößerung V25 (Berechnung: Details erhal­ten 2.0)

Das Ergebnis ist zwar „bes­ser“ und schär­fer, dafür aber mit sicht­ba­ren Artefakten über­sät. Wenn ich den Regler „Rauschen redu­zie­ren“ auf 50% set­ze, ver­schwin­den die Artefakte, aber das Bild sieht etwas weich­ge­zeich­net aus.

Kurz: Der schlech­tes­te Upscaler im Test. Es wun­dert mich etwas, dass hier die Adobe Sensei-​KI noch nicht Einzug gehal­ten hat, aber ver­mut­lich wird das ein Feature sein, was eher frü­her als spä­ter ver­öf­fent­licht wer­den wird.

Jemand mein­te noch, dass sich unter den „Neural Filters“ ein „Superzoom“-Filter ver­ber­ge. Das ist jedoch kein rich­ti­ger „Upscaler“, weil damit das Bild tat­säch­lich „ran­ge­zoomt“ wird, ich ver­lie­re also die Bildmotive am Rand.

Dafür sind die Kosten jedoch unschlag­bar, da jeder mit einem Photoshop-​Abo unbe­grenzt vie­le Bilder hoch­ska­lie­ren kann.

Kurzes Update 23.10.2023: (sam­ple images not included in down­load yet)
Einige Leser wie­sen mich dar­auf hin, dass die „Superzoom“-Funktion doch das gan­ze Bild anzeigt, wenn die Option „Bild > Alles ein­blen­den“ genutzt wird. Zusätzlich gibt es eini­ge Auswahlmöglichkeiten wie z.B. „Gesichtsdaten ver­bes­sern“ und „JPG Artefakte reduzieren“:

Photoshop Neural Filter „Superzoom“ mit „Gesichtsdaten ver­bes­sern“ und „JPG Artefakt-​Reduzierung“ aktiv

Das Ergebnis sieht schon bes­ser als mit der alten Photoshop-​Methode aus und ran­giert damit im obe­ren Mittelfeld. Für die Top-​Liga sind die Bereiche wie Haare oder Wimpern noch etwas zu matschig.

Außerdem bie­tet Adobe in Lightroom oder Camera Raw die „Verbessern“-Option, wel­che eben­falls hoch­ska­liert, aber nur bei Raw-​Dateien funk­tio­nie­ren soll.

4. Luminar Neo

Luminar Neo Hochskalieren 4x

Luminar Neo ist, ähn­lich wie Topaz Labs, ein wei­te­res KI-​gestütztes Tool-​Kit für die Fotobearbeitung mit vie­len Funktionen. Getestet wur­de hier mit der Version 1.14.1.12230 im Upscale Type „Universell“.

Gefühlt wür­de ich sagen, dass das Ergebnis irgend­wo zwi­schen Midjourney und Topaz liegt. Die Details sind etwas grö­ber als bei den ande­ren bei­den Upscalern, die Haut weich­ge­zeich­ne­ter als bei Topaz, aber weni­ger als bei Midjourney.

Luminar Neo Hochskalieren 4x + Gesichtsverstärker AI

Es gibt bei der Hochskalieren-​Funktion noch das optio­na­le Häkchen „Gesichtsverstärker AI“, wel­ches jedoch schlicht gesagt (bis­her) grau­sa­me Ergebnisse lie­fert. Es sieht so aus als wür­de hier ein Geisterbild über dem ande­ren lie­gen. Kurz: Finger weg von dem Häkchen.

Die Kosten von Luminar Neo lie­gen bei 219 Euro für die lebens­lan­ge Nutzung, es gibt aber auch Abo-​Modelle ab 11,95 Euro/​Monat, was sich gut zum Testen eig­net. Dafür bekommt man aber nicht nur die Hochskalieren-​Funktion, son­dern ein brei­tes Bündel an Werkzeugen wie Entrauschen, Schärfen, Lichtmanipulationen, und vie­les mehr. Die Handhabung mit dem sepa­ra­ten Installieren der ver­schie­de­nen Plugins fin­de ich jedoch nicht ganz intuitiv.

5. Pixelcut

Pixelcut ist ein kos­ten­lo­ser Online-​Upscaler, wel­cher bequem via Drag & Drop funktioniert.

Pixelcut Upscaler 4x

Das Ergebnis ist rela­tiv grob, aber bes­ser als Photoshop. Dafür sind die Kosten gleich null. Für Gelegenheitsnutzer also sehr praktisch.

Es ist auch eine Batch-​Nutzung mög­lich, die dann jedoch im „Pixelcut Pro“ 9.99 USD pro Monat oder 59.99 USD im Jahr kos­tet. Dafür ist dann auch eine iPhone/​Android-​App-​Nutzung ent­hal­ten und unbe­grenz­te Hintergrundentfernung.

6. Neural.love

Neural.love ist ein online-​basierter AI-​gestützter HD Portrait-​Generator, der als Leserhinweis sei­nen Eingang in die­sen Test fand.

Der Leistungsumfang reicht von der direk­ten KI-​Bilderstellung über Image-​to-​Image Bildremixe, Portraitrestaurierungen etc. und eben auch ein Upscaler namens „Image Enhance/​Quality Enhance“.

Neural.love Upscaler 4x

Das Ergebnis ist etwas detail­lier­ter als bei Pixelcut, reicht aber von der Schärfe nicht an Topaz oder Midjourney heran.

Neural.love Upscaler 4x + Smart Noise

Es gibt noch die Option, „Smart Noise“ zu akti­vie­ren, was – wie der Name schon ver­mu­ten lässt – ein fei­nes Rauschen über das Bild liegt. In der 100%-Ansicht ist das recht auf­fäl­lig, beim Rauszoomen ist der Eindruck aber posi­ti­ver als ohne das Rauschen.

Das Online-​Tool erfor­dert eine Registrierung per Email und arbei­tet mit einem Credit-​System für die Kosten. Die ers­ten fünf Credits sind frei (also 5x Upscaling), danach kön­nen 300 Credits im Abo für 30 Euro/​Monat oder zeit­lich unbe­grenzt für 57 Euro gekauft wer­den. Das wären dann 10 bzw. 19 Cent pro Upscale.

7. Upscale.media

Upscale.media ist ein wei­te­rer Online-​Upscaler auf Credit-Basis:

Upscale.media 4x Upscaler

Das Ergebnis ran­giert soli­de im Mittelfeld und ist schon gut brauchbar.

Upscale.media 4x Upscaler + Qualität verbessern

Es gibt auch die Option, ein Häkchen bei „Qualität ver­bes­sern“ zu set­zen, doch das scheint das Gegenteil zu bewir­ken. Das Bild ver­liert an Details und die Konturen wer­den unna­tür­lich stark betont. Würde ich nicht empfehlen.

Kosten? Pro Tag sind zwei Uploads ohne Registrierung kos­ten­los mög­lich, nach Registrierung gibt es fünf kos­ten­lo­se Uploads. 100 Credits kos­ten im Abo 19 USD bzw. zeit­lich unbe­grenzt 49 USD, was 19 US-​Cent bzw. 49 US-​Cent pro Upscaling entspricht.

8. Stable Diffusion Upscaler

Auch im quell­of­fe­nen KI-​Generator Stable Diffusion gibt es gleich meh­re­re Upscaler. Hier öff­net sich aber auch die Büchse der Pandora, weil es neben den sie­ben ver­schie­de­nen Upscalern, die im Web-​UI von Automatic111 dabei sind, noch unzäh­li­ge wei­te­re gibt, die auch jeweils noch vie­le ver­schie­de­ne Settings haben.

Allein in der Datenbank OpenModelDB fin­den sich unter „General Upscaler“ 66 ver­schie­de­ne Modelle, die kos­ten­los her­un­ter­ge­la­den und instal­liert wer­den kön­nen und alle ihre Stärken und Schwächen haben.

Um die Sache noch kom­ple­xer zu machen, kön­nen Bilder auch mit­tels der „IMG2IMG“-Methode hoch­ska­liert wer­den, wobei hun­der­te ver­schie­de­ne KI-​Modelle zur Auswahl stehen.

Deshalb habe ich hier nur mal einen inter­nen Upscaler getes­tet, den Upscaler „ESRGAN_​4x“ mit einer GFPGAN visi­bi­li­ty von 0.5.

Stable Diffusion Upscaler ESRGAN_​4x (GFPGAN visi­bi­li­ty 0.5)

Das Ergebnis ist ca. dop­pelt so gut wie die Photoshop-​Methode, aber sicht­bar schlech­ter als die meis­ten ande­ren Upscaler im Test.

Dazu kommt, dass die Geschwindigkeit des Skalierens ganz stark von der lokal ver­wen­de­ten Hardware abhängt. Mit einer RTX 2080-​Grafikkarte dau­er­te das Hochskalieren über 15 Minuten. Wer die Settings noch etwas mehr hoch­dreht, muss expo­nen­ti­ell län­ger warten.

Auch die Bedienung gestal­tet sich kom­plex, da die Modelle gefun­den und run­ter­ge­la­den wer­den müs­sen und für die ver­schie­de­nen Settings kei­ne Anleitung exis­tiert. Ihr wer­det also auf etli­chen Webseiten rum­sur­fen, um euch die emp­foh­le­nen Einstellungen zusam­men­zu­su­chen.
Dafür sind die Kosten fast Null, da alle benö­tig­ten Tools kos­ten­los erhält­lich sind. Ihr zahlt also nur für euren Strom.

Wer mehr Stable Diffusion Upscaler im Vergleich sehen will, fin­det hier einen ähn­li­chen Test.

9. ChaiNNer Upscaler

ChaiNNer ist ein wei­te­rer Tipp aus den Kommentaren. Das ist ein OpenSource-​Projekt, wel­ches ursprüng­lich als KI-​Upscaler gestar­tet ist, mitt­ler­wei­le aber sehr umfang­rei­che Bildverarbeitungsfunktionen bietet.

ChaiNNER ist node-​basiert, was sehr unge­wohnt ist, für die, die es nicht ken­nen, aber wer das Prinzip ver­stan­den hat, kann auf die­se Weise sehr kom­ple­xe Workflow-​Ketten auf­bau­en, die dann mit einem Klick abge­ar­bei­tet wer­den. Der Workflow für das ein­fa­che Hochskalieren sieht dann so aus:

ChaiNNer-​Upscaling-​Workflow (Klicken zum Vergrößern)

Das Programm ist noch in der Alpha-​Phase (ich habe v0.20.2 genutzt) und kos­ten­los für Windows, Mac und Linux erhält­lich. Die Installation erfor­dert etwas Zeit, ist aber in der GitHub-​Anleitung gut beschrieben.

ChainNNer selbst ist genau genom­men gar kein Upscaler, son­dern dient als GUI (gra­fi­sche Benutzeroberfläche) für ande­re OpenSource-​Upscaler auf PyTorch-​Basis. Das heißt, fast alle Upscaler die bei Stable Diffusion inte­griert wer­den kön­nen, sind auch in ChaiNNer nutz­bar. Wie im Bereich „Stable Diffusion“ erwähnt, ste­hen euch also min­des­tens 66 ver­schie­de­ne Möglichkeiten zur Verfügung.

ChaiNNer 4x Upscaler mit Model „Remacri“

Getestet habe ich ChaiNNer mit dem belieb­ten „Remacri“-Modell, wel­ches eine über­zeu­gen­de Kombination aus Schärfe und Struktur lie­fert. Ebenfalls nicht ganz so gut wie Topaz oder Midjourney, dafür kos­ten­los und see­ehr flexibel.

ChaiNNer 4x Upscaler mit Model „UniScale-​Balanced“

Ich habe noch ein wei­te­res Modell getes­tet, das „UniScale-​Balanced“ auf Basis der ESRGAN-​Architektur. Das schnitt jedoch deut­lich schlech­ter ab als „Remacri“.

Noch mal zum Verständnis: In Stable Diffusion und ChaiNNer kön­nen die glei­chen Upscaler-​Modelle ein­ge­setzt wer­den, bei mir lief die Verarbeitung jedoch deut­lich schnel­ler bei ChaiNNer. Dafür gibt es bei Stable Diffusion etwas mehr Einstellmöglichkeiten, die ich auf die Schnelle nicht bei ChaiNNer gefun­den habe.

Das Resultat

Es gibt noch unzäh­li­ge wei­te­re Tools, vor allem online, aber die meis­ten davon ran­gie­ren im Mittelfeld und sind preis­lich ähn­lich angesiedelt.

Von der Bildqualität liegt Midjourney aktu­ell mei­ner Meinung nach stark vor­ne, hat eben aber den gra­vie­ren­den Nachteil, dass damit nur Midjourney-​Bilder hoch­ska­liert wer­den kön­nen. Auch preis­lich ist Midjourney kein Zuckerschlecken, wenn man nicht gera­de eh Stunden übrig hat in deren Abo-Modell.

Für Power-​User, die mehr als 1000 Bilder hoch­ska­lie­ren wol­len, bleibt die Wahl zwi­schen Topaz Photo AI und Luminar Neo preis­lich die bes­se­re Wahl, wobei Topaz in der Bedienung wegen der Automatisierungsmöglichkeiten etwas die Nase vorn hat.

Insgesamt ist die Qualität aber auch sub­jek­tiv behaf­tet und kann sich je nach Motiv oder mit einem Update eines Tools auch wie­der ändern.

Bei den gan­zen, teils kos­ten­lo­sen, Online-​Upscalern soll­tet ihr auch beden­ken, dass ihr eure Daten in frem­de Hände gebt und dem Anbieter ver­trau­en soll­tet, damit ver­trau­lich umzu­ge­hen. Vermutlich wer­den auch die meis­ten die­ser Anbieter unter der Haube eines der unzäh­li­gen OpenSource-​Upscaler lau­fen haben.

Welchen Upscaler nutzt ihr aktu­ell und wel­ches Ergebnis hat euch hier am meis­ten überzeugt?

Die Community-​Test-​Erweiterung

Wer den Test mit eige­nen Modellen oder ande­ren Anbietern erwei­tern will, hat in die­sem Artikel alle not­wen­di­gen Grundlagen: Das 1024x1024-​Ausgangsbild steht oben zum Download zur Verfügung sowie die Photoshop-​Datei mit den Ebenen der Upscaler und der Pfad-​Auswahl für die Ausschnittvergrößerung.

Ihr könnt also ger­ne wei­te­re Methoden tes­ten und das Ergebnis ger­ne in den Kommentaren pos­ten (Bilder bit­te als Link).

Rezension: WordPress-​Themes für Fotografen von TemplateMonster (mit Verlosung)

Schon seit eini­gen Monaten stand ein Punkt hart­nä­ckig auf mei­ner To-Do-Liste:
Meine fast zehn Jahre alte Webseite (nicht zu ver­wech­seln mit mei­nem Blog), die ich noch müh­sam selbst html-​codiert hat­te, ist tech­nisch ein­fach ver­al­tet und soll­te durch ein neu­es, schi­ckes WordPress-​Design ersetzt werden.

Das Layout mei­ner neu­en Webseite

Leider gibt es WordPress-​Themes wie Sand am Meer und ange­sichts der über­wäl­ti­gen­den Auswahl schob ich das Projekt immer wei­ter vor mir her.

Kürzlich frag­te mich jedoch eine Mitarbeiterin der Webseite www.templatemonster.com/de*, ob ich nicht ihr Angebot und ein Theme tes­ten wol­len wür­de. Das nahm ich als Wink des Schicksals, end­lich die­se Aufgabe von mei­ner To-​Do-​Liste strei­chen zu können.

Vor der Auswahl eines pas­sen­den WordPress-​Themes soll­te sich jeder eini­ge Fragen bant­wor­ten. Hauptsächlich natür­lich: Was will ich mit der Seite?

Mit WordPress als CMS (Content Management System) kön­nen zum Beispiel sowohl inter­ak­ti­ve Blogs als auch sta­ti­sche Webseiten, Webshops oder Landing Pages erstellt werden.

Außerdem soll­te man sich grob über eine inhalt­li­che Ausrichtung im Klaren sein. Bei mir war klar, dass ich eine „Portfolio-​Seite“ will, das heißt, das Theme soll­te eini­ge Funktionen zur schö­nen Präsentation von Fotos mitbringen.

Auch der Designstil soll­te bekannt sein: Ich wuß­te, dass mein Theme „respon­si­ve“ sein soll­te, sich also dyna­misch an ver­schie­de­ne Bildschirmgrößen (Smartphone, Tablet, Monitor) anpas­sen kann. Es gibt auch „Parallax“-Themes, wel­che unend­lich scroll­bar sind, ohne das Seitenende zu errei­chen. Sowas fin­de ich jedoch eher ner­vig. Dazu soll­te mei­ne Seite hell und schlicht sein.

Nach vie­len die­ser Merkmale kann auf templatemonster.com gefil­tert wer­den und so wur­de ich bald fün­dig und ent­schied mich für die­ses „Geographic“ Theme*. Nervig fand ich an die­ser Stelle die viel­fa­chen Versuche des „Upselling“, also ob man nicht noch eini­ge Plugins, Hosting oder einen Installationsservice dazu buchen wol­le. Auch die diver­sen Emails nach dem Download fand ich etwas zu viel, die­se kön­nen aber abbe­stellt werden.

Die Installation des WordPress-​Themes ver­lief pro­blem­los, ein Plugin muss­te noch instal­liert wer­den und dann konn­te ich das Theme anpas­sen. Die mit­ge­lie­fer­te Dokumentation in eng­lisch erklär­te gut die ver­schie­de­nen Möglichkeiten und dank des Baukastensystems war die neue Seite schnell im wahrs­ten Sinne des Wortes „zusam­men­ge­klickt“.

Responsive Design hori­zon­tal auf dem Smartphone

Etwas Zeit hat die Auswahl der Bilder gekos­tet, die ich auf mei­ner Seite zei­gen woll­te, vor allem, da die­se durch das „respon­si­ve“ Theme mal sehr pan­o­r­amisch und mal fast qua­dra­tisch beschnit­ten werden.

Responsive Design ver­ti­kal auf dem Smartphone

Einziges Manko war, dass bei der Verwendung der Textfelder im Baustein-​System kei­ne HTML-​Links im Editor ein­füg­bar sind, wes­halb ich an die­ser Stelle in die Quellcode-​Ansicht wech­seln und mei­ne rudi­men­tä­ren HTML-​Kenntnisse auf­fri­schen musste.

Theoretisch könn­te ich sogar einen Online-​Shop in das Theme ein­bin­den, aber das habe ich nicht getes­tet. Getestet habe ich hin­ge­gen den Kundendienst, weil ich an eini­gen Stellen Kategorien, Kommentare und so wei­ter aus­blen­den woll­te. Nach einem Tag bekam ich vom Kundendienst einen kur­zen Code-​Schnipsel, den ich nur an einer Stelle im Backend ein­tra­gen muss­te und schwups, war das Theme mei­nem Wunsch ent­spre­chend geändert.

Wer will, kann sich das neue Layout ger­ne auf mei­ner neu gestal­te­ten Webseite www.robertkneschke.de anschauen.

Verlosung von 3 WordPress-Themes

TemplateMonster war so freund­lich, die Verlosung von je einem WordPress-​Theme für ins­ge­samt drei Leser anzubieten.

Was müst ihr dafür tun?

  1. Geht auf die Webseite von TemplateMonster* und sucht euch das WordPress Theme aus, wel­ches euch am meis­ten zusagt.
  2. Schreibt hier unter die­sem Artikel einen Kommentar mit deer Artikelnummer des gewünsch­ten Themes und einer Begründung, war­um und wofür ihr das Theme braucht.
  3. Aus allen Teilnehmern wäh­le ich per Zufall drei Gewinner aus, die dann nach Ablauf des Gewinnspiels per Email einen Gutschein-​Code zum Download erhalten.
  4. Das Gewinnspiel endet nach Ablauf des 01. August 2017. Der Rechtsweg ist ausgeschlossen.

Viel Glück wün­sche ich euch!

* Affiliate-​Link

Review der RoundFlash Strip Lights Lichtformer (mit Verlosung)

Schon seit fünf Jahren benut­ze ich ger­ne das leich­te und por­ta­ble falt­ba­re Ringlicht für Aufsteckblitze der Firma RoundFlash, vor allem als Aufhelllicht für Outdoor-Portraits.

Nach dem falt­ba­ren Beautydish* für Aufsteckblitze (mehr dazu sie­he unten) folgt nun das drit­te Teil in der RoundFlash-​Produktfamilie: Das falt­ba­re „Strip Light“.

Ich habe freund­li­cher­wei­se zwei Exemplare zum Testen bekom­men und mir ein Model ein­ge­la­den, um zu sehen, wie sie sich in der Praxis machen.

Konstruktion

Wie bei allen RoundFlash-​Produkten ist auch das Strip Light mit ca. 240 Gramm sehr leicht und kann schnell und ein­fach trans­por­tiert, auf­ge­baut und zusam­men­ge­fal­tet wer­den. Ein Transportbeutel (ca. 22 x 15 cm) mit Kordel ist dabei.

Da die­se bei allen drei Lichtformern (Ringblitz, Beauty Dish und Strip Light) eine ähn­li­che Form und Maße haben, sind sie prak­ti­scher­wei­se farb­lich unter­schied­lich, um beim Einsatz ver­schie­de­ner Lichtformer gleich den rich­ti­gen zu finden.

Aufbau

Die Montage ist schnell und ein­fach: Einfach das gefal­te­te Strip Light „aus­klap­pen“ las­sen, oben an einem Stativ, einem Haken oder wo auch immer befes­ti­gen und von unten den Aufsteckblitz in die dafür vor­ge­se­he­ne Öffnung schie­ben und mit dem gel­ben Gummizug fixieren.

Wie auf dem Foto zu sehen, habe ich die Standhalterung, wel­che bei mei­nen Canon Speedlite 600EX-​II-​RT* dabei ist, auf das Stativ geschraubt, um das Gummiband dar­an zu hän­gen. Als Stativ ver­wen­de ich die Manfrotto Mini Compact 1051BAC*, da die­se eben­falls leicht, kom­pakt und platz­spa­rend sta­pel­bar sind und trotz­dem auf über 2 Meter aus­ge­fah­ren wer­den kön­nen. Und es geht ja schließ­lich um eine trans­por­ta­ble Blitzlösung.

Hier ist gut zu sehen, wie der Blitz unten fixiert wird. Da ich draht­los aus­lö­se, habe ich bei mir noch einen Pocket Wizard FlexTT5* unten dran. Damit die Richtung des Strip Lights bes­ser fixiert wer­den kann, habe ich das Gummiband an das Stativ gehakt.

Vollständig und wäh­rend des Auslösens sieht das Strip Light dann so aus:
Die Waben sind übri­gens mit Klettverschluss ange­bracht und kön­nen auch schnell ent­fernt oder ange­bracht werden.

Lichtwirkung

Striplights als Softbox-​Lichtformer wer­den ger­ne als Streiflicht für die Beleuchtung der Haare oder von Körperkanten ver­wen­det, eig­nen sich auf­grund der Mischung von wei­chem, aber den­noch gerich­te­ten Licht auch als Hauptlicht. Ich habe bei­des ausprobiert.

Für die Nutzung als Streiflicht habe ich bei­de Strip Lights im 45°-Winkel schräg hin­ter das Model auf bei­de Seiten gestellt, wel­che nun die Haare beleuch­ten, wie auf die­sem Bild zu sehen:Ca. 30° neben der Kamera und leicht über­haupt des Kopfes wur­de von mei­ner Assistentin das mobi­le RoundFlash Beauty-​Dish gehal­ten, was so aussieht:

Ich hät­te es auch auf ein Galgenstativ mon­tie­ren kön­nen, aber ers­tens sind wir so fle­xi­bler beim Positionieren und zwei­tens wol­len wir ja mobil blei­ben und Gewicht spa­ren (ein Galgenstativ weni­ger ein­pa­cken). Nur das Beauty Dish ergibt fol­gen­des Bild:

Sehr schön erkennt ihr auf dem drit­ten Bild, wie sich bei­de Lichtquellen addie­ren, um sowohl das Gesicht als auch die Haare zu beleuch­ten und einen leich­ten Lichtreflex auf den Wangen zu erzeu­gen.Hier noch mal Lichtaufbau mit Strip Lights als Diagramm mit den Kamerawerten (Brennweite 60mm):Alternativ kann ein ein­zel­nes Striplight als Hauptlicht ver­wen­det wer­den, in dem fol­gen­den Beispiel 45° von vor­ne:Um 180° gedreht, als wenn die ein­zi­ge Lichtquelle schräg von hin­ten käme (mit einem Abschatter dazwi­schen, um Streulicht zu ver­mei­den), sieht es unge­fähr so aus:

Eine wei­te­re Möglichkeit der Positionierung wäre, das Striplight hori­zon­tal zu hal­ten. Das ist in die­sem Fall zuge­ge­be­ner­ma­ßen nicht ganz so ein­fach, weil die Strip Lights durch ihre Faltkonstruktion nicht starr sind. Wir haben es so gelöst, dass mei­ne Assistentin die Seite mit dem Blitz ange­ho­ben hat und ich das Stativ auf der ande­ren Seite (wo das Strip Light oben befes­tigt ist), unten mit mei­nem Fuß beschwert habe. Unter der Kamera schräg war ein California Sunbounce Mini-​Reflektor* zum Aufhellen auf ein Stativ mon­tiert. Das Ergebnis?

Fazit

Wer wie ich die Vorteile einer sehr leich­ten, trans­por­ta­blen Ausrüstung zu schät­zen weiß, wird die­se Lichtformer lie­ben. Sie sind schnell ein­satz­be­reit, uni­ver­sell nutz­bar und hal­ten auch rabia­ten Umgang aus.

Die Lichtverteilung ist nicht ganz so gleich­mä­ßig wie bei einem Strip Light mit Studioblitz, nimmt also nach oben hin etwas ab (kann man auf dem Bild oben, wo der Strip Light aus­löst, ganz biß­chen sehen). Das konn­ten wir aber ein biß­chen dadurch aus­glei­chen, dass wir das Gesicht des Models eher im unte­ren Drittel des Strip Lights plat­ziert haben.

So nütz­lich die Strip Lights auch sind, wer­den sie für mei­ne kon­kre­te Arbeitsweise lei­der nicht so oft zum Einsatz kom­men. Bei der Stockfotografie geht es dar­um, in kur­zer Zeit vie­le ver­wert­ba­re Bilder zu erhal­ten, was mit flä­chi­gem, wei­chen Licht (gro­ße Softboxen) bes­ser geht, da Positionsänderungen des Models nicht sofort einen Umbau der Lichtquellen erfor­der­lich machen.

Es gibt jedoch genug ande­re Verwendungszwecke in der Portrait- oder Produktfotografie, wo trans­por­ta­ble Strip Lights eine deut­li­che Erleichterung sind. Damit ihr es selbst aus­pro­bie­ren könnt, gibt es auch eine:

Verlosung

Mariusz vom Roundflash-​Team war so nett, mir 2x einen neu­en Strip Lights für eine Verlosung zur Verfügung zu stellen.

Was müsst ihr dafür tun, um einen der Strup Lights zu gewin­nen? Hier die Teilnahmebedingungen:

  • Teilnehmen dür­fen alle, die mei­ner Facebook-​Seite fol­gen (lohnt sich sowie­so, da ich dort vie­le aktu­el­le Infos pos­te) und hier im Blog einen Kommentar hin­ter­las­sen, was sie mit dem Strip Light am liebs­ten foto­gra­fie­ren würden.
  • Teilnahmeschluss ist Sonntag, der 19.02.2017.
  • Die Gewinner ermitt­le ich aus den Kommentaren mit­tels random.org.
  • Die Gewinner wer­den von mir per Email kon­tak­tiert (ach­tet dar­auf, dass eure Kommentar-​Emailadresse gül­tig ist). Wer sich nicht inner­halb von drei Tagen zurück mel­det, ver­liert sei­nen Anspruch.
  • Der Rechtsweg ist ausgeschlossen.

Wer die Teile lie­ber sofort aus­pro­bie­ren will, hier sind die Kauflinks für die Strip Lights*, das falt­ba­re Beauty Dish* oder den Ringblitz-​Aufsatz*.

* Affiliate (Ich erhal­te eine klei­ne Provision beim Kauf, ihr habt kei­ne Nachteile dadurch)

Rezension: Die Lichtformer StripTubes im Praxistest (mit Verlosung)

Vor einer Weile erreich­te mich eine Email von Alexander Schwarz, der als Fotograf in Augsburg arbei­tet und wel­chen ich vor allem durch sei­nen TASPP-​Blog kenne.

Ob ich nicht einen neu­ar­ti­gen Lichtformer namens „StripTube“ tes­ten wol­le? Diesen hat er zusam­men mit dem Geschäftsinhaber Thomas Hirn der Firma Alkoto entwickelt.

Klar, durch soll­te Experimente habe ich schon eini­ge Gadgets lieb­ge­won­nen und in mei­nen foto­gra­fi­schen Alltag integriert.

Was sind „StripTubes“?

Es gibt ver­schie­de­ne Arten von Lichtformern wie Softboxen, Reflektoren oder Beauty Dishes, wel­che die Lichtcharakteristik von Blitz- oder Tageslicht ändern.

Dazu gehö­ren auch „Striplights“, das sind lan­ge, schma­le Softboxen, wel­che vor allem zum Erzeugen oder Betonen von seit­li­chen Streiflichtern ein­ge­setzt werden.

StripTubes sind eine Art „Striplights“, wel­che für die Benutzung mit Systemblitzen kon­zi­piert sind und im Vergleich zu Striplight-​Softboxen deut­lich platz­spa­ren­der sind. Dadurch las­sen sie sich auch in sehr engen Räumen oder an unge­wöhn­li­chen Orten positionieren.

Die Einsteck-​Öffnung ist varia­bel und erlaubt den Betrieb von prak­tisch allen gän­gi­gen Systemblitz-​Geräten, zum Beispiel Canon, Nikon, Metz oder Yongnuo.

Die StripTubes kos­ten pro Stück ca. 180 Euro oder 330 Euro für ein Doppelpack und sind zum Beispiel hier bei Amazon erhält­lich*.

Mein Test der „StripTubes“

Alexander Schwarz schick­te mir also zwei StripTubes, wel­che übri­gens kom­plett in Deutschland gefer­tigt wer­den, inklu­si­ve je einer prak­ti­schen Tragetasche.

Diese lagen dann erst mal eini­ge Monate unbe­ob­ach­tet bei mir rum, bis ich mich auf­raff­te und die Tasche öffnete.

Vor dem ers­ten Einsatz muss die Halterung der StripTubes an die ver­wen­de­ten Blitze ange­passt wer­den. Dazu wird die Halterung mit­tels des mit­ge­lie­fer­ten Imbus-​Schlüssel gelo­ckert, der Blitz rein­ge­scho­ben und die Schrauben wie­der ange­zo­gen. Außerdem müs­sen am Blitz zwei mit­ge­lie­fer­te Klettklebeband-​Stücke befes­tigt wer­den, die ver­hin­dern sol­len, dass die Blitze wäh­rend des Fotografierens aus der Halterung rutschen.

Das fin­de ich per­sön­lich etwas ungüns­tig, weil sich der zusätz­li­che Klettverschluss stö­rend auf die Verwendung ande­rer mobi­ler Lichtformer-​Systeme aus­wir­ken kann und ich nicht eben mal ein aus­ge­lie­he­nes Blitzgerät in die StripTubes schie­ben kann.

Nicht mit­ge­lie­fert wird eine Befestigung für die StripTubes am Stativ, was mir erst jetzt auf­fiel. Weil ich kei­nen „Universal-​Blitzschuh“* auf Lager hat­te, muss­te ich mir zwei bestel­len. Das Ganze habe ich jeweils mit einem Schirmneiger* kom­bi­niert, um die StripTubes auch varia­bel posi­tio­nie­ren zu können.

Montage vom StrupTube am Stativ
Montage vom StrupTube am Stativ

So sah mein Aufbau zum Schluss aus. Die Position des Blitzschuhs am StripTubes muss sau­ber aus­ba­lan­ciert wer­den. Ist das gesche­hen, kann ich den StripTube sowohl hori­zon­tal als auch ver­ti­kal (oder irgend­wo dazwi­schen) einsetzen.

Der Blitz inklu­si­ve Funkauslöser hängt auf dem Bild unten und ja, der fällt da durch den eben­falls erkann­ba­ren Klettverschluss nicht raus. Mulmig ist mir dabei trotz­dem etwas und beim Shooting wäre mir das Stativ auch zwei Mal fast umge­fal­len, weil es durch das Ausbalancieren eine wack­li­ge Angelegenheit ist.

Genausogut könn­te der StripTube auch umge­dreht wer­den, sodaß der Blitz von oben in den StripTube blitzt. Dann hät­te ich in der Praxis jedoch Schwierigkeiten gehabt, Einstellungen am Blitz zu ändern (unten auf einem Foto zu sehen).

Wie sehen die Ergebnisse aus?

Mein ers­tes Portrait, mit dem ich zufrie­den war, ist die­ses hier:

2015_maryna_3249_webDer Lichtaufbau ist dabei klas­sisch als „Lichtklammer“ mit je einem StripTube auf bei­den Seiten, gut zu sehen als Reflexion in der Brille und den Augen.

2015_maryna_3267_web Hier als „Making-​Of“ zu sehen. Der Blitz rechts steht etwas wei­ter ent­fernt, um eine rea­lis­tisch anmu­ten­de­re ungleich­mä­ßi­ge Ausleuchtung zu erzielen.

Die StripTubes kön­nen jedoch auch hori­zon­tal posi­tio­niert wer­den und über sowie unter dem Model mon­tiert wer­den. Das Ergebnis? Ein surea­ler Look mit kaum wahr­nehm­ba­ren sehr wei­chen Schatten:

2015_maryna_3283_webHier der Blick hin­ter die Kulissen inklu­si­ve der genau­en Belichtungswerte. Die Kamera löst mit 1/​200 Sekunde aus bei ISO 100 und Blende 8, der obe­re Blitz ist manu­ell auf 1/​8 gestellt, der unte­re auf 1/​16.

2015_maryna_3285_webDie StripTubes kön­nen natür­lich auch in Kombinationen mit ganz ande­ren Lichtformern benutzt wer­den. Bei die­sem Bild kam ein Beauty-​Dish von oben direkt auf der Kamera-​Achse zum Einsatz, auf­ge­hellt mit einem Reflektor von unten und den StripTubes von der Seite:

2015_maryna_3421_webHier der Blick inklu­si­ve der Lichtformer:

2015_maryna_3420_webMein Fazit

Vor den StripTubes habe ich noch nie mit Striplights gear­bei­tet und wer­de es sicher auch wei­ter­hin kaum machen, weil die­se Art der Lichtsetzung prä­zi­ses Arbeiten erfordert.

Bei der Stockfotografie hin­ge­gen kommt es auf Effizienz an. Das stän­di­ge Arrangieren der Blitze, nur weil das Model etwas zur Seite schau­en soll oder ich den Bildausschnitt ände­re, kos­tet mir zuviel Zeit, wes­halb ich wei­ches flä­chi­ges Licht bevorzuge.

Trotzdem glau­be ich, dass die StripTubes für Fotografen mit einer ande­ren Herangehensweise sehr hilf­reich sein kön­nen. Zum einen natür­lich für Produktfotografen, wel­che Streiflichter auf Flaschen oder Biergläser zau­bern wol­len oder Beauty-​Fotografen, die Platz spa­ren wollen.

Vermutlich lie­ßen sich die StripTubes auch durch hel­le LED-​Taschenlampen beleuch­ten und wären damit für Video-​Produktionen nützlich.

Dazu kommt, dass ich sicher längst nicht alle Möglichkeiten der StripTubes aus­pro­biert habe. Es kön­nen auch zwei StripTubes längs anein­an­der gesteckt wer­den, um eine 1,5 Meter lan­ge Leuchtröhre zu erhal­ten. Oder zwei StripTubes neben­ein­an­der wür­den das Licht einer recht­ecki­gen Softbox erge­ben. Oder Aufnahmen im engen Fahrstuhl? Kein Problem!

Verlosung von einem Set mit zwei StripTubes

Thomas Hirn war so freund­lich, mir ein Set mit zwei StripTubes zur Verlosung bereit­zu­stel­len. Alles, was ihr dafür tun müsst, ist unter dem Artikel in einem Kommentar die fol­gen­de Frage zu beantworten:

Wofür wür­det ihr die StripTubes ger­ne nut­zen wollen?“

Einsendeschluss ist Freitag, der 9.10.2015, der Rechtsweg ist aus­ge­schlos­sen. Aus den gül­ti­gen Kommentaren lose ich mit­tels random.org einen Gewinner aus, der per Mail benach­rich­tigt wird, die Angabe einer gül­ti­gen Mailadresse ist also notwendig.

Ich drü­cke euch die Daumen!

* Affiliate

Rezension: CamRanger – Kabellose DSLR-​Fernsteuerung mit dem iPad

Im Blog hat­te eine Lösung vor­ge­stellt, mit der man die Bilder sei­ner DSLR-​Kamera kabel­los direkt auf das iPad, einen Laptop oder ein ande­res Tablet sen­den kann.

Das funk­tio­niert super und nut­ze ich sehr häu­fig. Bisher hat­te mir noch die Möglichkeit gefehlt, die Bilder schon vor dem Auslösen auf einem exter­nen grö­ße­ren Monitor zu sehen, idea­ler­wei­se eben­falls kabel­los. Das soll mit CamRanger* mög­lich sein, wes­halb ich den Hersteller gebe­ten habe, mir ein Testmuster zu schi­cken. Ausgepackt sieht das so aus:

Cam-Ranger-Zubehoer_P0A7906
Das wei­ße Teil unten ist der CamRanger selbst, dazu kom­men zwei Kabel, das wei­ße zum Aufladen des Akkus, das schwar­ze zur Verbindung mit der Kamera, eine Hülle und eine kur­ze Anleitung. Wenn man die­ser Anleitung folgt, ist die Ersteinrichtung des WLAN-​Netzwerks ein­fach und schnell erle­digt. Nüchtern betrach­tet ist der CamRanger näm­lich nichts ande­res als ein Router, wel­cher ein WLAN-​Netz auf­baut, über das dann die Kamera die Daten an eine App lie­fert. Während es für Android dafür eini­ge güns­ti­ge Lösungen gibt – dazu unten mehr – ist das bei Apple auf­grund der restrik­ti­ve­ren Software-​Architektur nicht so ein­fach mög­lich. CamRanger hat des­halb weni­ger Konkurrenz, die sich die Firma mit über 300 Euro pro Gerät gut bezah­len lässt. Es wer­den die gän­gigs­ten Canon- und Nikon-​Kameras unter­stützt. Der Akku soll ca. 4–6 Stunden hal­ten. Es ist etwas irri­tie­rend, dass an bei­den Seiten ein wei­ßer Schalter ist, wovon nur der eine der An/​Aus-​Schalter ist. Der zwei­te Schalter hat kei­ne Funktion. Als ich ver­se­hent­lich mal den fal­schen Schalter betä­tigt hat­te, lief der Akku natür­lich leer.

Etwas umständ­lich ist die Nutzung des CamRangers selbst, denn obwohl eine kabel­lo­se Lösung ver­spro­chen ist, muss erst mal das Kabel von der Kamera zum CamRanger ange­schlos­sen wer­den. Dieser hat ca. die Ausmaße einer Zigarettenschachtel. Ich habe das meist so gemacht, dass ich den CamRanger in die mit­ge­lie­fer­te Tasche gesteckt habe, wo das Kabel raus­guckt und dann die Tasche mit dem dar­an befes­tig­ten Karabinerhaken an mei­nen Kameragurt oder das Stativ befes­tigt habe. Gefüllt wiegt die Tasche mit bei­den Kabeln ca. 208 Gramm. Sie bau­melt dann zwar etwas rum, aber das zusätz­li­che Gewicht ist auch mit der Hand zu tra­gen. Es gibt aber auch einen Adapter*, um den CamRanger auf dem Blitzschuh zu montieren.

Aber was kann man mit der gleich­na­mi­gen App nun machen? Ich habe die iOS-​Version getes­tet, weil es wie gesagt für Android deut­lich bil­li­ge­re Lösungen gibt. Das Interface der App sieht so aus:

Camranger-Screenshot

Leider funk­tio­niert der Zugang zur App nur, wenn auch eine Funkverbindung zum CamRanger steht, was scha­de ist, wenn man mal schnell nach dem Shooting eini­ge der foto­gra­fier­ten Bilder anse­hen will. Die Oberfläche ist ähn­lich auf­ge­baut wie bei ande­ren LiveView-​Systemen. Den Hauptteil des Bildes nimmt der Monitor ein, der zeigt, was die Kamera auch sieht. Durch Tippen auf den Monitor lässt sich die gewünsch­te Stelle fokus­sie­ren, rechts kann aber auch deut­lich genau­er der Fokus manö­vriert wer­den. Es gibt ein Live-​Histogramm und Zusatzfunktionen wie HDR-​Aufnahmen, Fokus-​Stacking, Zeitraffer-​Aufnahmen etc. sind möglich.

Die wich­tigs­ten Funktionen der Kamera kön­nen über die App fern­ge­steu­ert wer­den, zum Beispiel Blende, Belichtungszeit, ISO-​Wert, Weißableich, Aufnahmemodus, Über- und Unterbelichtung, Fokus und eini­ge mehr.

Während mei­ner Testzeit gab es ein Firmware-​Update, was etwas umständ­lich zu instal­lie­ren war. Aber es brach­te unter ande­rem als neue Funktion die Möglichkeit, par­al­lel wei­te­re WLAN-​Netze auf­recht zu erhal­ten. Das ist zum Beispiel sehr prak­tisch, weil ich sie wei­ter­hin in mei­nem WLAN-​Netzwerk im Studio blei­ben kann, obwohl auch CamRanger eine WLAN-​Verbindung mit dem iPad auf­bau­en will. Jetzt woll­te ich pro­bie­ren, ob ich nicht auf gleich­zei­tig das WLAN-​Netz mei­ner EyeFi-​Karte akti­vie­ren könn­te, damit ich als wei­te­re App Shuttersnitch offen haben könn­te, um die geschos­se­nen Fotos zu ver­wal­ten. Das klappt lei­der nicht, weil CamRanger nicht im Hintergrund lau­fen kann.

Camranger-Screenshot-2
Der Grund, war­um ich wei­ter­hin zusätz­lich Shuttersnitch nut­zen wol­len wür­de, ist, dass die­se App einen deut­lich beque­me­ren Workflow für die Verwaltung und Ansicht der geschos­se­nen Bilder bie­tet. Nach dem Shooting, wenn Kamera und Geräte alle schon ver­staut sind und ich mit den Models noch einen Kaffee trin­ke, kann ich bequem das iPad rum­rei­chen, wo sich alle die Fotos mit Shuttersnitch anse­hen kön­nen. Das geht lei­der nicht, wenn ich CamRanger nut­ze, weil immer die Verbindung zur Kamera aktiv sein muss. Außerdem muss ich manu­ell ent­schei­den, wel­che der Bilder von der Speicherkarte ich run­ter­la­den wol­len wür­de. Kurz: CamRanger bie­tet zwar Funktionen zur Fotoverwaltung, aber ist grund­sätz­lich einer ein Aufnahme-Tool.

Der Hauptgrund, wes­halb ich CamRanger in Zukunft jedoch kaum noch nut­zen wer­de, liegt jedoch in mei­ner Arbeitsweise. Ich foto­gra­fie­re fast immer mit Blitz. Das führt logi­scher­wei­se dazu, dass bei einer LivePreview, wo die Blitze noch nicht aus­lö­sen, kaum etwas auf dem Monitor zu sehen ist und damit die gesam­te App kaum brauch­bar ist. Die Einsatzbereiche der App lie­gen dem­nach eher bei der Makrofotografie ohne Blitz, für Produktaufnahmen mit Dauerlicht, Landschaftsaufnahmen und so wei­ter. Überall, wo Blitze zum Einsatz kom­men, sinkt der Nutzwert von CamRanger stark.

Android-​Alternative zu CamRanger

CamRanger ist im Grunde nichts ande­res als ein Router. Wer nicht in den geschlos­se­nen Apple-​Kosmos ein­drin­gen muss, kann auch einen ande­ren WLAN-​Router kau­fen, zum Beispiel den TP-​Link TL-​MR3040*. Der kos­tet nur ca. 40 Euro und der CamRanger sieht sicher nicht zufäl­lig fast iden­tisch aus. Als App wird dann die kos­ten­lo­se App DslrDashboard im Google Playstore benutzt. Wie die Einrichtung genau funk­tio­niert, erklärt Gunther Wegner hier. Selbst wenn der Kauf eines klei­nen Android-​Tablets* mit ein­ge­rech­net wird, ist die­se Lösung immer noch bil­li­ger als der CamRanger. Die Nachteile wie die ein­ge­schränk­te Nutzung bei Blitzlicht oder das an der Kamera hän­gen­de Gerät blei­ben aber auch bei die­ser Lösung.

Welche Lösung benutzt ihr zur kabel­lo­sen Fernsteuerung und wel­che Erfahrungen habt ihr damit gemacht?

* Affiliate