
Man mag es nicht glauben, aber ich habe wirklich heute zum ersten Mal die HDR-Funktion in Lightroom benutzt. Und heraus gekommen ist nichts, was besser wäre als ein sauber bearbeitetes Standardfoto, wie ich es hier zeige. Das bedeutet: Entweder die HDR-Funktion von Lightroom ist schlecht. Oder ich kann damit nicht umgehen. Oder HDR wird ganz allgemein überschätzt. Oder ich habe das falsche Foto für eine HDR-Bearbeitung ausgewählt. Ich bitte also zur gemeinsamen Ursachenforschung.
Und vielleicht als erstes zur Begriffsklärung. HDR ist die Abkürzung für High Dynamic Range, zu deutsch: hoher Dynamikumfang. In der Fotografie steht die Dynamik für die Fähigkeit, unterschiedliche Helligkeitsstufen zu unterscheiden. Teure und große Sensoren sind darin besser als billige und kleine, die menschliche Auge-Gehirn-Kombination ist in dieser Disziplin unerreicht.
Beim vorliegenden Motiv aus unserem Garten musste ich zwar die Augen ein bisschen zusammenkneifen, als ich in die Sonne sah, aber als das geklärt war, konnte ich so ziemlich jeden unterschiedlichen Grünton wahrnehmen, denn es war erst 18 Uhr und noch taghell.
Auf dem Originalfoto, das ich hier ausnahmsweise auch einmal zeige, ist von dieser Helligkeit im Garten wenig zu erkennen.

Der Sensor hat sich alle Mühe gegeben, die Sonne nicht überstrahlen zu lassen, was in einem finsteren Garten resultierte. Das liegt allerdings auch an der Art der Belichtungsmessung: Wenn es sehr hell ist, tendiert der Belichtungsmesser dazu, das Bild etwas dunkler wiederzugeben und umgekehrt. Man kann das gut ausprobieren, wenn man zuerst eine rein weiße und dann eine rein schwarze Fläche mit Belichtungsautomatik fotografiert – beide werden so mittelgrau.
Daher hatte ich schon per Belichtungskorrektur um eine Blendenstufe (man kann auch Dynamikstufe dazu sagen) überbelichtet, aber das hat wenig geholfen, wie man hier sieht. Also dachte ich: Jetzt kommt HDR ins Spiel. Für HDR benötigt man mehrere verschieden belichtete Bilder, aus der sich die Software später die passenden Stellen zusammensucht und daraus ein neues Foto errechnet.
Ich stellte die Kamera auf eine Belichtungsreihe ein, die drei Bilder erzeugen sollte: Eines so wie mein Original, also mit einer Blendenstufe überbelichtet, und dazu je eine Unter- und eine Überbelichtung um jeweils zwei weitere Blendenstufen. Die Reihe ging also so: -1, +1, +3.
Diese drei Fotos müssen natürlich vom Stativ oder mit sehr schneller Schussfolge aus ruhiger Hand gemacht werden, und das Motiv darf sich möglichst nicht bewegen. Danach importiert man die Bilder ganz normal in Lightroom, markiert sie alle drei und wählt aus dem „Foto“-Menü den Befehl „Zusammenfügen von Fotos“. Danach klickt man auf „HDR“, wartet ein bisschen und erhält – ein Bild, das sich von dem Original nur wenig unterscheidet.
Ehrlich gesagt, war ich etwas enttäuscht. Sehr gern nehme ich Hinweise darauf entgegen, dass ich ein anderes Motiv hätte nehmen oder mit mehr als drei Fotos hätte arbeiten sollen. Aber so, wie ich es gemacht habe, war es nicht sehr beindruckend.
Danach habe ich das Foto natürlich noch ganz normale bearbeitet: Sättigung rauf (über die Farbwerte), Gradationskurve optimiert, Kontraste, Helligkeit hoch– man kann dann schon ein sehr ansprechendes Bild aus dem HDR-Foto machen. Aber das, was man ganz oben über diesem Beitrag sieht, ist nicht das bearbeitete HDR-Foto, sondern das mit denselben Techniken bearbeitete Original (was man hier in der Mitte des Textes sieht).
Das HDR unterschiedet sich nach der Bearbeitung wirklich nur noch in Nuancen, weist aber einen entscheidenden Nachteil auf: Seine Pixel sind offenbar nicht mehr so geduldig, was die harte Anhebung von Sättigung und Kontrasten angeht, wie man auf diesen beiden Ausschnitten gut sehen kann.


Die Frage, die ich mir stelle, lautet: Wie kommt das? Ist HDR doch nicht so ein Wunderding, wie viele sagen? Oder bin ich zu voreilig mit meiner Ablehnung und hätte irgend etwas anders machen müssen?
Ich gebe hier sehr gern Tipps für alle Foto-Interessierten, aber dieses Mal könnte ich selbst einen guten Rat gebrauchen.
P.S.: Einen Tipp habe ich aber doch noch: Die Strahlen der Sonne (oder anderer Lichtquellen) macht man sichtbar, indem man das Objektiv abblendet, mindestens auf Blende 8. Ein schönes Beispiel dafür gibt es auch hier in meinem Nachtfoto von Dresden.
Hallo Stefan,
Du hast natürlich recht. Ich habe nicht berücksichtigt, dass das Bildformat zwar 14 Bit – entsprechend 14 EV – darstellen kann, dass die technischen Möglichkeiten des Sensors das aber nicht hergeben müssen. Wobei die 5D Mark IV mit 13,6 EV schon recht dicht an die theoretische Grenze des CR2-Formats herankommt und Canon eventuell für zukünftige Kameras das CR2-Dateiformat dann auf 16 Bit pro Kanal erweitern muss. Die Äquivalenz von Bit/Pixel und Dynamikumfang in EV halte ich dennoch für gegeben, da jedes Bit die darstellbaren Helligkeitswerte verdoppelt, ebenso wie jeder EV die Lichtmenge verdoppelt. Der erweiterte Kontrastumfang gegenüber JPG ist für mich auch der Hauptgrund in RAW zu fotografieren – dadurch kann ich das Tonemapping selber machen und wir müssen ja leider – fürs Auge und die Ausgabemedien – den Kontrastumfang reduzieren.
Auch Dir schöne Grüße und ein gutes neues Jahr
LikeLike
ich denke, dass HDR die hohen Erwartungen nur in Ausnahmefällen erfüllen kann. Dazu möchte ich etwas ausholen: Meine Kamera (Canon EOS40) hat bei RAW-Aufnahmen 14 Bit pro Farbkomponente. Das sind dann auch 14 EV, die an Kontrastumfang in einem Bild abgebildet werden können. Bei einer Belichtungsserie mit 3 Aufnahmen – 2 Blenden drunter und drüber – können wir also 18 EV erfassen. Um die Vorteile von HDR ausspielen zu können brauchen wir also ein Motiv mit 18 EV Kontrastumfang. Das könnte z.B. ein dunkler Raum in einer Burg sein, mit Blick durch ein Fenster auf die sonnige Landschaft. Aber in der Regel – bei mir sicher 99% der Aufnahmen – komme ich mit den 14 EV der Kamera hin und bei sorgfältiger Nachbearbetung hole ich das Bestmögliche heraus und die HDR-Spielerei erzeugt nur Zusatzaufwand und Nachteile durch höheres Bildrauschen und ein künstlich wirkendes Bild durch das „Tonemapping“ der HDR-Software. Wenn man von vornherein JPG-Aufnahmen macht (die sind ja auf 8 Bit/Farbe begrenzt) sieht die Rechnung sicher ein bisschen anders aus, das Ergebnis wird aber sicher nicht besser, das ja hier schon die Kamera das Tonemapping macht und da fehlt dann die Kontrolle schon von vornherein.
LikeLike
Lieber Andreas,
vielen Dank für Deinen Kommentar. Deine angaben zum HDR-Verfahren kann ich voll unterschrieben, das hat mich auch alles noch nicht überzeugt.
Leider verwechselst Du aber etwas, was die 14 Bit Deiner Kamera angeht. Diese Angabe bedeutet nämlich nicht, dass die Kamera einen Dynamikumfang von 14 Blendenstufen (EV) hätte – schön wär’s für eine EOS 40D. Meine nagelneue 5D Mark IV hat laut DxO-Mark (www.dxomark.com) gerade 13,6 Blendenstufen, und die Topmodelle von Sony und Nikon liegen bei knapp 15, da kann ein zweistelliges EOS-Modell von 2007 kaum dieselbe Leistung bringen. Laut DxO-Mark sind es 11,3 Blendenstufen.
Die Bit-Angabe bezieht sich also nicht auf den Dynamik- oder Kontrastumfang, sondern auf die Farbtiefe. 14 Bit bedeutet, dass der Kamerasensor, wenn er ein Bild im Raw-Format aufnimmt, pro Farbkanal (Rot, Grün, Blau) 2 hoch 14 Helligkeitsstufen voneinander unterscheiden kann. 2 hoch 14 sind 16.384, und diese Abstufung ist toll, hat aber nichts mit dem Dynamikumfang zu tun. Man kann 16.384 unterschiedliche Grün-, Rot- und Blau-Werte sowohl bei großem als auch bei knappem Dynamikumfang haben. Meine alte 5D Mark II (Dynamikumfang 11,9 EV) ist ebenso eine 14-Bit-Kamera wie die neue 5D Mark IV.
Der Vorteil der hohen Bit-Werte ist die größere Flexibilität in der Bildbearbeitung und Bildkorrektur. Wer etwa nur jpg-Fotos macht, produziert grundsätzlich 8-Bit-Dateien, ganz egal mit welcher Kamera. 8 Bit aber bedeuten nur 256 Abstufungen pro Farbkanal. Für die Anzeige des Bildes auf einem Monitor oder für den Ausdruck ist das okay, weil das Auge ohnehin weniger als 256 Farbabstufungen unterscheiden kann. Aber in der Bearbeitung ist eine hohe Farbtiefe wichtig: Wenn ich ein zu dunkel geratenes jpg-Bild extrem aufhellen will, kommen die hellen Farbtöne schneller ins reine Weiß, als wenn ich pro Farbkanal 16.000 Abstufungen mehr zur Verfügung habe. Dann kommt man halt vom zarten Rosa zum allerzartesten Rosa, aber die hellen Stellen fressen nicht aus.
Es gilt also zweierlei. Erstens: Je mehr Farbtiefe (gemessen in Bit), desto besser. Zweitens: Je mehr Dynamikumfang (gemessen in Blendenstufen), desto besser. Es sind nur beides verschiedene Dinge.
Schöne Grüße und ein gutes neues Jahr.
LikeLike