
Martin Wolfert:
Dieser Artikel stellt meinen Weg zu HDR-Panoramen vor, reißt jedoch auch andere Wege an. Zum Thema HDRI Technik findet ihr knackig-kurze Informationen, aber keinen HDR-Kurs und auch keinen Marktüberblick über HDRI-Tools.
HDR Technik, eine (sehr) kurze Erklärung:
Man spricht von HDRI-Technik: High Dynamic Range Images (HDRI)
Technisch gesehen sind HDRI’s Bilder mit einer Farbtiefe von 32-Bit. Damit lassen sich Helligkeitswerte im zehnstelligen Bereich problemlos darzustellen.
Im Vergleich dazu besitzt ein JPEG-Bild eine Farbtiefe von 8-Bit (256 Helligkeitswerten) und damit einen Dynamikumfang von 255:1. Das TIF-Format – als eine Art Zwischenstufe – bietet eine Farbtiefe von 16-Bit und damit 65.536 Helligkeitswerte an. Im allgemeinen Sprachgebrauch bezeichnet man Bilder mit einer Farbtiefe von kleiner 32-Bit als Low Dynamic Range Images (LDRI) oder auch einfach DRI.
Ergänzend sei erwähnt, dass es meines Wissens immer noch keine Monitore oder andere Ausgabemedien für den Endverbrauchermarkt gibt, die ein HDR-Bild vollständig korrekt darstellen können. HDR-Bilder müssen für eine Darstellung auf einem handelsüblichen Monitor somit immer als DRI Bilder herunter- umgerechnet werden. Dies kann z.B. mit einer speziellen HDR-Software, ich bevorzuge Photomatix Pro, erledigt werden.
Was bedeutet „mehr Dynamikumfang“ für mein 360° Panoramamotiv?
An einem schönen, sonnigen Tag kann man von einem Dynamikumfang in einem Foto von ca. 1.000.000:1 ausgehen. Diesen Dynamikumfang kann selbst unser menschliches Auge ohne Adaption nicht korrekt abbilden. Somit liegt es nahe, dass man den größten und den kleinsten Helligkeitswert eines sonnenbestrahlten 360° Panoramamotivs nicht vollständig mit einem „normalen“ JPEG-, TIF- oder RAW- Bild darstellen kann. Helle Bereiche „fressen aus“, dunkle Bereiche „saufen ab“. Man verliert in beiden Fällen wertvolle Bildinformationen.
Das gilt insbesondere dann, wenn das 360° Panoramamotiv eine Innenaufnahme mit dunklen Bereichen auf der einen und sonnenbestrahlten Fenstern auf der anderen Seite ist.
Auch in Zeiten modernster, digitaler Kameratechnik ist die HDRI-Technik mein Mittel der Wahl, wenn ich Innenpanoramen fotografiere.

Wie fertige ich nun ein HDR Bild an?
Ein HDR-Bild besteht im Prinzip aus mehreren Bildern (desselben Motivs), die in einer Belichtungsreihen fotografiert, übereinander gelegt und mit einer HDRI-Software miteinander „verrechnet“ werden. Danach kann man in der HDRI-Software das entstandene HDR-Bild mit Hilfe verschiedener Methoden zu einem LDR-Bild herunter beziehungsweise umrechnen.
Fotografiert man zum Beispiel das Innenpanorama einer Kathedrale, dann ist die Kamera sehr wahrscheinlich auf einem Stativ befestigt. Längere Belichtungszeiten stellen also kein Problem in Bezug auf Verwackelungen dar.
Wie üblich wird die Kamera dabei komplett manuell betrieben und eine „förderliche Blende“ eingestellt; also etwa Blende 8. Bei der Belichtungszeit stellt man nun einen Wert ein, der ein Mittel zwischen dem hellsten und dunkelsten Bereich des Motivs / Innenraumes bildet.
Bei den meisten digitalen Spiegelreflexkameras gibt es eine bereits eingebaute Funktion, um eine Belichtungsreihe automatisiert durchzuführen.

Bei meiner Nikon D800 kann diese Funktion mit der „BKT“ (Bracketing) Taste angesprochen werden. Alle digitalen Nikon Spiegelreflexkameras bieten Belichtungsreihen mit einer Abstufung von +/- 1EV an. Dabei kann man bis zu 9 Bilder pro Belichtungsreihe machen. Bei Canon Kameras ist es glaube ich eine Granularität von +/- 2EV bei 5 Bildern pro Belichtungsreihe.
Die Anzahl der Belichtungen in einer Belichtungsreihe pro Panoramasektor hängt stark von den Helligkeitsunterschieden der Umgebung ab. Ich benutze meist drei oder fünf Bilder in einer Belichtungsreihe.
Hier ein Beispielbild, das in den Lichtern sicher nicht optimal ist.

Das Bild der Krypta der Kathedrale in Bayeux stellt auch für ein DRI-Panorama eine problematische Szenerie dar. In der Krypta war es wirklich sehr dunkel. Im Mittel lag die Belichtungszeit bei 1,3 Sekunden bei Blende 8 und ISO 200. Auf der Linken Seite sieht man durch ein Fenster aus der Krypta hinaus in den Innenraum der Kathedrale. Weiterhin sieht man auch das Fenster der Kathedrale mit Blick nach draußen. Dieses Motiv habe ich mit einer Belichtungsreihe aus drei Bildern aufgenommen. Mit einer größeren Belichtungsreihe von sieben oder gar neun Bildern hätte man sicherlich mehr Bildinformationen, vor allem in den Lichtern, erreichen können.
Wie funktioniert HDRI- und (360°) Panoramatechnik zusammen?
Es gibt wie so oft keinen Königsweg für DEN Workflow. Aus meinem Wissen heraus jedoch drei gangbare Lösungen:
1. HDR to Panorama
2. Panorama to HDR
3. HDR Panorama mit PTGui
Ich möchte ausnahmsweise in umgekehrter Reihenfolge starten und auch ein Bekenntnis ablegen.
Punkt Eins: HDR Panoramen mit PTGui.
Damit habe ich noch nie gearbeitet und somit keinerlei Erfahrungen. Das hat zwei Gründe:
1. Meiner Meinung nach wurde jede Software zu einem bestimmten Zweck programmiert. PTGui ist für meinen Begriff eine reine Stitchingsoftware. Diesen Job erledigt das Programm mit Bravour und meiner Meinung nach als Klassenprimus. Daher bin ich der festen Überzeugung, dass PTGui nicht über die Mittel und Qualität einer spezialisierten HDR Software verfügt.
2. Nutzt man die Viewpointfunktion von PTGui, so frage ich mich, ob man für jedes Nadirbild einer HDR-Belichtungsreihe Kontrollpunkte von Hand setzen muss, oder ob PTGui eine „intelligente Logik“ besitzt, um gesetzte Kontrollpunkte eines „HDR-Nadirbildes“ auf andere Bilder der Belichtungsreihe zu übertragen.
Da würden mich wirklich Eure Erfahrungen interessieren.

Punkt Zwei: Panorama to HDR
Damit ist gemeint, zuerst die Panoramen aus den jeweiligen Belichtungsreihen zu stitchen und danach die entstandenen „Panorama-Belichtungsreihen“ zu einem HDR zu überblenden.
Für mich nur die zweitbeste Wahl, da die zugrundeliegenden Bilder aus den Belichtungsreihen natürlich entweder zu hell, zu dunkel oder eine gemittelte Belichtung besitzen. Ich habe die Erfahrung gemacht, dass eine Stitching-Software in jeder Belichtungsstufe der Ausgangsbilder Probleme beim generieren der Kontrollpunkte bekommen kann. Ungenauigkeiten beim Stitching-Prozess sind somit eher möglich.
Punkt Drei: HDR to Panorama
Damit ist gemeint, mit einer HDR-Software zuerst die Belichtungsreihe jedes Panoramasektors zu einem HDR-Bild zu verrechnen, um danach erst die resultierenden LDR-Bilder zu einem Panorama zu stitchen. Diese Methode hat für mich aus folgenden Gründen unschlagbare Vorteile:
1. LDR-Bilder zeigen sehr viel mehr Details, sowohl in den Lichtern, als auch in den Tiefen
2. mehr Details in den Einzelbildern erleichtert der Stitching-Software das Finden von korrekten Kontrollpunkten
3. für Belichtungsreihen der gleichen Location kann man die Erzeugung der HDR-Bilder automatisieren

Ich arbeite seit vielen Jahren ausschließlich mit dem „HDR to Panorama Wokflow“.
Welche Erfahrungen habt ihr mit den drei Lösungsansätzen schon gemacht?
Vielleicht gibt es noch andere Wege, die zum Ziel führen?
Zum Schluss:
Für DRI-Panoramen gilt – im Vergleich zu „normalen“ Panoramen noch viel mehr die Devise: üben, üben und nochmals üben.
Es gilt immerhin zwei unterschiedliche Techniken zu meistern, um zu ein überzeugenden Endergebnis zu kommen. Über die Wirkung von DRI-Bildern lässt sich ja trefflich streiten. Wie wohl ziemlich jeder hatte auch ich meine „HDR Hochphase“. Die resultierenden Ergebnisse habe ich jedoch aus meinen Bildarchiven und meiner Erinnerung getilgt 🙂
Seitdem versuche ich die HDR-Technik nach dem Motto „weniger ist mehr“, natürlich wirkend, einzusetzen.
Ich hoffe wie immer, Euch mit meinen Ausführungen ein klein wenig helfen zu können.
Hier findet Ihr den Blog von Martin Wolfert
Zitat DigiFokus: „Warum so dogmatisch, ich würde erst einmal nie ohne RAWs “nach Hause” gehen, das wäre verschenktes Potential.“
Das war gar nicht so dogmatisch gemeint. Natürlich würde ich niemandem verbieten, außschließlich mit RAW zu arbeiten. Ich würde auch nie bestreiten, daß RAW grundsätzlich ein deutliches Mehr an Informationen bietet als JPG.
Mein Kommentar war eine Antwort auf das Problem von baalsenblau verbunden mit dieser meiner Empfehlung. Sein Problem war, daß Hugin die Belichtungsreihen aus selbst entwickelten RAWs durcheinanderbringt. Es hätte natürlich hier gereicht zu schreiben, daß bei der Entwicklung alle Einstellungen gleich sein müssen – so wie du es ausführlich beschrieben hast. Wenn die Einstellungen nicht gleich sind findet (auch bei mir) Hugin vermeintliche Kontrollpunkte, die völlig unsinnig sind. Vielleicht entstehen ja durch die unterschiedliche Entwicklung zufällige Helligkeitsmuster, die Hugin fälschlich als passende Kontrollpunkte interpretiert (vermutlich nicht nur Hugin).
Meine Empfehlung umschifft ja die „Unzulänglichkeiten meiner Arbeitsmittel“. Ich sehe das so, daß ich Nutzen und Aufwand an dem Ergebnis messe, das ich anstrebe.
Die Qualität eines RAW gegenüber einem JPG ist enorm. Aber die Nachteile des JPGs im Dynamikumfang werden mit der Länge der Belichtunmgsreihe geringer. Und wenn man eine RAW-Belichtungsreihe von -3 bis +3 mit den gleichen Einstellungen entwickelt, sind dann wirklich noch alle Informationen vorhanden? Da würde ich mir mal gerne die Histogramme der hellsten und dunkelsten ansehen. Oder war gar gemeint, aus einem RAW ein „Preudo-HDR“ von -3 bis +3 Blendenstufen zu generieren? Das hätte dann einen größeren Dynamikumfang als eine JPG-Belichtungsreihe über 7 Blendenstufen?
Bei weiten Panoramen oder Kugelpanoramen arbeite ich mit Belichtungsreihen über sieben oder neuen Blendenstufen. Und Tonwertabrisse sind mir dabei selbst bei starker Nachbearbeitung noch nicht vorgekommen. Mit den eingesetzten Mitteln komme ich zu den Bildern, die ich anstrebe. Ich arbeite dabei mit einem 18 mm Vollformatobjektiv. Das heißt, für ein Kugelpanorama mit Belichtungsreihen über neun Blendenstufen brauche ich 128 Aufnahmen mit 12 Megapixeln (ich liebe es in den hoch aufgelösten Panoramen herumzufahren). Mit RAW bräuchte ich weniger Aufnahmen hätte aber eine größere Datenmenge und müßte meinen Quadcore-PC mit 8 GB RAM auf den Müll werfen. Aber das Mehr an Qualität wüßte ich gar nicht zu schätzen, ich bräuchte es nicht.
Aber auf gar keinem Fall würde ich irgendjemandem dogmatisch verbieten den perfekten Weg zu gehen. Ich wollte nur meine Erfahrungen, die sich an meinem Bedürfnissen orientieren, als Empfehlung an baalsenblau geben.
Ich hätte allerdings darauf hinweisen müssen, daß mein Weg darauf zielt mit einfachen Mitteln zu arbeiten.
distinti saluti, Andreas
@lichtträumer: Das mach ich, damit die Datenmengen überschaubar und die Bearbeitungsdauer im Rahmen bleiben. Der Export nach JPG erfolgt ja erst nach der fertigen HDR-Entwicklung, so das „nur noch“ das Panaorama erstellt werden muss. Und irgendwann muss ja sowieso aus dem HDR ein LDR gemacht werden.
Wenn ich wirklich mal das Maximum an Qualität brauch, kann ich den Workflow ja auch mit TIF durchlaufen lassen.
@DigiFokus: danke für deine Ausführungen. Vor allem deinen Schluss Satz finde ich wirklich bemerkenswert 😉
@Zonga: warum exportierst du deine Bilder aus LR als JPEG um später nach dem stitchen ein PSD File zu generieren? Damit verschenkst Du wirklich einiges an Bildqualität. Der Workflow sollte sein, das JPEG Format erst dann zu benutzen, wenn die Panoramen im Web abgebildet werden.
Mein Workflow:
– Import der Belichtungsreihen in LR
– evtl. Objektivkorrektur
– Verrechnen der Belichtungsreihen zu 32-Bit-Tiff mit dem Photomatix-Plugin für LR
– parallele Bearbeitung der Tiff-Bilder in LR
– Export als Jpg-Dateien
– Stitchen in PTGui
– speichern als PSD-Datei mit den einzelnen Ebenen
– Verrechnen der Ebenen mit PS
– Nachbearbeitung in PS
LG Zonga
Zitat @ruderninvenedig „Also entweder eine JPG-Belichtungsreihe aus der Kamera oder entwickelte RAW als JPG oder TIFF ohne Belichtungsreihe.“
„Also … entweder … oder?“
Warum so dogmatisch, ich würde erst einmal nie ohne RAWs „nach Hause“ gehen, das wäre verschenktes Potential.
Zitat: „Und wenn ich unterschiedliche RAWs gleich entwickele verliere ich genau das mehr an Information, daß RAW bietet.“
Das halte ich für einen Irrtum, denn jede Bildverarbeitung ist verlustbehaftet.
Was haben heutige RAWs? 14bit? Schon bei einer „echten“ 3er-RAW-Belichtungsreihe out-of-Cam habe ich einen Dynamikumfang, den kein 8-bit-Jpg leisten.
Das würde ja sonst bedeuten, dass die kamerainterne JPG-Engine ein Allheilmittel wäre. Ist sie aber nicht, eben gerade bei einem großen Dynamikumfang einer abzubildenen Szenerie muss ich diese Probleme mit einer Belichtungsreihe kompensieren und bekomme als JPG die von der Kamera bearbeiteten Bilder. Letztendlich sind aber die Kamera-JPGs nichts anderes als, die verarbeiteten Rohdaten des Sensors und das eben schon in komprimierte (verlustbehafteter) Form. Weitere Infromationsverluste entstehen bei der Erstellung des HDR und beim Speichern des gestitchten Bildes.
Das JPG out of Cam mag durchaus für die Weiterverarbeitung genügen, aber spätestens z.B. bei starken Verläufen im Himmel werden die Tonwertabrisse wieder allgegenwärtig sein.
Was die Kamera kann, das kann ich aber auch selber tun, und das mit dem Vorteil einem von Anfang an weniger verlustbehafteten 16-bit-Bildformat .
Wie in einem der letzten Blog-Beiträg zu diesem Thema berichtet wurde, eignen sich Fisheys in Verbindung mit einem Einbein sehr gut für die Erstellung von vollsphärischen Panoramen. Auf einem Einbein sind aber kaum zufriedenstellenden Ergebnisse mit einer Bilchtungsreihe zu erreichen. Wie schafft man hier Abhilfe? Ich nenne es immer „Pseudo-HDR“ (was es nicht ist). Da das RAW-Format bekanntermaßen eine Dynamikumfang von min. 2 Blendenstufen mitbringt, kann ich quasi eine -1/0/+1 Belichtunsgreihe mit dem RAW-Konverter generieren.
Auch -2/0/+2 oder selbst eine 5er-Reihe -3/-1,5/0/+1,5/+3 ist durchaus machbar. Da die Quellbilder schon komplett mit manuellen Parameter fotografiert werden, ist dies für die Entwicklung von 16-bit-TIFs aus den RAW-Darteien, mit jeweils identischen Parametern vollkommen unproblematisch.
Eine der Voraussetzungen der RAW-Entwicklung ist natürlich, wie auch schon bei der Aufnahme, auf alle Automatismen zu verzichten. Alle automatische Filter, Histrogramm-Spreizer und was weiß ich für sonstige Optimerer müssen im Konverter deaktiviert werden. Einige RAW-Konverter bieten die Möglichkeit von einem Master-Bilder mehrere Versionen zu erstelllen und die in einem Rutsch als TIF oder JPG erzeugen werden können. Per Copy&Paste werden die Einstellung des bearbeiteten Quellbildes an alle Bilder der Serie übergeben. Und das klappt wirklich hervorragend, Stitching-Problem auf Grund dessen hatte ich noch nicht.
Sollte Hugin damit nicht klar kommen, liegt es nur bedingt am Bildmaterial. Das Programm wird trotz seiner Funktionsvielfalt nie die eierlegenden Wollmilchsau werden. Seitdem ich mittlerweile im Workflow nur noch mit unterschiedlichen und für jeden Schritt spezialisierten Komponenten arbeite: RAW-Konverter -> HDR -> Stitchen -> Nadir-Retusche, klappt das auch eigentlich mit den Belichtungsreihen aus RAW-Dateien völlig problemlos.
Als Software sind bei mir im Einsatz: AfterShot Pro, Photomatix Essential, Panoramastudio Pro, Pano2VR
Das bedeutet ganz einfach auch, dass ich meinen Workflow gezielt auf meine Bedürfnisse angepassen konnte und nicht Workarounds suchen musste um die Unzulänglichenkeiten meiner Arbeitsmittel zu umschiffen. 😉
@ baalsenblau: ich nutze Hugin schon seit längerem so, daß ich von Hugin Belichtungsreihen zu Panoramen zusammensetzen lasse. Ich nehme dafür die JPGs der Kamera als Ausgangsmaterial. Habe ich das Panorama in RAW fotografiert muß ich die ja erst entwickeln, da die von Hugin nicht verarbeitet werden. Wenn ich alles aus dem RAW heraushole brauche ich aber meistens keine Belichtungsreihe. Ist der Dynamikumfang so groß, daß ich eine Belichtungsreihe zwingend brauche, kann ich darauf verzichten alles in RAW zu fotografieren und dann umzuwandeln. Denn alle Bilder müssen dann ja gleich entwickelt sein sonst kommt das Programm durcheinander. Und wenn ich unterschiedliche RAWs gleich entwickele verliere ich genau das mehr an Information, daß RAW bietet. Also entweder eine JPG-Belichtungsreihe aus der Kamera oder entwickelte RAW als JPG oder TIFF ohne Belichtungsreihe.
@ alle: wenn ich sauber fotografiert habe setzt mir Hugin die Belichtungsreihen immer sauber zu einem Panorama zusammen. Dabei habe ich die Erfahrung gemacht, daß das resultierende DRI, das Hugin ausgibt immer heller als die Mitte der jeweiligen Tonwerte ist. Man kann die Bilder aber in den Mitten und Schatten noch abdunkeln ohne das es gleich zu unschönen, schwammigen Ergebnissen kommt. Hier zeigt sich aber der Nachteil, daß Hugin kein wirkliches HDR-Programm ist. Man kann das Tonmapping nicht beeinflussen.
Die Ergebnisse kommen meinen angestrebten Bildideen aber sehr entgegen, deshalb arbeite ich damit.
Man kann die Helligkeit der Ausgabe allerdings so steuern, daß man dunkle Bilder doppelt hochläd oder aus eine Belichtungsreihe mit einer Blende Abstand bei den helleren Bildern jede zweite Belichtungsstufe löscht. Bilder, bei denen Lichtquellen, also Fenster und Lampen, stark überstrahlen, nehme ich nicht mehr, weil dieser Schleier fast immer im DRI auftaucht.
Cordiali saluti, Andreas
Hallo Martin,
hm, da ich noch nie mit Hugin gearbeitet habe, kann ich dir dahingehend leider keinen Lösungsansatz anbieten … sorry.
Beste Grüße,
Martin
Ergänzung: Die RAW-Daten werden vor dem Stitchen natürlich entwickelt und als tif oder jpg gespeichert.
Gruß Martin
Hallo Lichtträumer, ich habe bereits mit beiden Methoden gearbeitet, habe aber keinen nenneswerten Unterschied feststellen können. Ich arbeite mit Hugin und Photomatix.
Mich würde aber ein anderes Problem interessieren. Stitche ich jpg-Bilder in Hugin, werden diese in 95 Prozent aller Fälle super zusammengezetzt. Mit den selben RAW Dateien kommt meistens Chaos raus beim stitchen. Hast du das auch schon bemerkt?
Wichtig für mich.
Gruß Hubert
Hallo BrettHolder,
ich habe ganz am Anfang auch mit „Panorama to HDR“ begonnen, aus den im Artikel genannten Gründen jedoch schnell zu „HDR to Panorama“ gewechselt.
Ganz wichtig dabei ist eben, sowohl in Lightroom als auch in Photomatics die jeweiligen Bilder absolut identisch zu behandeln. Dann bekommt man auch keine Unterschiede in den Sektoren.
Grüße,
Martin
Finde ich interessant. Ich hab bisher immer nach der „Panorama to HDR“ Methode gearbeitet, weil ich befürchtet habe dass bei „HDR to Panorama“ jeder Sektor mit der HDR Software unterschiedlich nachbearbeitet wird und dadurch im Panorama zu viele Unterschiede zwischen den Sektoren erkennbar sind – fairerweise muss ich sagen, dass ich diese Methode noch nie ausprobiert habe. Die Erfahrung dass bei der „Panorama to HDR“ Methode in jeder Belichtungsstufe unterschiedliche Kontrollpunkte generiert und damit fürs HDR ggf. unpassende Vorlagen geliefert werden habe ich auch gemacht, hab es dadurch aber umgangen, dass ich zunächst ein Referenzpanorama aus der mittleren Belichtungsstufe erzeugt habe und deren Kontrollpunkte als Vorlage für die anderen Stufen genommen habe (geht z.B. mit „Hugin“)