Praktische Anwendung von HDRI in der Postproduktion
Transcrição
Praktische Anwendung von HDRI in der Postproduktion
Bibliografischer Nachweis Bloch, Christian: Praktischer Einsatz von High Dynamic Range Imaging in der Postproduktion Diplomarbeit, Hochschule für Technik, Wirtschaft und Kultur Leipzig (FH) Fachbereich Polygrafische Technik, Studiengang Medientechnik, 2003 102 Seiten, 92 Bilder, 7 Tabellen, 58 Quellenangaben Leipzig, den 04.08.2003 Autorreferat High Dynamic Range Imaging (HDRI) ist eine neue Methode, um den gesamten sichtbaren Kontrastumfang digital zu erfassen und zu bearbeiten. Damit wird nicht nur die herkömmliche Bildbearbeitung erweitert, sondern es erschließen sich vollkommen neue Anwendungen. So erlaubt HDRI meßtechnisch korrekte Aussagen über die tatsächliche Helligkeit von abgebildeten Objekten oder Lichtquellen. Besondere Bedeutung kommt HDRI Panoramafotos zu, denn die darin enthaltenen Lichtinformationen können zur Beleuchtung virtueller 3D-Objekte benutzt werden. Es kommt in dieser Arbeit nur Hard- und Software zur Anwendung, die auf dem freien Markt erhältlich ist. Schwerpunkt liegt auf der vollständigen Nachvollziehbarkeit aller geschilderten Methoden. Daraus resultieren Anleitungen und Empfehlungen, wie High Dynamic Range Imaging in eine vorhandene Postproduktionskette effizient eingebunden werden kann. Vorwort Die HDRI Technologie hat sich in aufwendigen Filmproduktionen bewährt. Große Postproduktionshäuser wie ILM [1] („Harry Potter“), Digital Domain [2] („X-Men“), und Rhythm&Hues [3] („Spiderman“) haben dabei eigene Arbeitsmethoden entwickelt, die auf proprietärer Software basieren. Diese Arbeitsweisen werden jedoch als Industriegeheimnisse streng behütet. In dieser Arbeit werden Methoden aufzeigt, wie auch man auch ohne eigene Entwicklungsabteilung die Vorteile von HDRI voll nutzen kann. HDRI rüttelt an den Grundpfeilern herkömmlicher digitaler Bildbearbeitung. Deshalb wird im Kapitel 1 die Grundidee hinter HDRI ausführlich erklärt. In Kapitel 2 wird das benötigte Handwerkszeug vorgestellt. Herkömmliche Bildformate erweisen sich als unzulänglich, und herkömmliche Software wie Photoshop kann mit HDRI nicht umgehen. Neue Formate und Programme werden vorgestellt, verglichen und nach Integrationsfähigkeit bewertet. Wie man HDR Bilder aufnimmt, wird in Kapitel 3 untersucht. Alternative Verfahren werden diskutiert, und die optimale Vorgehensweise wird herausgestellt. Zusätzlich wird ein Ausblick auf zukünftige Aufnahmeverfahren gegeben. Kapitel 4 deckt die Vorteile von HDRIs in der Bildbearbeitung auf. An Beispielen werden konkrete Arbeitsmethoden geschildert und mit herkömmlicher Bildbearbeitung verglichen. Der Aufnahme von HDRI Panoramen ist das Kapitel 5 gewidmet. Es werden optimierte Methoden eingeführt, verglichen und einer Aufwandsanalyse unterzogen. In Kapitel 6 wird erklärt, wie HDRIs zur Beleuchtung von 3D Objekten verwendet werden können. In einer Testreihe wird bewiesen, daß die Grundidee in den 5 marktführenden 3D Programmen funktioniert. Weiterführende Praktiken werden aufgezeigt, unter anderem eine vom Verfasser selbst entwickelte. Inhaltsverzeichnis 1. Einführung in die Grundlagen von HDRI ....................................................1 1.1. 1.2. 1.3. 1.4. 1.5. 2. Begriffsklärung.....................................................................................1 Wie wir die Welt sehen...........................................................................2 Digitale Bilder .....................................................................................3 Wiedergabemedien................................................................................5 Fotografie – Was ist dran am Fotorealismus? ...........................................7 Neue Werkzeuge..........................................................................................9 2.1. Dateiformate ........................................................................................9 2.1.1. Raw Binary Floating Point .RAW / .FLOAT................................................9 2.1.2. Portable Float Map .PFM .................................................................10 2.1.3. Floating Point TIFF .TIF ..................................................................10 2.1.4. Radiance .HDR / .PIC .......................................................................10 2.1.5. LogLuv Format .TIF .........................................................................11 2.1.6. ILM OpenEXR .EXR........................................................................12 2.1.7. Kodak ERI-JPEG .............................................................................13 2.1.8. Vergleichstabelle .............................................................................14 2.2. Spezielle Software...............................................................................14 2.2.1. HDRView ......................................................................................15 2.2.2. HDRShop ......................................................................................15 2.2.3. HDRIE .........................................................................................15 2.2.4. HCR-Edit ......................................................................................16 2.2.5. Photosphere ...................................................................................16 2.2.6. Photogenics ...................................................................................17 2.2.7. mkhdr ..........................................................................................17 2.2.8. Vergleich .......................................................................................18 2.3. HDRI-taugliche Compositing Programme .............................................19 2.4. Panoramaformate ...............................................................................20 2.4.1. Spherical Map ................................................................................20 2.4.2. Cubic Map.....................................................................................21 2.4.3. Angular Map ..................................................................................22 2.4.4. Vergleichstabelle .............................................................................23 3. Aufnahme von HDR Images ......................................................................23 3.1. Digitale Sensoren ...............................................................................24 3.1.1. Technische Problemdefinition...............................................................24 3.1.2. „Time-to-Saturation“ ........................................................................24 3.1.3. Logarithmische Sensoren....................................................................25 3.1.4. Digital Pixel Sensor ..........................................................................25 3.1.5. Rasterversetzte Belichtung ..................................................................26 3.1.6. SuperCCD SR .................................................................................27 3.1.7. Doppelblitzverfahren ........................................................................27 3.2. Realisierte Systeme .............................................................................28 3.2.1. HDR Video ....................................................................................28 3.2.2. Digitale Fotografie ...........................................................................29 3.3. Handarbeit.........................................................................................30 3.3.1. Aufnehmen der Belichtungsreihe ...........................................................31 3.3.2. Welche Kamera? Analog oder Digital? ...................................................31 3.3.3. Kalibrierung ..................................................................................33 3.3.4. Rekonstrukion des HDRI ....................................................................35 4. Anwendung in der Bildbearbeitung ............................................................42 4.1. 4.2. 4.3. 4.4. 5. Belichtungskontrolle ...........................................................................42 Bewegungsunschärfe...........................................................................46 Glow- und Bloom- Effekte....................................................................49 simulierte Filmbelichtung ....................................................................50 HDR Environments...................................................................................52 5.1. 5.2. 5.3. One Shot Technik ................................................................................52 Segment Technik .................................................................................53 Spiegel Technik ...................................................................................55 5.3.1. Das Prinzip....................................................................................55 5.3.2. Das Fotografieren ............................................................................57 5.3.3. Übersicht des Nachbearbeitungsprozesses ...............................................58 5.3.4. Umwandlung in HDR ........................................................................59 5.3.5. Abwicklung in HDR-Shop ...................................................................59 5.3.6. Retusche in Photogenics.....................................................................62 5.4. Weitwinkel Technik..............................................................................64 5.4.1. rechtliche Vorbemerkungen .................................................................64 5.4.2. Fotografie ......................................................................................65 5.4.3. Umwandlung in HDRI .......................................................................66 5.4.4. Entzerrung mit HDRShop ...................................................................66 5.4.5. Panoramageneration in Photogenics ......................................................69 5.4.6. Bessere Qualität durch PTPicker ..........................................................70 5.5. Sonderfall Skydome ............................................................................74 5.5.1. Vorüberlegungen .............................................................................74 5.5.2. Das Fotografieren ............................................................................75 5.5.3. Umwandlung in HDR ........................................................................75 5.5.4. Entzerrung in HDRShop ....................................................................75 5.6. Vergleich............................................................................................77 5.7. Welche Auflösung ist notwendig?..........................................................78 6. Anwendung im CGI Bereich ......................................................................79 6.1. CGI – Computer Generated Images......................................................79 Klassisches Fotorealistisches Rendering ..................................................80 Physikalisch Basiertes Rendering ..........................................................81 Über den Umgang mit der Simulation.....................................................82 Image Based Lighting .......................................................................83 6.2. Fallstudie A: Reine Simulation, In-Camera ...........................................84 6.2.1. Aufbau und Vorbereitung ....................................................................85 6.2.2. HDRI Challenge ..............................................................................87 6.2.3. Das Tischproblem ............................................................................89 6.3. Fallstudie B: Extrahieren der Lichtinformation......................................90 6.4. HDRI Projektion durch Spotlights ........................................................93 6.4.1. Aufnahme des Lichtbildes ...................................................................93 6.4.2. Lichtprojektion in 3D ........................................................................93 6.5. Ausblick auf zukünftige Arbeiten ..........................................................96 7. Zusammenfassung ....................................................................................97 Quellenverzeichnis ........................................................................................... 98 6.1.1. 6.1.2. 6.1.3. 6.1.4. 1 1. Einführung in die Grundlagen von HDRI 1.1. Begriffsklärung Der Dynamic Range bezeichnet das Verhältnis zwischen dem größten und dem kleinsten unterscheidbaren Kontrast in einem Bild. Die eigentliche Maßangabe ist eine Verhältniszahl. In der fotografischen und filmerischen Praxis gibt man den Dynamic Range jedoch mit der Anzahl der enthaltenen Belichtungsstufen an. Eine Belichtungsstufe, auch Lichtwert (LW) oder Exposure Value (EV) genannt, ist eine fotografische Maßangabe für die Lichtmenge, die auf den Film fällt. Diese Lichtmenge wird Belichtung genannt. Die Belichtungsstufe 0 ist definiert als die Belichtung bei Blende F1 und einer Sekunde Belichtungszeit, sowie jeder beliebigen Paarung die zur gleichen Belichtung führt. Eine Erhöhung der Tabelle 1: Belichtungsstufen bei ISO 100 Blende Belichtungszeit ISO 100 F1 1.4 F2 F2.8 F4 F5.6 F8 F11 F16 F22 F32 F45 F64 1s 0 1 2 3 4 5 6 7 8 9 10 11 12 1/2 s 1 2 3 4 5 6 7 8 9 10 11 12 13 1/4 s 2 3 4 5 6 7 8 9 10 11 12 13 14 1/8 s 3 4 5 6 7 8 9 10 11 12 13 14 15 1/15 s 4 5 6 7 8 9 10 11 12 13 14 15 16 1/30 s 5 6 7 8 9 10 11 12 13 14 15 16 17 1/60 s 6 7 8 9 10 11 12 13 14 15 16 17 18 1/125 s 7 8 9 10 11 12 13 14 15 16 17 18 19 1/250 s 8 9 10 11 12 13 14 15 16 17 18 19 20 1/500 s 9 10 11 12 13 14 15 16 17 18 19 20 21 1/1000 s 10 11 12 13 14 15 16 17 18 19 20 21 22 1/2000 s 11 12 13 14 15 16 17 18 19 20 21 22 23 1/4000 s 12 13 14 15 16 17 18 19 20 21 22 23 24 Belichtungsstufe um 1 entspricht einer Verdopplung der Lichtmenge, eine Verminderung um 1 zu einer Halbierung. [4] Tabelle 1 zeigt eine Zusammenstellung der Belichtungsstufen bei ISO 100. In der CCD-Entwicklung wird der Dynamic Range als technische Gütegröße angesehen. Er setzt sich zusammen aus dem logarithmischen Verhältnis zwischen dem größten auslesbaren Signal und dem Ausleserauschen. Es wird in Dezibel angegeben. Aus diesem technischen Dynamic Range leitet sich die zulässige Farbtiefe beim Auslesen der CCDs ab. [5] In der Praxis wird der Dynamic Range daher auch gelegentlich mit der Farbtiefe verwechselt und in Bit angegeben. Dies ist jedoch nicht ganz korrekt. Digitale Bilder mit hohem 2 Dynamic Range sind zwar meist mit mehr als den üblichen 8 Bit pro Farbkanal verschlüsselt, doch nicht alle Bilder mit hoher Farbtiefe beinhalten auch einen High Dynamic Range. Das ganze Thema um High Dynamic Range Images ist noch sehr jung, und geprägt von viel Verwirrung bei den Benutzern. Es bewegt sich an der Schnittstelle zwischen Fotografie und Computergrafik, und wird derzeit von beiden Seiten her erforscht. Neue digitale Werkzeuge sind entstanden, die Lösungen für sehr grundsätzliche Probleme der analogen Fotografie bieten. Neue Methoden im Umgang mit Bilddaten sind entstanden, die eher einer Simulation analoger Arbeitsschritte als digitaler Bildmanipulation entsprechen. Es zeichnet sich eine Konvergenz ab, die zu neuen Formen für die Abbildung der Welt, so wie wir Menschen sie sehen, führt [2][23]. 1.2. Wie wir die Welt sehen Das menschliche Auge besitzt die Fähigkeit, Kontraste von bis zu 1:10.000 zu unterscheiden. Die Sonne ist beispielsweise millionenmal heller als eine Kerzenflamme. Trotzdem kann man sich sowohl in einem sonnigen Park, als auch in einer nur von Kerzen beleuchteten Kirche sehr gut zurechtfinden, weil sich das Auge an diese Helligkeitsunterschiede anpassen kann. Dieser Mechanismus wird Adaption genannt. Auch wenn sich das Blickfeld nicht verändert, wie zum Beispiel bei einem Blick aus dem Fenster an einem sonnigen Nachmittag, ist der wahrnehmbare Bereich enorm. Der Himmel ist im Regelfall hundertfach heller als das Innere des Zimmers. Trotzdem kann man den Himmel und die Wolken in allen Einzelheiten wahrnehmen, und gleichzeitig noch sämtliche Schattierungen in dem vergleichsweise viel dunkleren Zimmer erkennen. Diese Fähigkeit nennt man „Lokale Adaption“ [7]. Man spricht in diesem Zusammenhang auch von einem sehr großen wahrnehmbaren Dynamic Range. Wie diese gewaltige Leistung des Sehvermögens zustande kommt, ist nicht hinreichend erforscht. Es sind zwar empirische Daten durch Messung der Reizzustände der lichtempfindlichen Rezeptoren gesammelt worden [6], doch deren Interpretation kann sich nur auf Vergleichswerte zwischen gesundem und krankem Auge berufen, und hat damit vorrangig medizinischen Nutzen. Die eigentliche Wahrnehmung von Helligkeitsunterschieden geht stets mit einer Interpretation einher, und ist als solche ist schon ein intelligenter, wenn auch unterbewußter Prozeß. Der Eindruck einer Helligkeit hat mit der physikalisch meßbaren Helligkeit nichts gemeinsam. Wie genau dieser Eindruck jedoch beschaffen ist, 3 läßt sich nur sehr schwer erforschen – immerhin handelt es sich dabei um eine kognitive Erfahrung. Die Sinne sind hierbei nur das Bindeglied zwischen äußerer und innerer Welt. Nicht die äußere Welt wird direkt erlebt, sondern nur die aus Sinneseindrücken konstruierte Erlebniswelt im Inneren. Die Kognitionswissenschaft bewegt sich hier im Mischfeld aus Physiologie und Psychologie. Der Kognitionswissenschaftler HOFFMANN [7] nennt zwei Aspekte, die er für die Konstruktion von Grautönen entscheidend hält: „Erstens, um einen Grauton in einem Punkt zu konstruieren, halten Sie sich nicht nur an die Helligkeit in diesem Punkt. Außerdem verwenden Sie in der Regel nicht nur die Helligkeit in unmittelbarer Nähe des Punktes. Vielmehr ziehen Sie große Teile des Bildes und komplexe Gruppierungsregeln heran, die wir noch nicht entdeckt haben. Zweitens, Sie konstruieren Ihre Grautöne als Teil eines koordinierten Konstruktionsprozesses, der Flächenformen, Flächenfarben, Lichtquellen und transparente Filter betrifft.“ 1.3. Digitale Bilder Digitale Bilder werden üblicherweise mit 24 Bits codiert; wobei jeweils 8 Bit für die Intensität der einzelnen Farbkanäle Rot, Grün, und Blau stehen. Um die Helligkeit eines Pixels farbecht zu verändern, muß man jedoch alle 3 Farbwerte anheben oder absenken. Die dunkelste darstellbare Farbe ist schwarz mit den Werten (0,0,0) und die hellste ist (255,255,255). Damit kann jeder Pixel effektiv 256 verschiedene Helligkeitsstufen annehmen. Wie kann man nun den wahrnehmbaren Dynamic Range mit diesem engen codierbaren Wertebereich darstellen? Um wieder auf das Beispiel mit dem Fensterblick zurückzukommen, könnte man der dunkelsten Stelle unter dem Tisch den Wert 0 zuweisen, und der hellsten Wolke den Wert 256. Alle Zwischentöne werden entsprechend ihrer Helligkeit auf diese Skala übertragen. Wie im Bild 1 ersichtlich, ist der Himmel zwar sehr gut abgebildet, doch im Inneren des Zimmers verschwinden die Details in den Schatten. Allein die weiße Wolke beansprucht das obere Viertel unserer verfügbaren digitalen Werte. Durch den großen Kontrastunterschied dieser Szene – sprich hohen Dynamic Range – bleiben für die Abbildung des Innenraumes nicht viele Werte übrig. Wie aus dem Histogramm ersichtlich, werden deshalb 75% der Bildfläche in den unteren 47 Helligkeitswerten komprimiert. 4 Bild 1: linear skalierter Dynamic Range. Eine andere Möglichkeit wäre, eine Obergrenze für die Motivhelligkeit festzulegen, beispielsweise den Fensterrahmen. Das sähe dann etwa so aus wie in Bild 2. Bild 2: abgeschnittener Dynamic Range Zwar ist jetzt das Zimmer in allen Einzelheiten erkennbar, doch der Ausblick ist komplett verschwunden. Im Histogramm ist zu erkennen, daß 25% der Bildfläche in den obersten 9 Helligkeitswerte zusammengepreßt sind. Fast das gesamte Fenster hat den Farbwert (255,255,255). Auch intensivste Nachbearbeitung wird den Ausblick nicht wieder herbeiholen können, wenn das Bild einmal so gespeichert wurde. 5 High Dynamic Range Imaging dagegen macht es möglich, den gesamten Detailreichtum dieser Szene in einem einzigen Bild zu speichern. Probleme wie Überoder Unterbelichtung sind damit irrelevant, denn ein HDRI enthält genug Information, um die Belichtung in der Nachbearbeitung beliebig zu ändern. Bild 3: HDRI, Helligkeitswerte komprimiert durch Logarithmisches Tonemapping In Bild 3 wurden die Farbwerte durch ein logarithmisches Tonemapping-Verfahren [20] in dem verfügbaren Wertebereich verteilt. Das ist eine grobe Vereinfachung der menschlichen Sehweise. Komplexere Tonemapping-Operatoren [57][58] beziehen auch Effekte wie lokale Adaption und Sättigungsabfall in lichtarmer Umgebung mit ein. 1.4. Wiedergabemedien Es muß erwähnt werden, daß diese Beispielbilder natürlich abhängig von dem Wiedergabemedium mehr oder weniger Details zeigen. Printtechnisch ist der darstellbare Dynamic Range eng begrenzt durch den Weißgrad des Papiers und dem Schwärzungsgrad der Tinte, ultimativ jedoch durch die Beleuchtung beim Lesen. So können benachbarte Pixel mit sehr ähnlichen RGBWertepaaren leicht als gleichwertig erscheinen. Monitore arbeiten in der Regel nach der sRGB Norm. Ursprünglich wurde die 24bit RGB Verschlüsselung genau für diesen Zweck eingeführt – die Anzeige digitaler Bilder auf Röhrenmonitoren. Sie stufen demnach die Farben auch in genau diesen Intervallen ab, und lassen so im ersten Bild schon mehr Details erkennen. Doch auch hier liegt der nutzbare Dynamic Range bei 90:1 (bzw. 30-40 dB) [8][9], begrenzt durch die Grundschwärzung der Mattscheibe und die maximale Leuchtkraft. 6 WARD [8] schlußfolgert: „Therefore, although 24-bit RGB does a reasonable job of representing what a CRT monitor [Cathode-Ray-Tube: Röhrenmonitor] can display, it does a poor job representing what a human observer can see.“. Kann man sich damit zufriedengeben, den Informationsgehalt digitaler Bilder auf den technisch darstellbaren Dynamic Range (DR) zu beschränken? Welche Konsequenzen zieht diese Beschränkung mit sich, wenn das Bild zwischen Aufnahme und Ausgabe noch digitaler Bearbeitung unterliegt? Und welchen Nutzen bringt es, diese Beschränkung zu erweitern oder gar aufzuheben? Wie kann man überhaupt mit einem nicht darstellbaren Helligkeitsumfang hantieren? Lohnt sich dieser Aufwand überhaupt? Und dann steht noch die Frage nach der Aquisition im Raum: Wie kann man den gesamten sichtbaren DR überhaupt fotografieren? Diese Fragen sollen in dieser Arbeit untersucht werden. Die Antworten werden sich zwangsläufig auf die heute nutzbare Hard- und Software beziehen, und repräsentieren damit den praktisch verwertbaren Status Quo. Einige der Fragen sind einer tieferen Erörterung wert. Insbesondere den fortgeschrittenen Anwendungsmöglichkeiten im Bereich computergenerierter Bilder ist ein ausführlicher Praxistest gewidmet. Fakt ist, daß sich die Displaytechnologien rasant entwickeln. LCDs werden immer lichtstärker, und moderne DLP (Digital Light Processing) Projektoren bieten heute schon einen weitaus höheren DR als Röhrenmonitore. Kodak’s neue OLED (Organic Light-Emitting Diode) Display’s können nach eigenen Angaben einen DR von 250:1 darstellen [10]. Die im März 2003 vorgestellte „Kodak EasyShare LS633“ Kamera zeigt, daß diese Technologie inzwischen reif für den Consumermarkt ist. Mehr als ein Dutzend Hardwarehersteller haben schon Lizenzen erworben; in 5 Jahren erwarten Analysten die OLED Technologie in Handys, PDAs, Digitalen Kameras, DVD Playern [11]. Darüberhinaus sind Laserdisplays vielerorts in der Entwicklung, und niemand kann heute mit Bestimmtheit sagen, auf welche Weise digitale Bilder in der Zukunft betrachtet werden. WARD [8] gibt zumindest auf die erste Frage schon eine klare Antwort: „Unless we introduce new color models to our image sources and do it soon, we will never get out of the CRT color cube.“. Leiden Film und klassische Fotografie denn nicht unter diesem Problem? Der DR von analogem Filmmaterial ist zwar auch beschränkt, aber immer noch etwa doppelt so groß wie der im sRGB Farbmodell erfassbare Bereich [4]. Das ist einer der prägnantesten Gründe, wieso Film sich durch einen eigenen Look von Video abhebt. Ein kurzer Ausflug in die Fotografie ist angebracht, um die Eigenheiten des Films zu klären. 7 1.5. Fotografie – Was ist dran am Fotorealismus? Die klassische Fotografie basiert auf einem chemischen Prozess, und zwar dem lichtbedingten Zerfall von Silberhalogenid [4]. Jedes einzelne Silberhalogenidkristall, auch Filmkorn genannt, besteht aus Milliarden positiv geladenen SilberIonen (Ag+) und negativ geladenen Halogenid-Ionen (Cl-, Br- oder J-). Durch Lichteinfall findet eine Ladungsverschiebung innerhalb dieser Kristalle statt, und mindestens ein Halogenid-Ion gibt ein Elektron an ein benachbartes Silber-Ion ab. Es entsteht metallisches Silber, die sogenannte Schwärzung. Diese fotochemische Reduktion verläuft logarithmisch. Hat eine bestimmte Lichtmenge beispielsweise die Hälfte des Korns umgewandelt, wird das erneute Einwirken derselben Lichtmenge nur noch ein Viertel des Korns schwärzen. Es würde Stunden dauern, um ein gesamtes Filmkorn in Silber umzuwandeln. Daher stellt man in der Praxis durch eine kurze Belichtung nur einen sogenannten Entwicklerkeim her, der dann bei der Entwicklung durch eine Kettenreaktion millionenfach verstärkt wird. Es wird eine bestimmte Mindestmenge an Licht benötigt, um bei dem Filmmaterial überhaupt eine Reaktion hervorzurufen. Im Gegenzug ist ab einem Maximum an Licht eine Sättigung erreicht, wenn das Filmkorn komplett in metallisches Silber umgewandelt ist. Um also ein Motiv mit allen seinen Tonwerten abzubilden, muß der gesamte Helligkeitsumfang des einfallenden Lichtes in diesem Intervall liegen, in dem Dynamic Range des Films. Ein professioneller Fotograf benutzt verschiedenste Hilfsmittel, um genau das zu ermöglichen. So kann er den Lichteinfall mit Blende, Belichtungszeit und verschiedenen Filtern regeln. Eine erfolgreiche Angleichung ist jedoch nur bei homogen ausgeleuchteten Szenen möglich, vornehmlich unter Studiobedingungen. In Situationen, wo der Himmel oder gar die Sonne im Motiv sind, übersteigt der Motivkontrast den Dynamic Range des Films. Dann hat der Fotograf nur die Wahl, entweder die Lichter, oder die Schatten korrekt abzulichten. In beiden Fällen entspricht das Bild nicht dem wahrgenommenen Sinneseindruck, der sich einem Betrachter der Szene vor Ort erschließt. Entscheidet sich der Fotograf für die Aufnahme der Lichter, verschwinden die Details der Schatten in einem gleichmäßig schwarzen Fleck. Belichtet er dagegen die Schatten opfert er die Details in den hellen Regionen. Diese VorOrt-Entscheidung kann nicht umgekehrt werden, die jeweils ausgeklammerten Details sind endgültig verloren. 8 Die Zwischentöne ordnen sich auf einer filmspezifischen Schwärzungskurve an. Dabei ist nur im Mittelteil dieser S-förmigen Kurve mit vorhersehbaren Tonwerten zu rechnen. Am unteren und oberen Ende, Fuß und Schulter genannt, sind die Belichtungsunterschiede komprimiert. Das sind die Stellen auf dem Film, wo die Filmkörner nahezu gesättigt sind, oder gerade genügend Licht bekommen haben um die Reduzierung zu Silber in Gang zu bringen. Auch in hochentwickelten Filmmaterialien sind diese Fuß und Schulter für jedes Filmkorn leicht verschieden, und ab einem gewissen Punkt überwiegt das Rauschen. Bei modernen Filmmaterialien beträgt der Dynamic Range, etwa 5 bis 8 Belichtungsstufen [12]. Wohlgemerkt ist er damit größer als der DR des Fotopapiers. Aus den im Film verfügbaren Informationen muß der Fotograf also wieder einen Bereich ausklammern. Das geschieht beim Nachbelichten, wenn der Entwicklerkeim chemisch verstärkt wird. Indem der Fotograf die Gradationskurven mittels geeigneter Chemikalien verändert, gewinnt er einen Spielraum von plus/minus einer Belichtungsstufe. Natürlich gehen dabei Informationen verloren, trotzdem nutzt das Ergebnis immer noch den vollen Umfang des dem Fotopapier, aus. Für diese Nachbearbeitung steht der gesamte Range des Films zur Verfügung, vergleichbar mit einer Leinwand auf der das Fenster des genutzten Ranges nach Belieben verschoben und skaliert werden kann. Dieser Spielraum ist es auch, der viele professionelle Fotografen an den analogen Techniken festhalten läßt. Denn sind die Bilder erst einmal in 24bit sRGB digitalisiert, ist dieser Spielraum verschwunden. Bei digitalen Bildern gehen Helligkeitsmanipulationen stets mit Datenverlust einher [12]. Eine digitale Aufhellung beispielsweise komprimiert die Farbwerte am hellen Ende, und am dunklen Ende der Skala entstehen Lücken im Histogramm. Eine Tonwertkorrektur kann nur die vorhandenen Werte spreizen oder komprimieren, aber in Lichtern und Schatten keine neuen Details hervorbringen. Grund dafür ist, daß der Dynamic Range des Rohmaterials identisch ist mit dem Dynamic Range des Endproduktes. 9 2. Neue Werkzeuge 2.1. Dateiformate 8 Bit pro Farbkanal sind also nicht genug. Viele Dateiformate gibt es auch in einer 16 Bit Version, wie beispielsweise TIFF, PSD, oder SGI. Diese fallen unter die Rubrik „Medium Dynamic Range“. Sie enthalten im Grunde nur feinere Abstufungen der Farbwerte, haben aber nicht zwangsläufig auch einen höheren Dynamik Range [4]. Echte High Dynamic Range Formate speichern Farbwerte ganz anders ab. 2.1.1. Raw Binary Floating Point .RAW / .FLOAT Wie der Name schon andeutet, sind in diesem Format die Pixelwerte als reine RGB-Fließkommawerte abgelegt. Pro Pixel und Farbe werden volle 32 Bit in Anspruch genommen, Kompressionsalgorithmen sind nicht eingebaut. Dieses Format macht nur als Ausgabeformat digitaler Kameras Sinn, und auch dann nur in beschränktem Umfang [2]. Hochwertige Digitalkameras, deren CCD-Chip mit 10 bis 12 bit Präzision arbeitet, bieten RAW-Ausgabe als Alternative zur internen Aufbereitung in 8 bit JPEGs an. Da sich jedoch die Bauweise digitaler Kameras oft grundlegend unterscheidet, weicht auch dieser Rohdatenstrom oft von dem Formatstandard ab. Im Extremfall, wie bei der Minolta DiMage Serie, kann diese RAW-Datei nur mit der vom Hersteller mitgelieferten Software gelesen werden. Ein universelles RAW-Importmodul enhüllt eine verwirrende Vielfalt in Bild 4.: Aufgrund technischer Beschränkungen der CCD-Chips hat dies nur eine geringe Rangeerweiterung zur Folge. Im Gegenzug muß man auf die JPEG-eigenen Metadaten verzichten. Außerdem sind die RAW-Dateien sind so groß, daß der Datentransfer auf die Speicherkarte enorm verzögert wird. Bild 4: RAW Import Optionen in HCR-Edit 10 2.1.2. Portable Float Map .PFM Das PFM Format sollte dem Wildwuchs unter unkompatiblen RAW Formaten ein Ende bereiten. Die eigentlichen Bilddaten entsprechen den ursprünglichen Richtlinien des RAW-Formates, sind also als unkomprimierter 32 Bit Strom von RGB-Fließkommawerten. Es ist ein kleiner Kopfteil mit Formatangabe und Normbelichtung vorangestellt, um den Import zu vereinfachen (siehe Bild 5). Bild 5: Vergleich von PFM und RAW 2.1.3. Floating Point TIFF .TIF In der originalen TIFF Spezifikation ist neben 8 und 16 Bit pro Farbkanal auch eine 32 Bit Fließkomma Version vorgesehen [12]. Lange Zeit galt dieses TIFF32 Format als hypothetisches, ultimatives Präzisionsformat. Da dieses Format keine Kompression vorsieht, ist es für die Postproduktion nicht empfehlenswert. 2.1.4. Radiance .HDR / .PIC Dieses Format ist der Dinosaurier unter den High Dynamic Range Formaten. Eingeführt wurde es schon 1985 von Greg WARD, als Outputformat seines 3D-Rendering System „Radiance“ [13]. Dieser war einer der ersten sogenannten physikalisch basierten Renderer. Das heißt er berechnet seine Bilder, indem er die spektralen Strahlungswerte in einem virtuellen Raum simuliert. Diese Strahlungswerte orientieren sich an den Verhältnissen der realen Welt, die Sonne wird beispielsweise als 50.000mal so hell wie eine Glühbirne definiert. Im Kapitel 6 sind die Besonderheiten dieser Rendermethode detailliert ausgeführt. Für solche Simulationen werden die aufwendigen Berechnungen üblicherweise mit Fließkommawerten ausgeführt. Um die nach langer Berechnungszeit ermittelten Werte mit größtmöglicher Genauigkeit zu speichern, führte WARD das Radiance-Format ein. 11 Es speichert im Grunde auch nur 8 Bit pro Farbkanal. Doch ein vierter, zusätzlicher Kanal wird mit einem 8 Bit breiten Exponenten belegt. Man nennt das Radiance-Format daher auch ein 32bit/pixel RGBE Format [13]. Mit dem Exponenten wird die Luminanz von den drei anderen Kanälen entkoppelt. Damit vervielfacht sich der speicherbare Helligkeitsbereich. Das Radiance Format kann so 26 Belichtungsstufen aufnehmen. Dabei ist das Format sehr einfach aufgebaut. Der Fließkommawert eines Pixels errechnet sich nach der Formel [2]: (R,G,B) * 2(E-128). Hat ein Pixel beispielsweise die Werte (145, 215, 87, 149) so errechnet sich sein Farbwert aus: (145, 215, 87) * 2(149-128) = (1190000, 1760000, 713000). Ein dunkler Pixel mit gleicher Farbe hätte nur einen anderen Exponenten. Für die Farbwerte (145, 215, 87, 103) sieht die Rechnung dann so aus: (145, 215, 87) * 2(103-128) = (0.00000432, 0.00000641, 0.00000259). Diese Konvertierung ist so einfach, daß sie problemlos als Lade- oder Speichermodul zu implementieren ist – vorausgesetzt die Software kann mit Fließkommawerten umgehen. Nachteil dieses Formates ist, nach eigener Aussage des Autors Ward [12], daß die RGB-Farbwerte nur positive Zahlen zulassen und damit einige sichtbare Farbtöne nicht annehmen können. 2.1.5. LogLuv Format .TIF Im Grundaufbau handelt es sich hier um TIFFs. Das LogLuv Format wurde kürzlich in den offiziellen TIFF Standard aufgenommen und steht damit allen Entwicklern frei zur Verfügung. Es wurde von WARD [12] eingeführt, um die Nachteile seines eigenen Radiance-Formats auszugleichen. Statt RGB nutzt es den geräteunabhängigen LUV-Farbraum. Dabei wird die Luminance (L) logarithmisch mit 16 Bit verschlüsselt, die Farbe separat als U und V mit jeweils 8 Bit. Zusammen werden also 32 Bits pro Pixel benötigt. 12 Zusätzlich entwickelte wurde auch eine 24-bit Version dieses Formates. Die Luminance muß hier mit 10 Bits auskommen. Trotzdem kann es auf Grund der logarithmischen Kompression immer noch einen Dynamic Range von 11 Belichtungsstufen beinhalten. Die Farbinformationen werden in den restlichen 14 Bits untergebracht. Diesmal allerdings nicht direkt als U- und V-Koordinaten. Statt dessen werden die sichtbaren Farben im UV-Raum in nichtwahrnehmbaren Schritten indiziert, und dieser Index mit 14 Bits gespeichert. 2.1.6. ILM OpenEXR .EXR EXR entstand 2000 bei Industrial Lights & Magic als hauseigenes Format, und wurde 2002 als Open Source für die Öffentlichkeit freigegeben [1]. Alle ILMinternen Tools nutzen inzwischen EXR als Austauschformat, unter anderem bei der Produktion von „Harry Potter 2“, „Men in Black 2“ und „The Hulk“. Die Standardkodierung sieht 16 Bit pro Farbkanal vor, zusammengesetzt aus einem Vorzeichenbit, 10 Bit Farbinformation, und 5 Bit für einen Exponenten [14]. Unterstützt wird aber auch die Kodierung in volle 32 Bit Fließkommawerte und in Standard 8 Bit RGB. Zusätzlich enthält die Spezifikation eine ganze Reihe innovativer Features, die speziell auf die Bedürfnisse in der Postproduktion zugeschnitten sind. So werden eine beliebige Anzahl von Kanälen unterstützt, die individuelle Kodierformate, Farbtiefen und Pixelaufösungen haben können. Eine neuartige Trennung von Bildgröße und sichtbarem Ausschnitt erlaubt das Unterbringen von zusätzlichen Bildinformation jenseits der Bildränder. Diese Zusatzinfos können das Ergebnis von großflächigen Filtern wie Weichzeichner oder Bewegungsunschärfe bedeutend verbessern. Der entscheidende Vorteil dieses Formates ist seine Flexibilität in Kompression und Informationsgehalt. Ein Blick auf den Dateikopf (Bild 6) läßt die Fülle der möglichen Optionen erahnen. Bild 6: Dateiheader einer OpenEXR Datei 13 Das EXR Format zu implementieren, erweist sich als komplexes Unterfangen. Gerade bei den ausgefalleneren Zusatzkanälen wie „Object ID“, „Texture UV Buffer“, hat sich noch keine Standardisierung durchgesetzt. 2.1.7. Kodak ERI-JPEG Dieses Format wurde im April 2002 von Kodak [15] vorgestellt, und soll als Alternative für die riesigen RAW-Dateien der Digitalkameras dienen. Die „Extended Range Imaging“ (ERI) Technologie nutzt den Metadatenblock, um zusätzliche Informationen über Highlight- und Schattendetails in einer JPEG Datei unterzubringen. Die ERI-JPEGs sind dementsprechend an die Aufnahmefähigkeit der CCD gebunden. In der 5000 Dollar teuren „Kodak DCS Pro14n“ wurde so zum Beispiel die Unterbringung von 4 zusätzlichen Belichtungsstufen ( -2 EV bis +2 EV) realisiert. [16] Dabei bleibt die JPEG-Datei voll kompatibel nach dem EXIF2.1 Standard. Programme die diese Zusatzdaten nicht verstehen, können zumindest den Low-Dynamic-Teil immer noch problemlos lesen. Leider betrifft dies eigentlich alle Programme. Oder wie Kodak‘s Produktmanager KELBLEY [16] es ausdrückt: „The difference today is the software we have to open the ERI-JPEG that is not mature...“. Zugriff auf die HDR-Zusatzdaten bekommt man bisher nur mit Kodaks eigener Software wie dem „DCS Photo Desk“ oder dem FFM Photoshop Importer. Dabei handelt es sich nur um ein Lademodul, was nach kleineren Belichtungskorrekturen ein normales 8 bit Bild an Photoshop übergibt. Deshalb ist dieses Format für die Postproduktion noch uninteressant, und soll in der folgenden Betrachtung ausgenommen werden. 14 2.1.8. Vergleichstabelle Eine direkter Vergleich legt die Stärken und Schwächen dieser Formate dar. Tabelle 2: Übersichtstabelle HDRI Dateiformate TGA (Referenz) RAW PFM TIFF float TIFF LogLUV 32 TIFF LogLUV 24 RGBE HDR EXR RGBE (+ Alpha + Depth + ... ) RGB (+ Apha) RGB YUV Indexed YUV Bits pro Pixel 24 96 32 24 32 variabel Maximal enthaltene EV 1.7 30 38 11 26 30 Kompression RLE - RLE RLE RLE Größe der Testdatei (2) 858 kB 3601 kB 812 kB 681 kB 939 kB Farbkanäle RLE, ZIP, ZIPS, PIZ 655 kB (1) Anmerkungen: (1) Im verlustfreien RLE Kompressionsmodus. (2) Testdatei war ein HDR-Foto mit durchschnittlicher Detaildichte und Dynamic Range, ohne Extrakanäle (Bild 7): Fazit: EXR bietet die effizienteste Komprimierung, und ist durch seine variable Gestaltung das anpassungsfähigste Format. Bild 7: Testbild 2.2. Spezielle Software Parallel zur Entwicklung dieser Formate entstand auch spezielle Software. Dies war eine zwingende Notwendigkeit, denn bisher gebräuchliche Bildbearbeitungssoftware arbeitete intern mit nur 8 Bit pro Farbkanal. Die Einbindung in Photoshop beispielsweise, ginge weit über ein simples Lademodul hinaus. Buchstäblich alle Funktionen müßten neu geschrieben werden. So bietet der kürzlich implementierte 16-Bit Modus nur die rudimentärsten Filter an (siehe Bild 8). Die Ebenen-Funktion ist komplett abgeschalten. Bild 8: Photoshop‘s Filterauswahl im 16-Bit Modus ist karg. 15 Um wirklichen Nutzen aus dem gespeicherten HDR Daten ziehen zu können, muß die Software intern mit 32 Bit Fließkommapräzision arbeiten können [13]. 2.2.1. HDRView HDRView ist ein kostenloser ImageViewer, und ist essentiell um HDR Bilder unter Windows zu betrachten. Dabei kann mit Plus- und Minus-Tasten die am Monitor sichtbaren Belichtungstufen verschieben, mit Shift-Klick auf einen Pixel wird die Anzeige automatisch auf diesen Pixelwert nachbelichtet. Erhältlich ist HDRView unter: http://athens.ict.usc.edu/FiatLux/hdrview . 2.2.2. HDRShop HDRShop ist eine rudimentäre Bildbearbeitungssoftware. Die Funktionen sind speziell auf die Generierung von HDRIs und deren Aufbereitung für die Verwendung in 3D Programmen zugeschnitten. Herausragend sind die Werkzeuge für panoramische Transformationen, sowie die Analysefunktion für Glanz- und Diffusanteile. Andere Filter sind jedoch sehr limitiert, und eher zu Testzwecken zu gebrauchen. Die Entwicklung von HDRShop wurde mit der Version 1.0 vorübergehend eingestellt. Als einzelner Programmierer führt TCHOU [18] das Projekt nun in seiner Freizeit weiter, und hat Verbesserungen für 2004 angekündigt. Erhältlich ist HDRShop unter: www.debevec.org/HDRShop . 2.2.3. HDRIE HDRIE (sprich „Hedrie“) steht für High Dynamic Range Image Editor, und ist momentan an der University Of Illinois in Entwicklung [25]. Inspiriert von HDRShop, bietet es schon im derzeitigen Stadium eine Vielzahl derselben Funktionen. Zusätzlich hat es an Photoshop angelehnte Malwerkzeuge und ein Clone Stamp Tool. Das Projekt ist OpenSource und Freeware, was die Weiterentwicklung und allgemeine Verfügbarkeit sichern soll. Das Projekt klingt zwar sehr vielversprechend, ist jedoch ist im derzeitigen Entwicklungsstadium noch nicht produktionstauglich. Im Praxistest erwies sich HDRI als sehr instabil, es versteht einzig und allein das Radiance Format, und einige Funktionen sind offensichtlich noch nicht fertig programmiert. SourceCode und erste Windows-beta-Version sind erhältlich unter: www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html . 16 2.2.4. HCR-Edit Christoph HORMANN entwarf HCR (High Color Resolution)-Edit speziell für die Nachbearbeitung von Renderings aus POV-Ray. Das Programm befindet sich noch in der Betaphase, der Funktionsumfang ist noch sehr limitiert. In der aktuellen Version 0.5 bietet es allerdings als einzige frei erhältliche HDRIBildbearbeitungssoftware einen Histogrammeditor und Gradationskurven. Herausragend ist auch der flexible RAW-Importer (siehe Bild 1), der durch eine Vielzahl von Parametern mit jeder denkbaren RAW-Variante zurechkommt. Erhältlich ist HCR-Edit unter: www-public.tu-bs.de:8080/~y0013390/hcredit/ 2.2.5. Photosphere Greg WARD konzipierte PhotoSphere als HDR-tauglichen Imagebrowser [20]. Es kann die meisten HDRI Formate lesen und in Thumbnail-Übersichten darstellen. Daher ist es unverzichtbar für die Dateiverwaltung. Es ist die erste Software, die Greg Ward’s platzsparende 24 Bit Version des TIFF LogLuv Formates korrekt lesen und schreiben kann. Das Generieren von HDRIs ist im Vergleich zu HDRShop einfacher und führt zu besseren Ergebnissen. PhotoSphere beinhaltet auch Algorithmen, mit denen der gesamten in einem Bild enthaltenen Range auf einem Monitor mit geringerem darstellbarem Range angezeigt werden kann (Tonemapping Operatoren) [13][20]. Alle diese Kernfunktionen sind in plattformunabhängigen C-Bibliotheken (libraries/dlls) enthalten. WARD würde es begrüßen wenn diese in das Standardrepertoire der Bildbearbeitung eingehen und verhandelt zur Zeit mit Adobe über eine Lizensierung [21]. Erhältlich ist PhotoSphere für MacOS X unter: www.anyhere.com 17 2.2.6. Photogenics Photogenics ist das erste kommerzielle Malprogramm, was im vollen 32 Bit Fließkommabereich arbeitet [22]. Es handelt sich um eine ausgewachsene Bildbearbeitungssoftware mit vielen verschiedenen Malwerkzeugen, wie zum Beispiel dem aus Photoshop bekannten Clone Stamp Tool. Es beherrscht auch alle üblichen Filterfunktionen. Photogenics ist bei der Darstellung und Manipulation von HDRIs bemerkenswert schnell. Ebenensystem und Menüführung sind etwas gewöhnungsbedürftig, denn sie funktionieren völlig anders als in Photoshop. In Photogenics wird jeder Filter oder Operator als Ebene behandelt und mit einem eigenen Alphakanal gesteuert. Die Parameter aller dieser Filterebenen sind jederzeit editierbar. So belegt man beispielsweise Teile des Bildes mit einem Gaussian Blur, färbt dann andere Stellen ein, und kann danach einfach wieder in den Blur Operator zurückgehen und die Intensität erhöhen. Ebenen mit separaten Bildinformationen, die also Ebenen aus Photoshop entsprechen, fügen sich nur über einen Umweg in dieses System ein. Dabei übernimmt ein Rubthrough-Operator die Funktion des Blend Modus, der Alphakanal steuert wie gehabt die Tranzparenz, und die eigentliche Bildinformation wird aus einem separaten Bild referenziert. Nach einer kleinen Eingewöhnungsphase lernt man diesen nichtdestruktiven und quasi nichtlinearen Workflow zu schätzen. Eine Demoversion kann unter www.idruna.com/downloads.html heruntergeladen werden. Diese ist 30 Tage lang voll funktionsfähig. 2.2.7. mkhdr Dieses Programm ist der Urvater der HDRI-Generatoren [24]. Es ist DOS-basiert, und sein einziger Zweck ist die Kombination von mehreren Low-Dynamic-Range Bildern in ein HDRI. Allerdings müssen alle erforderlichen Parameter dazu per Kommandozeile eingegeben werden. Für den alltäglichen Produktionsbetrieb ist diese Arbeitsweise nicht akzeptabel, da sie umständlich zu bedienen und ohne jegliches Feedback ist. Einzig bei der Einbindung in eigene Software ist eine Auseinandersetzung mit mkhdr sinnvoll. Da in dieser Arbeit jedoch die Benutzung proprietärer Werkzeuge vermieden wird, soll mkhdr von den folgenden Betrachtungen ausgeschlossen werden. Erhältlich ist mkhdr kostenlos unter www.debevec.org/Research/HDR (DOS Version) und www.kennethwoodruff.com/digitalart/files/ (OS X version). 18 2.2.8. Vergleich In einer Testreihe wurde die Unterstützung der HDR Formate und die Leistungsprofile der einzelnen Programme ermittelt. Die Ergebnisse sind in Tabelle 3 zusammengestellt und geben den aktuellen Stand im Mai 2003 wieder. Tabelle 3: Vergleichsübersicht HDRI-Spezifische Software Aktuelle Version HDRView PhotoSphere HDRShop HDRIE HCR-Edit 1.2 0.9 1.0 0.01 0.5 beta Plattform Windows MacOS X (1) Windows Preis Freeware Shareware (3) Freeware (4) Programmtyp Viewer Browser Image Processor Windows (2) Freeware, OpenSource Image Processor Photogenics 5.0 Windows Windows, Linux Freeware $ 699 Image Processor Image Processor Formate .RAW m - mm - m m m m m - m - - - m (5) m m - - m - m - - - (9) - - .HDR m .PFM m (5) .TIF Floating Point .TIF LogLUV .FLX - - - (7) - - m .EXR - m - - - - Generate HDR - mmm mm - (8) - m Panoramic Transformation - - m m - - Flip/Rotate m m m - - m - m (6) - - - - - - m - m - - m m - mm - - - - m m - m Funktionen Tonemapping Operatoren Permanent Gamma correction Blur/Sharpen Filter Histogramm, Gradationskurven Malwerkzeuge (Clone Stamp) Besondere Funktionen - - - -Thumbnails -Tonemapping Operatoren -Anzeige von Pixelhelligkeit in cd/qm - AutoAligning bei HDR Generation - editierbare CameraCurve - LightGen Plugin - - Tiefenunschärfe Anmerkungen: (1) (2) (3) (4) (5) (6) (7) (8) (9) Portierung auf Windows und UNIX ist geplant [20]. Portierung auf LINUX ist geplant [25]. Autor Ward hat sich noch nicht für ein Marketingmodell entschieden, daher vorerst Shareware mit limitiertem Support[21]. Frei für private Anwendungen, kommerzielle Lizenz auf Anfrage. Nur als Ladeformat implementiert. Reinhard-Tonemapping [58] mit kostenlosem Plugin. Als Ladeformat implementiert, aber nur 32 bit Version. Temporär abgeschalten, wegen Programmfehlern in v0.01 [25]. fehlerhafte Interpretation der Farbanteile, besonders Rot verblaßt m - Alphakanäle für Image Filter - RubThrough zum Verbinden von Bildern - sehr schnell - Unterstützung für Sequenzen 19 Auswertung: Radiance HDR und Floating Point TIF bieten die breitere Unterstützung, wobei das Radiance Format aufgrund seiner verlustfreien Kompression vorzuziehen ist. Die wirtschaftlicheren Formate TIF LogLuv 24 und EXR sind noch nicht breit genug implementiert, um als allgemeine Empfehlung gelten zu können. HDRView, HDRShop und PhotoSphere können als essentiell angesehen werden für die Arbeit mit HDRIs. Da sie kostenlos erhältlich sind, sind sie uneingeschränkt zu empfehlen. Photogenics ist hier aufgeführt, weil es als einziges einzelbildbasiertes Paintprogramm die Rolle von Photoshop übernehmen kann. Damit steht es ziemlich konkurrenzlos da, wenn es beispielsweise um das Bearbeiten von HDRITexturen geht. Wer ernsthaft eine HDRI-basierte Pipeline aufbauen will, sollte sich zumindest die Demoversion herunterladen und anschauen. 2.3. HDRI-taugliche Compositing Programme Die schönsten Werkzeuge sind natürlich die, die man schon hat. Viele Compositing Programme, die in der Postproduktion zum Einsatz kommen, können auch schon im High Dynamic Range arbeiten. Das kommt daher, weil Film schon von jeher in 16 Bit (Medium Dynamic Range) bearbeitet wurde [1][3]. Nur so kann ein digitaler Output erstellt werden, der noch weiche Farbverläufe und brillante Lichter aufweist, wenn er auf Film ausbelichtet ist. Der Schritt in die nächste Präzisionsstufe ist die logische Konsequenz. Während Adobe-Programme gerade erst anfangen, in 16-Bit Farbtiefe zu rechnen, haben diese Compositing Programme auf interne 32 Bit Fließkommapräzision umgerüstet. Laut Herstellerangaben sind es diese Programme: • Digital Fusion 4 (eye-On) • Combustion 2 (discreet) • Shake 2.4 (Apple) • Tremor 1.5 • Nuke 4 (D2 Software) Sie alle können mittlerweile Bilder in den empfohlenen Formaten Radiance (HDR) und EXR laden und bearbeiten. 24-bit LogLUV wird jedoch von keinem unterstützt. 20 2.4. Panoramaformate Besondere Anwendungen in der Postproduktion erschließen sich durch HDRI Panoramen, also Rundumsichten von 360 Grad horizontal und 180 Grad vertikal [3][23]. Um nun diese Panoramen in einem zweidimensionalen Bild darzustellen, gibt es verschiedene Abwicklungsformate. Aufnahme und Anwendung dieser Panoramen werden in den Kapiteln 5 und 6 noch im Detail erläutert. Vorher muß jedoch das Grundwissen gelegt sein. 2.4.1. Spherical Map Dieses, auch als „Latitude-Longitude“ bekannte Format ist die gebräuchlichste Abwicklungsform und wird von den meisten 3D-Programmen unterstützt. Sie entspricht der Transformation von einem Globus in eine klassische Weltkarte. Breiten- und Längengrade finden sich als XY-Pixelkoordinaten wieder. Die Horizontline ist genau in der Mitte des Bildes, und wird nahezu unverzerrt abgebildet. Die Pole dagegen werden extrem verzerrt, und füllen obere und untere Pixelreihe aus. Bild 9: Abwicklung im Spherical Map Format Eine Besonderheit des Spherical Formates ist, daß es nur eine Nahtstelle hat. Oberer und unterer Rand konvergieren zu den Polen. Bei der Bearbeitung ist darauf zu achten, daß linker und rechter Rand genau aneinander passen. Zur Kontrolle kann man den Bildinhalt horizontal verschieben, was einer Y-Rotation der Umgebungskugel entspricht. 21 2.4.2. Cubic Map Statt einer Umgebungskugel kann man auch einen Würfel benutzen. Sitzt die virtuelle Kamera im Mittelpunkt, kann man praktisch keinen Unterschied zwischen Kugel oder Würfel erkennen. Wichtig ist nur, daß aus jeder Blickrichtung auch die entsprechende Bildinformation vorliegt. Die Abwicklung entspricht dem leicht nachvollziehbaren Faltschachtelprinzip. Bild 10: Zusammenfalten einer Cubic Map Vor allem für rein polygon-basierte Rendersysteme ist diese Abwicklung vorteilhaft, da sie mit nur 6 Polygonen auskommt. Es wird daher meist in Computerspielen und andere Echtzeitanwendungen verwendet. Grafikchips der neuesten Generation [26] bieten dafür spezielle Hardwareunterstützung. Die Cubic Map gibt es als „Horizontal Cross“ (Bild 11) und „Vertical Cross“ (Bild 12), welche sich nur durch die Platzierung der rückwärtigen Würfelwand unterscheiden. Bild 11: Horizontal Cross Format Bild 12: Vertical Cross Format Die Raumverzerrung ist hier gleich Null, denn die einzelnen Würfelseiten beinhalten einen direkten Blick in die entsprechende Richtung. Gerade Linien im Motiv erfahren keine Krümmung wie in der Sperical Map, und die Pixeldichte bleibt konstant über die gesamte Würfelfläche. Die Nachbearbeitung der einzelnen Seiten erscheint dementsprechend einfach. Allerdings ist darauf zu achten, daß jede Würfelkante eine Nahtstelle darstellt. Selbst scheinbar verbundene Seiten sind durch einen sprunghaften Perspektivwechsel getrennt, der bei der 22 Retusche nicht überschritten werden sollte. Auch bei der Anwendung von Filtern ist Vorsicht geboten, damit die Kontinuität an den Kanten nicht unterbrochen wird. Von der verfügbaren Bildfläche wird nur die Hälfte benutzt. Zwar schrumpft die ungenutzte Fläche bei der Speicherung in einem RLE-kompressionsfähigen Dateiformat auf wenige Bytes, sie verursacht jedoch im geladenen Zustand den doppelten Speicherbedarf. 2.4.3. Angular Map Dieses, auch „Lightprobe“ genannte Format ist speziell für die Beleuchtung mit HDR Images entwickelt worden [2]. Erstmalige Erwähnung findet es in DEBEVEC’s Siggraph Vortrag von 1998 [23]. Die geometrische Abbildung ist der einer Fischaugenlinse oder Spiegelkugel ähnlich, allerdings mit einem vollen 360° Öffnungswinkel und mit gleichmässigen Winkelabständen. Bild 13 demonstriert, wie aus diesem kreisrunden Bild eine Umgebungskugel geformt wird. Der Kreismittelpunkt markiert den Blick nach vorn. Oben, unten, links und rechts liegen auf dem halben Radius, und der Blick nach hinten ist auf dem Umfang verteilt. Bild 13: Zusammenwickeln des Angular Map Formates Diese extreme Raumverzerrung macht eine Orientierung sehr schwierig, zur Retusche ist dieses Format gänzlich ungeeignet. Der Vorteil des Angular Formats liegt in seiner Kontinuität. Bis auf den Punkt direkt hinter der Kamera wird die Umgebung nahtlos abgebildet. Damit ist die Gefahr minimiert, bei Kameraschwenks eine Nahtstelle ins Bild zu bekommen, und dort auf die korrekte Interpolation durch das 3D-Programm angewiesen zu sein. 23 2.4.4. Vergleichstabelle In Tabelle 3 sind die wesentlichen Merkmale dieser Abwicklungsformate zusammengefaßt. Die Farbcodierung stellt in den jeweiligen Kategorien eine Rangliste auf, von schlecht(Rot) bis gut(Grün). Tabelle 4: Vergleichsübersicht Panoramaformate Spherical Map 3. Cubic Map Angular Map Seitenverhältnis 2:1 4:3 bzw. 3:4 1:1 Raumverzerrung hoch gering extrem Nahtstellen 2 Pole, 1 Kante 8 Kanten 1 Pol Informationsgehalt 100% 50% 78% Editiermöglichkeit Filter, Retusche Retusche keine Aufnahme von HDR Images Es gibt 3 denkbare Methoden, HDR Bilder zu erzeugen. Zum ersten kann man sie mit einem 3D-Programm vollsynthetisch generieren. Nahezu alle 3D-Programme arbeiten intern mit 32-Bit Fließkommazahlen, um simulierte Beleuchtungssituationen realitätsnah zu berechnen. Zwar sind die Daten latent vorhanden, der Großteil wird jedoch wird in der gängigen Praxis mit der Wahl eines 8-Bit Speicherformates verworfen. Bislang ist das der einzige Weg, HDR-Videosequenzen zu erzeugen und in der Postproduktion zu nutzen. Allerdings setzt dieser Schritt erst in der Mitte der regulären Produktionskette ein, wenn virtuelle Elemente einem realen Video oder Standbild hinzugefügt werden. Wie aber fängt man den kompletten Dynamic Range der echten Welt ein? Der zweite Weg besteht darin, nacheinander mehrere Aufnahmen mit verschiedener Belichtung zu fotografieren, und dann digital zu einem Bild zusammenzufügen [24]. Das ist heute schon mit gewöhnlichen Kameras möglich, hat allerdings den Nachteil daß es ein erhebliches Maß an Handarbeit erfordert. Diese Methode eignet sich allerdings nur für relativ unbewegte Motive, für Videoaufnahmen ist sie gänzlich unbrauchbar. 24 Die dritte denkbare Möglichkeit wäre, den gesamten Dynamic Range zu fotografieren. Elektronikingenieure arbeiten schon seit langem daran, entsprechende digitale Sensoren zu entwickeln. Diese befinden sich im Großteil noch im Laborstadium, und arbeiten mit teilweise sehr aufwendigen Tricks um die Limitierungen herkömmlicher CCD Sensoren zu umgehen. 3.1. Digitale Sensoren 3.1.1. Technische Problemdefinition Von durschnittlichen CCD-Sensoren ist eine Aufnahmefähigkeit von 66 dB zu erwarten, High-End-CCDs erreichen bis zu 78 dB [29]. Zum Vergleich, der Dynamic Range einer sonnigen Außenszene liegt zwischen 100 und 150 dB. Hardwaretechnisch ergibt sich das Problem direkt aus der technischen Definition des Dynamic Range. Er setzt sich zusammen aus dem logarithmischen Verhältnis des größten auslesbaren Signals bevor ein Pixel seine Sättigung erreicht (iph,max) und dem kleinsten, vom Rauschen gerade noch unterscheidbaren Signal (iph,min) [27]: DR = 20 log10 (iph,max / iph,mix) (1) Das Naheliegendste wäre natürlich, durch eine robustere Bauweise des Sensors das größte auslesbare Signal (iph,max) zu erhöhen. Doch leider hat das den Nebeneffekt, daß es einen überproportionalen Anstieg des Signalrauschens verursacht. Überdies verhalten sich die ausgelesenen Daten dann nichtlinear, was zu extremen Problemen bei der Rekonstruktion der Farbwerte führt. 3.1.2. „Time-to-Saturation“ Eine andere Möglichkeit wäre, nicht wie üblich die CCD-Ladungswerte nach einer bestimmten Belichtungszeit auszuwerten, sondern die Zeit zu messen die jeder einzelne Pixel benötigt, um seine Sättigungsladung zu erreichen [27][28]. Damit wäre das obere Ende des auslesbaren DR zwar nicht unendlich, aber maximiert auf das, was die Reaktionszeit der Schaltkreise und die Auslesegeschwindigkeit hergeben. Eine Beschneidung findet nur am unteren Ende statt, nämlich durch die Festlegung der maximal zulässigen Belichtungszeit. Diese kann allerdings, gerade in lichtarmen Szenen, sehr lange ausfallen. Auch bereitet eine bauteilschonende Implementierung grundlegende Schwierigkeiten. Es ist noch kein befriedigender Weg gefunden worden, die Sättigung eines Pixels zu registrieren und die dementsprechende Zeit zu messen. 25 3.1.3. Logarithmische Sensoren Ein dritter Lösungsansatz stellt sich in Form von MOSFET Sensoren dar, die in ihrer Bauweise an CMOS Speicherbausteine angelehnt sind. Herzstück dieser, auch CMOS Active Pixel Sensor (APS) genannten Bauteile ist ein Transistor. Dieser sammelt direkt die Photospannung, die über die Dauer der Belichtungszeit anfällt [27]. Im Unterschied zu CCDs reagieren MOSFET Sensoren auf Lichteinfall der Ladekurve des Transistors entsprechend logarithmisch statt linear. Dieses Anspechverhalten ist dem des analogen Films sehr ähnlich, und erreicht deshalb einen ähnlichen Medium Dynamic Range von 5-6 Belichtungsstufen. Allerdings leiden MOSFET Sensoren auch unter dengleichen Schwächen wie analoger Film, die nichtlineraren Daten lassen nur im Mittelteil der Kurve ein zuverlässiges Farbmanagement zu. Am oberen und unteren Bereichsende sind die Informationen zwar latent vorhanden, doch sind sie so stark komprimiert daß schon geringste Rauschanteile eine starke Signalverfälschung bewirken. Diese Sensoren sind bereits in Serienprodukten erhältlich, etwa in der Canon EOS Serie [16]. 3.1.4. Digital Pixel Sensor An der Stanford Universität wurde diese Idee jedoch im Zuge des „Programmable Digital Camere Projekt“ aufgegriffen [27][39]. Unter der Leitung von Abbas El GAMAL wurde ein neuer, auf CMOS Technologie basierter Sensor entwickelt: der Digital Pixel Sensor (DPS). Der entscheidende Unterschied liegt darin, daß jeder einzelne Pixel einen eigenen Analog-Digital-Converter sowie eine eigene digitale Speicherzelle besitzt. Diese arbeiten alle parallel, und werden gleichzeitig digital ausgelesen. Damit sind weitaus höhere Auslesegeschwindigkeiten erreichbar als mit konventionellen CCDs, wo der Auslesevorgang in jeder Zeile seriell geschieht. So erreicht der Prototyp mit 10.000 Bildern pro Sekunde eine bislang unerreichte Geschwindigkeit. Der Trick besteht nun darin, den eigentlichen Sensor mit einer höheren Bildrate zu betreiben, als das ausgegebene Video. Für jedes einzelne Videobild werden so mehrere Bilder mit verschiedener Belichtung aufgenommen. Diese werden schon auf unterster Ebene zu einem HDRI kombiniert. Da die Bauweise auf einem CMOS Chip basiert, sind solche chipinternen Berechnungen leicht implementierbar. Diese Vorauswertung hat auch den angenehmen Nebeneffekt einer Rauschunterdrückung, denn die effektiven Pixelwerte stellen einen Querschnitt aus mehreren Messungen dar. Auch komplexere Vorauswertungen sind direkt auf dem Chip möglich, wie beispielsweise eine Verringerung der Bewegungsunschärfe oder Berechnung der Bewegungsvektoren. 26 Das Fraunhofer Institut für Mikroelektronische Schaltungen und Systeme verfolgt denselben Ansatz, und entwickelte einen CMOS-basierten Chip mit pixeleigenen Schaltkreisen [9]. Nach eigenen Angaben wird ein Bildpixel aus wahlweise 1, 2 oder 4 Auslesevorgängen ermittelt, was auch bei einer Bildrate von 50 Hz einen effektiven Dynamic Range von 120 dB bringt. Es ist also nur eine Frage der Zeit, bis dieser Ansatz zu einem serienreifen Produkt führt. Allerdings ist der mikroelektronische Aufwand immens. Die Stanforder Prototypen benötigen bis zu 37 Transistoren pro Bildpixel, was sich schon bei einem 352*288 Pixelfeld (halbe Videoauflösung) auf 3,8 Millionen Transistoren addiert. Erfahrungen aus der LCD-Display-Technologie, die auch auf pixeleigenen Logikschaltkreisen basiert, lehren daß die hohen Ausschußraten sich in einem hohen Fertigungspreis niederschlagen. Digital Pixel Sensoren werden warscheinlich den High-End Markt kommender High Dynamic Range Kameras dominieren, in Hinsicht auf Leistung und Preis. 3.1.5. Rasterversetzte Belichtung Eine fünfte, auch sehr vielversprechende Möglichkeit wird an der Universität Columbia untersucht [30]. Spatially Varying Exposure, zu deutsch Rasterversetzte Belichtung nennt sich die Methode. Die Grundidee besteht darin, einen konventionellen CCD Sensor mit einem gleichmäßigen Raster von Neutral Density (ND) Filtern verschiedener Stärke zu bedecken. Die Pixel unter den lichtundurchlässigeren Filtern fangen die hellen Lichtanteile ein, während die Pixel unter den lichtdurchlässigeren Filtern für die dunklen Anteile empfindlicher sind. Aus dem kombinierten Informationen von 4 Pixeln des CCD-Sensors wird damit ein Bildpixel gewonnen. Offensichtlicher Nachteil dieser Methode ist, daß die effektive Auflösung geviertelt wird. Außerdem ist die Umsetzung auf 3-Chip-Kameras beschränkt, wo für jeden Farbkanal ein volles CCD-Feld zur Verfügung steht. In 1-Chip-Kameras wird schon ein ähnliches Raster aus Farbfiltern benutzt, um die Empfindlichkeit der CCD-Pixel auf die Grundfarben Rot, Grün, Blau zu modulieren. Ein weniger offensichtlicher Nachteil ist, daß diese Methode den Dynamic Range nur nach oben hin erweitert. Die Detailtiefe in den Schattenregionen bleibt unbeeinflußt. Dennoch entspricht der theoretisch erreichbare DR einer Vervierfachung des ursprünglichen DR des CCD-Sensors, was dann etwa 200 dB oder 20-24 Belichtungsstufen entspricht. Und heutzutage, wo 3 Megapixel auch von Consumerkameras erreicht werden, verblaßt der Auflösungsnachteil zugunsten der unkomplizierten Implementierung. Auf Grundlage einer HighDefinition Videokamera, ist sogar eine HDR-Videokamera mit voller PAL-Auflösung denkbar. 27 3.1.6. SuperCCD SR Fujifilms eigene Sensorserie, die SuperCCD, unterscheidet sich durch eine wabenartige, um 45 Grad rotierte Anordnung der Photodioden. Das ermöglicht eine höhere Sensordichte, und vermeidet das „Ausbluten“ von einer Überspannung in die gesamte CCD-Zeile. In der vierten Generation erreicht die SuperCCD in der SR Variante einen Dynamic Range, der dem von Filmmaterial gleichkommt [31]. Dies wird dadurch erreicht, daß jede Sensorzelle aus einer Paarung von Photodioden unterschiedlicher Empfindlichkeit besteht. Die hochemfindlichen Photodioden fangen so die dunklen Bereiche ein, und die schwach empfindlichen Photodioden können die hellen Anteile detailgetreu aufnehmen. Dabei schafft dieser neue Sensor eine Bildrate von 30 Frames pro Sekunde in VGA-Auflösung[33]. 3.1.7. Doppelblitzverfahren Ein ganz anderer Entwicklungsansatz leitet sich aus der Forschung für maschinelles Sehen her, und sei hier nur am Rande wegen seiner Originalität erwähnt. Typische Anwendungsgebiete Maschinellen Sehens sind Gesichtererkennung, Raumüberwachung, Bewegungssensoren und Fahrzeuginsassenerkennung. Eine gemischte Forschungsgruppe der BMW AG, City University London, und FH Nordostniedersachsen [32] suchte nach einem automatischen System, daß auch unter kontrastreichen Lichtverhältnissen einen konstanten Fluss verlässlicher Bildinformationen liefert. Über- und Unterbelichtung, auch von Bildteilen, stellen einen Verlust wertvoller Information für die Auswertungsalgorithmen dar, und sind daher unerwünscht. Darüber hinaus soll das System tauglich für den Consumermarkt sein, und damit aus kostengünstigen Einzelkomponenten bestehen. Die Forschungsgruppe ist auf eine sehr bemerkenswerte Lösung gekommen: Das Doppelblitzverfahren. Im Abstand von 20 Millisekunden werden 2 Bilder aufgenommen, im selben Takt wird eine Blitz zur Beleuchtung der Szene geschaltet. Die Blitzdiode arbeitet dabei dem infraroten Bereich, und ist für das Auge unsichtbar. Allerdings ist der zweite Blitz viel heller als der Erste, so daß 2 unterschiedlich belichtete Bilder entstehen. Diese werden dann zu einem Bild kombiniert, was aufgrund der komplett kontrollierten Beleuchtung der Szene sogar in Echtzeit von der Firmware des Systems übernommen werden kann. In einem Beispiel wurde so eine Szene mit einem gemessenen Dynamic Range von 105 dB mit vollem Detailreichtum aufgenommen. 28 Allerdings ziehlt das System in seiner vorgestellten Kalibrierung auf eine optische Kompression des Dynamic Range auf 48 dB ab, um die Outputdaten in ein 8 Bit Format zu pressen. Die absoluten Szenenkontraste werden damit zugunsten der Detailkontraste geopfert, was für den angedachten Zweck des maschinellen Sehens vielleicht noch als sinnvoll erscheinen mag, nicht jedoch für Postproduktion im High Dynamic Range. Die Doppelblitzmethode findet hier nur eine Erwähnung, weil sie das Potential hat, zu einer HDR-tauglichen Videokamera für den Studioeinsatz entwickelt zu werden. 3.2. Realisierte Systeme 3.2.1. HDR Video HDR taugliche Videokameras befinden sich wie ausgeführt noch im Entwicklungsstadium. Allerdings ist der Weg noch weit. Selbst wenn die Forscher es schaffen, einen HDR-Chip zu entwickeln, wird herkömmliches Videoband nicht in der Lage sein diese Daten aufzunehmen. Dann wird entweder ein neuer Videostandard gebraucht oder die Aufzeichnung findet gleich auf Festplatte statt. Echtes HDR Video ist bisher also rein spekulativ. Es existiert allerdings eine nachvollziehbare Lösung, durch eine Umrüstung handelsüblicher Videokameras deren Dynamic Range zu erweitern. Die Idee basiert auf einem Kaleidoskop-Effekt-Filter, der den Bildstrahl in 5 gleiche Bilder aufsplittet. WAESE [33] beschichtete diesen Filter mit Neutral-Density-Gel verschiedener Dichten, und erreichte damit eine unterschiedliche Belichtung dieser 5 Bilder. Diese Variationen existieren dann alle nebeneinander auf jedem Videobild. Um den horizontalen und vertikalen Versatz zu ermitteln, ist eine einmalige Kalibrierung erforderlich. Dann kann mittels entsprechender Software eine HDRVideosequenz errechnet werden. Der Nachteil ist dabei, daß die effektive Auflösung weniger als die Hälfte der ursprünglich aufgenommen Auflösung beträgt. Dementsprechend ist diese Methode nur mit teuren High Definition Kameras praktikabel, und auch dann nur in beschränktem Maße. 29 3.2.2. Digitale Fotografie Auf dem Gebiet der Digitalen Fotografie wurden dagegen schon marktreife Produke entwickelt, die bis in den Medium Dynamic Range vordringen [34]. Hersteller digitaler Rückteile für Mittelformatkameras wollen den professionellen Fotografen zum Umstieg von Film auf Digital bewegen. Kernstück dieser Bestrebungen ist es, den Dynamic Range von Filmmaterial zu überbieten (zur Erinnerung: etwa 5-8 Belichtungsstufen). Dabei bedienen sie sich im Regelfall des ersten oben beschriebenen Ansatzes zur Rangeerweiterung, der Erhöhung von imax. Um dem Nachteil des Rauschanstiegs entgegenzuwirken sind diese Kameras mit einer aktiven Kühlung ausgestattet. So erreichen diese High End Kamerarückteile einen Dynamic Range von 11-12 Belichtungsstufen. Beispiele sind: LEICA S1 Alpha/Pro, Better Light Super 6000/8000, Jenoptik eyelike MF, LEAF Cantare/Volare [34]. Die LEAF c-most erreicht mit einem MOSFET-Sensor 11 Belichtungsstufen. Erhältlich sind diese Kameras nur im Fachhandel, in einer Preisklasse von € 20.000 aufwärts. Diese Profikameras sind dafür designed, direkt von einem Hostcomputer aus betrieben zu werden. Der Monitor dient dabei als Viewfinder, die Bedienung erfolgt über ein Softwareinterface. Gespeichert werden die Fotos direkt auf Festplatte. Als Speicherformate haben sich HDR und TIFF16 zum Industriestandard professioneller Digitalfotografie entwickelt, und werden von allen diesen Kameras unterstützt. Echter High Dynamic Range von mehr als 12 Belichtungsstufen ist damit zwar nicht aufnehmbar, doch der Markt existiert bereits. Sobald ein marktreifes Produkt mit echtem HDR Chip entwickelt ist, wird er sich auf diesem High-End Markt auch verkaufen lassen. 30 3.3. Handarbeit Auch mit heutigem Equipment kann man Bilder erstellen, die den gesamten sichtbaren Dynamic Range enthalten. Man braucht zwar einiges an Arbeitsaufwand und Zeit, doch mit Sorgfalt und der richtigen Methode sind die Ergebnisse sehr professionell. Die Grundidee besteht darin, mehrere Aufnahmen mit verschiedener Belichtung aufzunehmen. Damit fängt man den Dynamic Range quasi scheibchenweise ein. Danach kann man diese Scheibchen wieder zusammenfügen, und erhält ein HDRI [2][3][23]. Bild 14 veranschaulicht diese Idee. Bild 14: Grundprinzip der Rekonstruktion eines HDRI Um eine korrekte Reproduktion des HDR zu gewährleisten, müssen sich die Dynamic Ranges der einzelnen Aufnahmen überlappen. Nur dann können sie durch einen allgemein gültigen Algorithmus auch wieder kombiniert werden. Ein angenehmer Nebeneffekt ist, daß durch die Kombinationsalgorithmen das Rauschen vermindert wird. Je mehr Einzelaufnahmen denselben Pixel ohne Über- oder Unterbelichtung zeigen, umso genauer kann der exakte Farbwert ermittelt werden. Unweigerlicher Nachteil dieser sequentiellen Methode ist, daß man nur unbewegte Motive aufnehmen kann. Ist das Motiv nicht konstant statisch über die ganze Zeit der Belichtungsserie, versagen selbstverständlich auch die Kombinationsalgorithmen. Menschen, Autos, Tiere, wehende Flaggen, sich im Wind wiegende Zweige – all diese Dinge führen zu geisterhaften Schemen im kombinierten HDRI (siehe Bild 15). Bild 15: Geisterbus 31 3.3.1. Aufnehmen der Belichtungsreihe Dafür benötigt man nur ein Stativ und einen Fotoapparat mit manuellen Einstellmöglichkeiten. Man fixiert die Kamera zuerst auf das Motiv - stellt also Stativ fest, manuellen Fokus scharf und die Blende fest ein. Bei Aussenaufnahmen ist es empfehlenswert, die Blende auf den größten verfügbaren f-Wert zu stellen, das bedeutet auf die kleinstmögliche Blendenöffnung. Damit minimiert man den Einfluß von Streulicht und Tiefenunschärfe [2]. Außerdem maximiert man damit den oberen Grenzwert des über die gesamte Belichtungsreihe aufgenommenen Dynamic Range. Denn die hellsten Objekte im Bild, wie beispielsweise die Sonne, sind am besten bei der kleinsten Blendenöffnung und der kürzesten Belichtungszeit zu erkennen. Um sicherzugehen, bietet es sich daher auch an, an diesem hellen Ende des Dynamic Range zu beginnen. Man fotografiert nun eine Belichtungsserie, indem man von Bild zu Bild die Belichtungszeit erhöht. Empfohlen ist, in einzelnen Belichtungsstufen vorzugehen, oft reicht es auch aus, die Bilder im Abstand von 2 Belichtungsstufen zu machen. Als Faustregel gilt: jeder Pixel sollte auf mindestens zwei Bildern gut zu erkennen sein – also weder über- noch unterbelichtet sein [23]. Ist man sich unsicher, fotografiert man lieber in kleineren Schritten. 3.3.2. Welche Kamera? Analog oder Digital? Analoge Kameras bieten eine weitaus bessere Auflösung, sowie wie oben beschrieben einen grösseren Dynamic Range in jeder einzelnen Aufnahme. Mit einem 48 bit Negativscanner hat man damit bessere Grunddaten für die spätere Rekonstruktion des HDRIs. COHEN [3] schätzt aber vor allem den Geschwindigkeitsvorteil: „Digital cameras always need time to write the image to the card, but with analoge all you are waiting for is the shutter.“ Und gerade wenn man die Beleuchtung an einem Filmset einfangen will, ist Zeit knapp. Alle Requisiten, Beleuchter und Gaffer müssen in Position bleiben, und da kostet jede Sekunde teures Geld. COHEN [3] empfiehlt daher auch die Verwendung programmierbarer Spiegelreflexkameras, die auf einen Knopfdruck automatisch durch alle Belichtungszeiten gehen. 32 Nachteile analoger Kameras sind, daß man keine direkte Kontrollmöglichkeit hat, sondern auf Entwicklung warten muß. Außerdem enthalten die Bilder keine Belichtungsdaten - die muß man gesondert notieren. Die spätere Rekonstruktion des HDRI ist dadurch mit erheblichem Mehraufwand verbunden, und muß in HDRShop durchgeführt werden. Das ist auch deswegen ungünstig, weil HDRShop (wie später beschrieben) keine Funktion anbietet um die einzelnen Bilder horizontal und vertikal aufeinander anzupassen. Doch gerade bei der Entwicklung analoger Bilder treten solche Verschiebungen immer wieder auf, bedingt durch Toleranzen des Filmschlittens in kommerziellen Entwicklungsmaschinen. Man muß also alle Bilder der Belichtungsserie mühsam in Photoshop aufeinander passen. Digitale Kameras befreien von diesen Problemen. Blende und Belichtungszeit sind in der sogenannten EXIF-Datenspur enthalten, und können beispielsweise mit Photoshop oder ACDSee ausgelesen werden. Bei hochwertigen Kameras kann man die Kamera von einem Laptop aus fernsteuern. Ein einfaches Kabel mit Auslöserknopf, wie es als Sonderzubehör bei vielen Kameras erhältlich ist, reicht meist nicht aus. Dann müßte man ja immer noch die Kamera anfassen, um die Belichtungszeit zu verstellen. Und gerade beim Verstellen der Belichtungszeit sind kleine Wackler kaum zu vermeiden. Mit einer geeigneten Fernsteuerung jedoch passen digitale Bilder pixelgenau übereinander. Selbstverständlich ist auch die langfristige Kostenersparnis zu erwähnen, denn gerade bei Belichtungsreihen für Panoramabilder kommen im Schnitt 30 Aufnahmen pro Motiv zusammen. Allerdings ist die Wahl der richtigen Digitalkamera wichtig. Normale CCDs leiden unter dem sogenannten Pixelbleeding-Effekt. Richtet man das Objektiv direkt auf eine Lichtquelle, pflanzt sich die extreme Überspannung durch die gesamte Pixelspalte fort und es entstehen weiße Striche im Bild. Kameras mit CMOSSensor sind besser geeignet, denn dieser Sensor entspricht in seinem Ansprechverhalten eher dem von Filmmaterial (siehe Abschnitt 3.1.3.). Auch sollte man bei der Wahl der Kamera auf einen möglichst großen Sensor achten, hohe Auflösung, ein Objektivgewinde, und einen vollmanuellen Modus. Besonders vorteilhaft ist auch eine Belichtungsreihen-Funktion (Auto Bracketing), die automatisch mehrere Bilder mit verschiedener Belichtungszeit aufnimmt. Empfehlenswert sind die Serien Canon EOS und Nikon Coolpix. Nachteile auch hochwertiger Digitalkameras sind immer noch die Verzögerung durch die Speicherzeit, und der geringe Dynamic Range der einzelnen Aufnahmen – der mit zusätzlichen Aufnahmen kompensiert werden muss. 33 Tabelle 5 zeigt den geschätzten Aufwand im Vergleich. Tabelle 5: Aufwandsschätzung Analog/Digital Auflösung Zeitaufwand pro Reihe Zeitaufwand pro Reihe am Set für HDRI Generation Analog hoch Ca. 4 sec Ca. 4 h (+24 h für Entwicklung und Filmscannen) Digital niedrig Ca. 20 sec Ca. 30 sec Fazit: Digitale Kameras vereinfachen und verkürzen den gesamten Prozess der HDRI Aquisition, und sind prinzipiell vorzuziehen. Bei einer Filmproduktion jedoch, wo die Zeit am Set wesentlich wertvoller ist als die Zeit für die Nachbearbeitung, ist eine analoge Ausrüstung angebrachter. 3.3.3. Kalibrierung Jede Kamera führt nichtlinare Faktoren in die aufgenommenen Pixelwerte ein [24]. Das liegt an der spektralen Empfindlichkeit der CCD Bauteile. Auch die kamerainterne Software, die darauf geeicht ist eine nichtlineare Filmkurve zu emulieren, verändert die Pixelwerte beim Codieren und Speichern. Die resultierende Verfälschung des Motivs ist hochgradig nichtlinear, kann aber durch einen speziellen Algorithmus aus einer Belichtungsreihe zurückverfolgt werden. Alles was man dazu braucht ist eine Belichtungsreihe von einem kontrastreichen Motiv mit möglichst kleinen Abständen. In HDRShop ist dieser Kalibrierungsprozess sehr transparent und anschaulich. Unter „CreateàCalibrate Camera Curve“ erreicht man das Kalibrierungsfenster (Bild 16) und kann dort die Reihe einladen. HDRShop ordnet die Bilder automatisch nach ihrer Helligkeit. Trotzdem muß man die Tabelle noch vervollständigen um sie miteinander ins Verhältnis zu setzen. Dabei trägt man die Schrittweite der Belichtungsstufen in die Spalte „Rel. Stops“ ein. Hat man die Serie in gleichmäßigen Intervallen aufgenommen, kann man auch von den Presets wählen. In der Praxis ist es empfehlenswert, die Bilder vorher umzubenennen [35]. Kryptische Dateinamen wie „PICT4335.JPG“ sind für die Kontrolle dieser Tabelle sehr ungeeignet. Besser ist es, wenn man mit ACDSee oder Photoshop die Belichtungszeit ausliest, und diese in den Dateinamen überträgt. 34 Bild 16: Einordnen der Kalibrierungsserie in HDRShop. Die eigentliche Kalibrierung ist dann eine iterative Berechnung und läuft automatisch ab. Es entstehen 3 Kurven, die das Verhältnis von Motivhelligkeit und Pixelwert beschreiben. Diese Verhältnisse bleiben bei Digitalkameras konstant, solange man immer gleiche ISO-Einstellung und Weißabgleich benutzt. Dann braucht die Kalibrierung nur einmal durchgeführt werden. Das hat den Vorteil, daß man diese Kamerakurve aus einer fein abgestuften Belichtungsreihe von einem Motiv mit besonders hohen Dynamic Range erstellen kann, und das gespeicherte Ergebnis auf grober abgestufte Belichtungsreihen anwenden kann. Arbeitet man jedoch mit analogen Fotos, verändern sich die Einflußfaktoren bei jedem Wechsel der Filmrolle [24]. Auch die Entwicklung des Filmes, die nie auf ein und derselben Entwicklungsmaschine passiert, verändert die nichtlinearen Faktoren. Daher muß diese Kalibrierung bei jeder analogen Belichtungsreihe neu durchgeführt werden. Positiv hervorzuheben an HDRShop ist, daß man direkten Einfluß auf die Genauigkeit dieser Kalibrierung hat. Die iterative Berechnung läuft solange weiter, bis man sie abbricht. Außerdem hat man die Möglichkeit die Kurven mit „Regularize“ nachträglich zu glätten, was sich besonders bei verrauschten oder nicht ganz paßgenauen Bildsequenzen als nützlich erweist. Bild 17: Erstellen der Kalibrierungskurve in HDRShop 35 In PhotoSphere dagegen läuft diese Kalibrierung vollautomatisch, also ohne Eingriff des Benutzers, ab. Man hat immerhin noch die Möglichkeit, jederzeit eine neue Kamerakurve erzeugen zu lassen. So ist gewährleistet, daß die Kurve aus einer optimalen Belichtungsserie mit größtmöglichem Motivrange zur Kalibrierung verwendet wird. Photogenics dagegen kalibriert seine Algorithmen anhand jeder neuen Belichtungsserie neu. 3.3.4. Rekonstrukion des HDRI Mit HDRShop kann man nun auch die Bildsequenz kombinieren. Dazu werden wieder die Belichtungsintervalle in eine ähnliche Tabelle eingetragen (Bild 18). Bild 18: Einordnen der Belichtungsstufen zur HDRI Rekonstruktion in HDRShop Diese manuelle Eingabe der Werte erfordert nicht nur die Fachkenntnisse des Benutzers, sondern ist bei digitalen Fotos geradezu lästig. Denn die notwendigen Informationen sind in den Bildern enthalten. Auch hier ist es wieder sehr zu empfehlen, die EXIF-Daten vorher auszulesen, und im Dateinamen zu verschlüsseln. Außerdem ist HDRShop nicht in der Lage, das generierte Bild in einer absoluten Helligkeitsskala einzuordnen. Wie in der Spalte „Abs. Stops“ (Bild 18) ersichtlich, wird immer das dunkelste Bild eine Belichtungsreihe als Nullpunkt angesehen. Zwar stehen die erzeugten Pixelwerte in denselben Verhältnissen zueinander wie die korrespondierenden Motivhelligkeiten, doch die erzeugten Bilder sind nur in sich selbst proportional. Die Pixelwerte erlauben weder direkten Rückschluß auf die tatsächliche Leuchtkraft des Motivs, noch kann man verschiedene HDRBilder ohne weiteres miteinander ins Verhältnis setzen. 36 Um das HDRI zu benutzen, muß man es erst nachbelichten. Mit der Taste „+“ verschiebt man den angezeigten Ausschnitt des Dynamic Range bis man ein optisch gut erkennbares Bild hat. In den meisten Fällen entspricht das etwa der mittleren Belichtung aus der Serie. Hat man also beispielsweise 8 Quellbilder kombiniert, ist bei +3.5 EV die gut sichtbare Mitte (siehe Bild 64). Mit dem Menüpunkt „ImageàPixelsàScale to Current Exposure“ wird das HDRI dann fixiert. Die Farbwerte werden dabei nicht abgeschnitten, sondern nur für die bessere Weiterbearbeitung auf dem Monitor verschoben. Bild 19: Nachbelichten auf mittlere Belichtung der Serie Man kann sich diese Vorbehandlung analog zur klassischen Filmentwicklung vorstellen: Aufnehmen, Nachbelichten, Fixieren. Nur mit dem Unterschied, daß man mit dem HDRI vollkommen non-destrukiv arbeitet. Sehr ähnlich funktioniert die Rekonstruktion eines HDRI in Photogenics. Laut Herstellerangaben [22] liest es zwar die Belichtungsdaten aus den EXIF-Header, doch funktionierte das im Praxistest nicht mit allen Kameras. Alternativ zur automatischen Erkennung kann man auch die Belichtungsdaten in einer Tabelle eintragen. Diese erlaubt zwar weniger Optionen, ist aber dafür weitaus übersichtlicher als in HDRShop (Siehe Bild 20). Gerade dem weniger erfahrenen Benutzer kommt die direkte Eingabe der Belichtungszeit anstatt Lichtwertabständen entgegen. Bild 20: HDRI Rekonstruktion in Photogenics 37 Ein besonderes Bonbon hält Photogenics für die Besitzer bestimmter CanonKameras parat. Die Modelle S30,S40,G2 sowie die High-End Modelle D30 und D60pro können per USB-Kabel ferngesteuert werden. Mit dem Dialogfeld in Bild 21 wird dann automatisch eine Belichtungsserie aufgenommen, heruntergeladen, und zu einem HDRI kombiniert. Bild 21: Ferngesteuerte Automatische HDRI-Aufnahme in Photogenics So komfortabel und benutzerfreundlich das auch klingt, der Schwachpunkt von Photogenics liegt in den eigentlichen Kombinationsalgorithmen. Diese bauen die einzelnen Belichtungsstufen nur anhand einer allgemeinen Gamma-Kurve zusammen, eine exakte Kalibrierung ist nicht möglich. Das mag zwar in vielen Fällen funktionieren, bietet jedoch keine Präzision in Sachen Farbechtheit. Eine gute Kombination aus Benutzerfreundlichkeit und wissenschaftlicher Präzision stellt dagegen Photosphere dar. Hier genügt es, alle Bilder der Belichtungsreihe anhand von Thumbnails auszuwählen, um dann auf MakeHDR aus dem File-Menü zu klicken (Bild 21). Daraufhin taucht ein Dailogfeld auf, in dem man nur noch OK klicken braucht (Bild 22). 38 Bild 22: Auswahl der Belichtungsserie in PhotoSphere Bild 23: HDRI Rekonstruktion in PhotoSphere Alle erforderlichen Belichtungsdaten liest Photosphere aus dem EXIF-Header. Erkennt es anhand dieses Headers, daß die Bilder mit einer ihm noch unbekannten Kamera aufgenommen wurden, führt es vollautomatisch eine neue Kalibrierung durch. Andernfalls verwendet es von selbst die zugehörige Kalibrierungskurve. (In HDRShop muß diese immer wieder von Hand lokalisiert werden). PhotoSphere erkennt es sogar, wenn die neue Belichtungsserie einen höheren Dynamic Range hat als die Kalibrierungsserie. Dann schlägt es automatisch vor, eine neue Kurve aus der neuen Serie zu ermitteln. Einzigartig in Photosphere ist auch die Align-Funktion, die alle Bilder der Belichtungsreihe pixelgenau aufeinander anpasst. Der entsprechende Algorithmus arbeitet sehr schnell und führt in 85% der Fälle zu einem perfekten Ergebnis [20]. 39 Die Funktionsweise [20] ist in Bild 24 dargestellt. Zuerst wendet er einen Median Threshold Bitmap (MTB) Filter auf zwei benachbarte Belichtungsstufen an. Dann werden die Bilder mehrfach auf die Hälfte ihrer Auflösung skaliert, und damit eine Bilder-Pyramide aufgebaut. Auf der kleinsten Stufe werden die Bilder dann horizontal und vertikal um einen Pixel verschoben und auf Kongruenz getestet. Dieser eine Pixel entspricht 32 Pixeln der OrigiBild 24: Bilder-Pyramide des MTB-Align-Algorithmus nalbilder. Passen sie aufeinander, wird die Richtung gemerkt und die auf die nächstgrößere Auflösungsstufe übertragen. Auch diese wird dann wieder um einen Pixel verschoben, bis sie auch in dieser Auflösung passgenau sind. Diese Schritte werden iterativ immer wieder wierderholt, bis die zwei benachbarten Belichtungsstufen in ihrer vollen Auflösung aufeinander passen. Dann wird die ganze Prozedur mit dem nächsten zwei Belichtungsstufen wiederholt, so daß am Ende alle Bilder der ganzen Serie paßgenau sind. Dieser Algorithmus ist so robust, daß er beispielsweise im Bild 25 sogar die Bewegung der Wolken kompensieren konnte. Alle Belichtungsstufen, die hauptsächlich Wolken zeigen, wurden gemeinsam gegen die Bilder verschoben, auf denen der Himmel überstrahlt war. Die schwarze Linie am linken Rand kommt allein durch diese Verschiebung zustande, und markiert die Reichweite dieser Anpassung. Alles was der Benutzer von dieser Prozedur mitbekommt, ist ein zügig wachsender Fortschrittsbalken, begleitet von dem Gedanken wie lange diese Feinanpassung per Hand wohl dauern würde. Bild 25: Leistungsfähigkeit des Align Algorithmus 40 Im Unterschied zu den anderen beiden Programmen konserviert Photosphere auch eine Vielzahl von Daten im Dateiheader des generierten HDR Bildes (Siehe Bild 26). Bild 26: Vergleich der Radiance(.HDR) Dateiheader, generiert von Photosphere, HDRShop und Photogenics Speziell die Variable „Exposure“ ist interessant. Das ist ein Faktor der sich aus der Kombination von Belichtungszeit, Blendenwert und Filmempfindlichkeit (ISOWert) der Quellbilder ermittelt. Die generierten HDR-Pixelwerte werden damit an der Helligkeitsskala der echten Welt gemessen. Klickt man in Photosphere in das Bild oder zieht man einen Selektionsrahmen auf, kann man lichttechnisch korrekte Strahlungswerte ablesen. So hat beispielsweise die Wolke im Bild 27 eine Beleuchtungsstärke von knapp über 20.000 lux (bzw. cd/m²). Bild 27: Lichttechnisch korrekte Ausmessung der Wolke 41 Der größte Vorteil von Photosphere, nämlich die intelligente Interpretation der Metadaten, ist auch seine Achillesferse. Liegen diese Daten nicht vor, wie beispielsweise bei Scans analoger Photos, verweigert Photosphere’s Kombinationsalgorithmus die Arbeit. In einem optischen Qualitätsvergleich liegt Photosphere qualitativ weit vorn. Wie in den Bildern 28 und 29 gut zu erkennen ist, haben HDRShop und Photogenics große Probleme an kontrastreichen Kanten. Das Ergebnis ist hier maßgeblich davon abhängig, wie genau die einzelnen Bilder aufeinander passen. Ist auch nur eine Belichtungsstufe verrutscht, kommt es zu bildweiten Fehlinterpretationen. Das Bild wird unschärfer, und an Kanten tritt hochfrequentes Rauschen auf (Siehe 28 B) oder die einzelnen Belichtungsstufen sind geisterhaft überlagert (siehe 29 C). Bild 28: Qualitätsvergleich von PhotoSpere (A), HDRShop (B), Photogenics (C) Bild 29: Qualitätsvergleich am Detail von PhotoSphere (A), HDRShop (B), Photogenics (C) Als Fazit ist PhotoSphere für die Generierung von HDR-Bildern unbedingt zu empfehlen. Es ist einfacher zu bedienen und liefert bessere Ergebnisse. Einzig und allein, wenn die Belichtungsserie mit einer analogen Kamera aufgenommen wurde, ist HDRShop das Werkzeug der Wahl. 42 4. Anwendung in der Bildbearbeitung 4.1. Belichtungskontrolle Das Nachbelichten wurde schon im Kapitel 4.3.4. erwähnt. Es ist sehr wichtig die Tragweite dieser neuen Möglichkeit zu erfassen. Nachträgliche Kontrolle über die Belichtung ist der Traum eines jeden Fotografen. Mit den Farbwerten eines HDR-Bildes kann man so virtuos umgehen wie ein Tontechniker mit einer 64 kHz Tonstudioaufnahme. Übliche 8 Bit Bilder entsprechen in diesem Vergleich eher dem Langwellenradio. Bild 30: kreative Belichtungskontrolle des am Beispiel Schindler House 43 Das Bild 30 zeigt beispielsweise eine besonders schwierige Gegenlichtaufnahme im Hof des Schindler Hauses. Nur ein sehr erfahrener Fotograf weiß diese Situation mit geeigneten Objektivfiltern und dem Vertrauen in sein Können zu meistern. Wie die einzelnen Bilder der Belichtungsreihe zeigen, kann man mit einer Standardkamera entweder auf die Lichter oder auf die Schatten belichten. Diese Reihe wurde übrigends aus der Hand geschossen, mit der Auto-Bracketing Funktion der Minolta Dimage5. Das Kombinieren zu einem HDRI nahm 2 Minuten in Photosphere in Anspruch – inclusive Herunterladen der Bilder. Auf dem PC wurde das HDRI dann in Digital Fusion geladen, und einer umfangreichen Farbkorrektur unterzogen. Gamma und Gain wurden zuerst justiert, dann noch ein Braunton in die Schatten gemischt, die Lichter der unteren Bildhälfte mit einem dezenten Glow versehen. Zum Schluß wurde noch mit einem Dent-Filter die Linsenkrümmung entzerrt. Das Ergebnis dieser Nachbearbeitung ist eine Symbiose aus allen Details der Belichtungsserie, ein Foto welches so niemals geschossen wurde. Aber auch subtilere Korrekturen können manchmal Details hervorbringen, die bei herkömmlichen Bildern verloren wären. Bild 31A zeigt beispielsweise ein leicht überbelichtetes Foto. Bild 31: Gain-Reduktion im Detail: Original (A), 8-Bit Ergebnis (B), HDRI Ergebnis (C) Der nur einen Pixel breite Balken am rechten Rand des Histogramms zeigt die abgeschnittenen Farbwerte an. Durch eine Gain-Korrektur an einem normalen 8-Bit Bild wird dieser Ausschlag nur nach links verschoben. Das Highlight verwandelt sich in eine matschig graue Fläche, das Bild verliert insgesamt an Kontrast. Wird dieselbe Gain-Korrektur an einem HDRI durchgeführt, verteilt 44 sich der Balken im Histogramm auf die ganze Breite der verfügbaren Werte (siehe Bild 31c). Aus den überbelichteten Highlights treten nun ganz klare Details hervor. Man kann den Titel des Buches wieder lesen, und in der Reflektion an Teekanne erscheint sogar das Fensterkreuz. Bild 31c ist insgesamt kontrastreicher, und im Gegensatz zu Bild 31b sieht man ihm nicht sofort an, daß es digital bearbeitet wurde. Nun könnte man argumentieren, daß diese Details ja in der Belichtungsserie fotografiert werden müssen. Könnte man da nicht gleich eines der anderen Bilder nehmen? Das mag sein, doch dann hat man weiterhin nur die Auswahl aus einer begrenzten Anzahl von Bildern – die übrigens zusammen weitaus mehr Speicherplatz und Verwaltungsaufwand beanspruchen. Sind sie dagegen in einem HDRI kombiniert, hat man stufenlose Kontrolle in einer einzigen Datei. Außerdem ist wie beschrieben das Aufkommen von HDRI-Fotoapparate schon absehbar, was den zusätzlichen Aufwand der Belichtungsserien eliminiert. Heute schon möglich ist allerdings das direkte Speichern computergenerierter Bilder als HDRI. Es kann nur als grobe Fahrlässigkeit gelten, davon nicht Gebrauch zu machen, denn der zusätzliche Aufwand ist gleich Null. Es macht beispielsweise wenig Sinn, nach einer Rechenzeit von 20 Minuten den Großteil der errechneten Farbwerte abzuschneiden - allein durch die Wahl eines LDR Speicherformates. Noch viel weniger Sinn macht es, ein gerendertes Bild zu verwerfen, nur weil man die Beleuchtung herunterdrehen will. Im Beispiel 76a ist so ein versehentlich überstrahltes Rendering gezeigt. Bild 32: Belichtungskontrolle an einem HDRI-Rendering in Digital Fusion 4 Bild 32 zeigt den Brightness/Contrast Operator in Digital Fusion, der zur „magischen“ Rettung des Renderings in Bild 31c führt. Die überstrahlten Stellen zeigen nun wieder Details, das Highlight an der Grundplatte ist auf eine schmale 45 Linie begrenzt. Im Histogramm hat sich wieder der lange Maximum-Balken auf das obere Drittel gleichmäßig verteilt.Dabei ist das genau derselbe Operator, den man auch bei LDR Bildern benutzen würde. Die drastische Wirkung des Gain-Reglers wird nur durch die Informationstiefe des Ausgangsmaterials hervorgerufen. Der Gamma-Regler dient hier als Gegengewicht, um die dunklen Anteile nicht im schwarz zu verlieren. Auch die Sättigung wurde leicht angehoben, damit die Gain-Reduktion nicht die Farbanteile herauszieht. Eine einfache Form der Nachbelichtung ist mit dem EXR-Import Plugin für Photoshop möglich [14]. Bild 33 zeigt das Dialogfeld, was direkt nach der Dateiauswahl erscheint. Mit Exposure regelt man die Helligkeit, der Gamma-Wert verstellt den Kontrast. Die Vorschau hilft dabei die richtigen Einstellungen zu finden. Mit Klick auf OK wird das Bild dann im 16 Bit Modus geladen. Nun kann man die Feinkorrektur mit den gewohnten Photoshop Werkzeugen durchführen, wie beispielsweise eine Tonwertkorrektur (siehe Bild 34). Bild 33: EXR Import in Photoshop Bild 34: Tonwertkorrektur in Photoshop im 16-Bit-Modus 46 So hat man zwar nicht mehr den ganzen Dynamic Range zur Verfügung, aber 16 Bit ist immer noch eine Präzisionsstufe genauer als 8 Bit. Bild 35 zeigt den Vergleich: Das linke Histogramm zeigt das Ergebnis der Tonwertkorrektur in 16 Bit. Dieselbe Korrektur auf eine 8-Bit Version angewandt, zeigt ein deutlich zittrigeres Histogramm, in den hellen Bereichen klaffen sogar kleine Lücken. Bild 35: Histogrammvergleich Ein EXR in Photoshop zu bearbeiten hat also seine Vorteile, und ist sicherlich am einfachsten in den gewohnten Workflow zu integrieren. Dabei muß man sich allerdings im Klaren darüber sein, daß dies keine echte HDR-Bildbearbeitung ist. Auch in 16 Bit gibt es keine hellere Farbe als das Maximalweiss – nur daß hier 65000 statt 256 Abstufungen zur Verfügung stehen. Das Arbeiten im echten High Dynamic Range bietet aber noch weitaus mehr Vorteile. 4.2. Bewegungsunschärfe Echte Bewegungsunschärfe kommt dadurch zustande, daß sich während der Belichtungszeit das Motiv ändert. Manche Objekte, vor allem Lichtquellen, sind jedoch so hell, daß sie auch in einem Bruchteil der Belichtungszeit zu einer Bild 36: Fotografische Beispiele für extreme Bewegungsunschärfe durch Langzeitbelichtung Sättigung der Filmschicht führen würden [4][23]. So kommt es, daß sie auf ihrem Weg durch das Bild einen hellen, teilweise sogar gesättigten Schweif bilden. Bild 36 zeigt dieses optische Phänomen an echten Fotos. 47 In der Postproduktion wird Bewegungsunschärfe meist durch einen gerichteten Weichzeichner simuliert. Üblich sind lineare, radiale, zentralverzerrte („Chrashzoom“), oder speziell vorberechnete Bewegungsvektoren. In allen dieser Fälle werden die Pixel nur in Richtung eines Vektors verschmiert. Das funktioniert auch in den meisten Fällen recht gut. Bis man jedoch Lichtquellen im Bild hat. Die verwischen sich dann mit den dunklen Pixeln in der Umgebung, und es entsteht ein unnatürlich verwaschenes Ergebnis wie in Beispiel 37. Bild 36: Simulierte Bewegungsunschärfe (C) in Digital Fusion; Vergleich zwischen HDRI (A) und 8-Bit (B) In Bild 37A wurde derselbe Filter auf ein HDRI angewandt. Hier haben die Lichtquellen genügend Intensität, um auch nach dem Verwischen noch heller als das Maximalweiß zu sein. Sieht man sich übrigends den Flow (Bild 37C) genauer an, so stellt man fest daß hier ein sehr dunkles Radiance Bild geladen und mit einem Brightness/Contrast Operator erst in den sichtbaren Bereich gehoben wird. Dann gabelt sich der Flow. Ein Strang führt direkt zu dem linken Blur Operator, dessen Ergebnis in 37A angezeigt wird. Dieser Strang ist durchgängig in Fließkommapräzision gehalten. Der andere Seitenstrang jedoch führt erst durch einen Change Depth Operator. Dort wird die Farbtiefe in 8 Bit umgewandelt. Das Thumbnail sieht zwar noch genauso aus, doch der Dynamic Range wurde auf den sichtbaren Teil beschnitten. 48 Ein Experiment Bild 38 zeigt eine verfeinerte Version der Bewegungsunschärfe, und beweist daß der höhere Informationsgehalt allein für die bessere Qualität verantwortlich ist. Selbst ein einfacher Translate-Operator kann dadurch ein erstaunliches Ergebnis liefern. Bild 38: Simulierte Bewegungsunschärfe mit dem Transform-Operator (C) am HDRI (A) und in 8-Bit (B) In Abschnitt 38c ist der Translate-Operator zu sehen, dieser ist das Standardtool um in Digital Fusion ein Bild zu animieren. Nun wurde es erst von Frame 0 bis Frame 2 zur Seite geschoben. Auf dem entstandenen Animatonspfad (rot im Bild 38a) wurden dann Zwischenkeyframes verteilt und so der Pfad in eine schöne Kurve geformt. Nun braucht man nur noch den Translate Operator anweisen, die Bewegung des Bildes mit Bewegungsunschärfe zu berechnen. Das tut er in Sub-Frame Genauigkeit, und schiebt das Bild zwischen den Frames auch tatsächlich an dem gekurvten Pfad entlang. Tut er das auch noch an einem HDRI, kann man am Schweif der Lichtquellen wunderbar den Pfad erkennen (Bild 38A). Das Resultat ist eine simulierte Bewegungsunscharfe, die in Dynamik und Kontrast an die Ästhetik eines verwackelten Fotos erinnert. 49 4.3. Glow- und Bloom- Effekte Im Handbuch einer Kamera steht meist, daß man nicht gegen die Sonne fotografieren soll. Das hat seinen guten Grund, denn die extreme Lichteinstrahlung kann dann zum sogenannten Blooming („Ausbluten der Lichter“) führen [23]. Damit bezeichnet man die Ausbreitung der überschüssigen Intensität auf der Bildebene. Benachbarte dunkle Bildteile werden dann überstrahlt, wie beispielsweise die Person im Bild 39A. Bild 39: Fotografische Beispiele für Bloom- und Glow-Effekte Auch bei Leuchtreklamen und Rücklichtern tritt dieser Effekt auf, und ist manchmal sogar erwünscht um eine bestimmte Bildästhetik zu schaffen (siehe Bild 39B) [4]. Dieser Effekt wird Glow oder Glühen genannt. Man beachte, daß der Glow sehr intensiv die Farbe der jeweiligen Lichtquelle annimmt – das Rot der Rücklichter beispielsweise. Bild 40 zeigt in Digital Fusion simulierten Glow. Beide Bilder wurden mit dem gleichen Glow-Filter belegt, doch an der HDRI-Version blutet deutlich die eigentliche Farbe der Lichtquelle aus. Bild 40: Simulierter Glow in Digital Fusion Auch das nachbelichtete Bild aus Kapitel 4.1. hat eine Behandlung mit dem Glow-Filter in Bild 41 bekommen. Die Veränderung ist hier subtil, aber immer noch erkennbar. 50 Bild 41: HDRI-basierter Glow zum Aufpolieren der Glanzlichter [Die Glanzlichter an den Kanten strahlen auch in die dunkleren Bereiche, und geben dem Objekt einen goldigen Schimmer. Wohlgemerkt unterscheidet sich dieser Glow von dem überbelichteten Originalbild, da es sich um die Simulation eines Effektes auf dem Filmmaterial handelt. 4.4. simulierte Filmbelichtung Auch komplexere Methoden zur Simulation von Film sind mit HDRIs möglich. Die Virtual Darkroom Technologie [97] beispielsweise macht sich die physikalisch korrekte Repräsentation von Helligkeitswerten zunutze, indem sie sämtliche Schritte der analogen Filmbelichtung auf diesen Datensatz anwendet. Dabei werden die HDRI-Tonwerte zuerst mit einer Filmkurve transformiert, um die Abbildung von Welthelligkeiten in belichtete Filmwerte zu simulieren. Dabei werden auch Belichtungszeit, Blende, Filmkörnung und Streulicht berücksichigt. Dann wird die Entwicklung des Negativs zum Positiv anhand der entsprechenden Transferkurven echten Filmmaterials simuliert. Diese Kurven basieren auf Meßwerten echten Filmmaterials, und repräsentieren immer die Charakteristik eines spezifischen Filmstocks. Diese simulierte Filmbelichtung generiert automatisch Effekte wie Glow, Farbstich, Rauschen, und Flackern. 51 Die bislang einzige Implementierung in einer Postproduktionssoftware ist ein Lightwave PlugIn [37] (Siehe Bild 42). Bild 42: Virtual Darkroom, Plugin-Komponenten und Beispiele Die Unterschiede in den Beispielbildern sind sehr subtil, entsprechen aber exakt dem Look des spezifischen Films. Die Auswahl an vorgegebenen „digitalen Filmstocks“ ist sehr begrenzt. In der Theorie ist diese Technologie ideal geeignet für Postproduktionsfirmen, die Filmeffekte herstellen. Das würde jedoch voraussetzen, daß sie Zugriff auf das Originalfilmmaterial bekommen, und eine Möglichkeit haben diese spezifischen Transferkurven zu ermitteln. Beides ist in der Praxis problematisch, deshalb wird diese vielversprechende Technologie selten genutzt. Einer größeren Verbreitung zuträglich wäre die Implementierung des Virtual Darkrooms in HDR-fähige Compositing Systeme. Hier besteht noch Nachholbedarf für Entwickler, der Markt und die Technologie sind vorhanden. 52 5. HDR Environments HDR Environments sind Panoramabilder mit einem High Dynamic Range. Die Methoden zur Erstellung sind daher eine Symbiose aus der beschriebenen Rekonstruktion eines HDRI aus Belichtungsserien und der Panoramafotografie. Dabei baut die Panoramafotografie auf eine Tradition, die fast bis zu den Anfängen der Fotografie zurückreicht. Inzwischen haben sich 4 verschiedene Methoden etabliert, die sich prinzipiell in dem Verhältnis von Hardware- und Arbeitsaufwand unterscheiden [38][39]. Mit speziellem Equipment kann man sehr schnell und einfach zu Ergebnissen kommen. Nimmt man jedoch einen höheren Arbeitsund Zeitaufwand in Kauf, kann man durchaus auch mit einfachen Mitteln zu gleichwertigen Ergebnissen kommen. Insofern haben alle 4 Methoden ihre Berechtigung. 5.1. One Shot Technik Das ist der denkbar einfachste Idealfall für den Benutzere. In der klassischen Ausführung wird dies durch eine rotierende Kamera erreicht, die durch eine vertikale Schlitzblende einen langen Negativstreifen belichtet. Diese Technik wird Panoramascan oder Rotationsscan genannt [39]. Bild 43: Klassische One-Shot Panorama Kameras, v.l.n.r.: Gluboscope, Roundshot, Voyageur II, Lookaround Panoramic Camera Modernere Rotationskameras wie die Eyescan von der Firma KST arbeiten bereits digital, wenn auch im Low Dynamic Range. Eine Rotationskamera ganz besonderer Art ist die SpheroCamHDR [40] (vor Mai 2003 unter dem Namen PanoCamHDR vertrieben). Diese ist in der Lage, Panoramen mit einem Dynamic Range von 26 Belichtungsstufen und einem Format von bis zu 5.300 x 13.000 Pixeln gestochen scharf aufzunehmen. Sie ist bislang die einzige Möglichkeit, volle HDR-Environments mit nur einem einzigen Arbeitsschritt zu erzeugen. Wie die digitalen Mittelformatkameras ist auch sie auf die Ansteuerung durch einem Hostcomputer angewiesen. Allerdings aus einem anderen Grund, denn die SpheroCam HDR ist in Wahrheit ein sehr komplexes System verschiedenster Hard- und Software. Herzstück ist ein 53 elektronisch gesteuerter Panoramastativkopf, der eine Kamera mit Fischaugenoptik schrittweise um 360 Grad dreht. Die Steuersoftware nimmt in jede Richtung eine Vielzahl von Bildern mit verschiedener Belichtungszeit auf. Eine integrierte und vorkalibrierte Bildbearbeitungssoftware korrigiert dann die Linsenverzerrung, kombiniert die verschiedenen Belichtungszeiten, und setzt die unterschiedlichen Blickwinkel zu einem Panoramabild zusammen. Das passiert alles automatisch, der Benutzer muß nur auf den Auslöser drücken. Das heißt, er drückt natürlich auf den Start Button in der Steuersoftware (siehe Bild 44). Bild 44: SpheroCamHDR Steuersoftware Erhältlich ist dieses Kamerasystem nur direkt vom deutschen Hersteller SpheronVR [40], zu einem Preis von 48.600 € (Preisliste Januar 2003). 5.2. Segment Technik Auch durch schrittweises Drehen einer gewöhnlichen Kamera kann ein Panorama erzeugt werden [39]. Je nach Öffnungswinkel des Objektivs benötigt man 12 bis 18 Bilder, mit jeweils etwa 25% bis 50% Überlappung (siehe Bild 45), um eine volle 360° Drehung aufzunehmen. Für ein volles Panorama muß man etwa 4 dieser horizontalen Reihen aufnehmen, um die auch die vertikalen 180° Blickwinkel abzudecken [35]. Bild 45: Segment Technik 54 Für optimale Segmentierung bietet der Fach handel spezielle Stativköpfe mit einstellbare Winkelraster an [38]. Diese ermöglichen auch die Drehung der Kamera um den Brennpunkt der Linse, was die perspektivische Verschiebung zwischen den Blickwinkeln minimiert. Erhältlich sind diese Köpfe für die Nikon Coolpix 900/950 für € 160,- bis € 250,- von der Firma Kaidan, sowie passend für alle Kameras für € 1500,- von iMove (siehe Bild 46). Bild 46: iMove Panoramakopf Hierbei muß für das Einfangen des vollen Dynamic Range jeder einzelne Blickwinkel mit mindestens 6 verschiedenen Belichtungszeiten fotografiert werden. Insgesamt hat man also etwa 300 bis 400 Bilder zu fotografieren. Die benötigte Zeit und Arbeitsaufwand sind dementsprechend immens. Für das Zusammenfügen der einzelnen Segmente hat man die Wahl aus 22 verschiedene Stitching Programmen. Doch nicht ein einziges kann mit HDRBildern arbeiten. Das bedeutet, man muß zuerst alle Segmente einer Belichtungsstufe zu einem Panorama zusammenbauen, und dann die Low-DynamicRange Panoramen zu einem HDR Panorama kombinieren. DOWNING [35], der diese Art der HDR Panoramageneration intensiv untersucht hat, schlägt daher folgenden Workflow vor: 1. Jeder Blickwinkel wird mit dergleichen Belichtungsreihe fotografiert, etwa 1/2048 sec, 1/512 sec, 1/128 sec, 1/32 sec, 1/8 sec, 1/2 sec. 2. Für jeden Lichtwert wird ein Ordner angelegt, in dem alle Blickwinkel mit demselben Lichtwert gesammelt werden. 3. Bildern mit gleichen Blickwinkeln werden jeweils identische Dateinamen gegeben. 4. Mit dem „Realviz Stitcher“ wird zuerst die noch leere Projektdatei im mittleren Lichtwert Ordner, der die meisten Details zeigt, gespeichert. Dann wird aus den Blickwinkeln in diesem Ordner das erste Panorama angefertigt. 5. Nun kann man die Realviz Projektdatei in die anderen Lichtwert Ordner kopieren. Da die Bildpfade darin relativ gespeichert sind, werden automa- 55 tisch beim Laden alle Blickwinkel der nächsten Belichtungsstufe zu einem korrekten Panorama angeordnet. 6. Die entstandenen Low-Dynamic-Range Panoramen werden dann in HDRShop zu einem HDR Panorama kombiniert. Anstatt des Realviz Stitchers kann man natürlich auch eine andere Stitching Software verwenden, solange diese Entzerrungsdaten separat speichern, anwenden, und mit relativen Pfaden operieren kann [38]. Doch auch mit dieser Vorgehensweise ist der Aufwand enorm. Allein das Fotografieren und die Dateiverwaltung nehmen viel Zeit und Geduld in Anspruch. Im Gegenzug ist aber auch das resultierende HDR-Panorama enorm groß und detailliert. Empfehlenswert ist diese Methode, wenn man wirklich die höchstmögliche Auflösung und Qualität braucht. 5.3. Spiegel Technik 5.3.1. Das Prinzip Mit herkömmlichen Linsenobjektiven kann man das Sichtfeld einer Kamera nicht unbegrenzt ausweiten. Das Maximum liegt bei 180°. Physikalisch kann der Strahlengang aus einem Objektiv, auch nicht durch ausgetüftelte Linsensysteme, hinter die Kamera gelenkt werden. Bei der Spiegeltechnik dagegen wird die Umgebung nicht direkt fotografiert, sondern deren Spiegelung. Damit bestimmt der Aufbau des Spiegels den Öffnungswinkel. Bild 47: Spiegelobjektive, v.l.n.r: Birdeye, Fullview, Surroundphoto, Omnieye, BeHere, ParaShot Dieser Ansatz ist nicht neu, seit den 70er Jahren sind die verschiedensten Spiegelformen hergestellt worden. Die Palette reicht von kaleidoskopartigen Prismenspiegel über konkave und konvexe Spiegel [39]. Bild 47 zeigt einige dieser Exemplare. Damals wurde eine kompakte Bauweise nach Vorbild der Linsenobjektive angestrebt. Hauptabnehmer dieser Technologie war die Überwachungstechnik. Deshalb sollte die gesamte Kamera möglichst klein und kompakt sein. Hinter vielen der getönten Halbkugeln an Kaufhausdecken finden sich eben 56 diese Spiegelobjektive. Die Kamera erfasst tatsächlich den ganzen Raum, und nicht wie vielfach angenommen nur worauf sie versteckt gerichtet ist. Die größte Verbreitung finden die konvexen, also zur Linse hin gewölbten Spiegel. Viele der Hersteller liefern eigene Software zur Entzerrung der Bilder mit, die für die jeweilige Spiegelgeometrie optimiert ist. Gemeinsamer Schwachpunkt ist allerdings der kurze Abstand von Kamera und Spiegel, was den effektiven Blickwinkel einschränkt und eine se hr große Spiegelung von Kamera und Fotograf zur Folge hat. Erhältlich sind diese Spezialobjektive für durchschnittlich €1000,- [39]. Mit einer spiegelnden Kugel ist es möglich, fast die gesamte Umgebung mit nur einer einzigen Belichtungsreihe zu fotografieren [23]. Die Sehstrahlen direkt am Rand der Kugel werden in einem so flachen Winkel reflektiert, daß dort tatsächlich auch die Objekte hinter der Kugel abgebildet werden – wenn auch extrem verzerrter Form. Bild 48 zeigt den Strahlenverlauf. Spiegelkugel parallele Sehstrahlen (idealisiert) Es gibt einen blinden Fleck direkt hinter der Kugel, Bild 48: Spiegel Technik und der Fotograf ist selbstverständlich auch in der Kugel zu sehen. Eine bessere Qualität erreicht man daher, wenn man die Kugel von mehreren Seiten fotografiert. Zwei um 90° versetzte Blickwinkel sind gut geeignet bei einer perfekt runden Kugel, wie etwa einer polierten Stahlkugel aus dem Fachhandel für Maschinenbau [23], oder einer Flipperkugel. Auch eine Suppenkelle von einem Markenhersteller wie WMF läßt sich für diese Zwecke mißbrauchen [41]. Beim Kauf sollte man darauf achten, daß die Polierrichtung des Metalls nicht zu sehen ist, und die Oberfläche keine Kratzer aufweist. Die billigste Variante ist eine verspiegelte Glaskugel, erhältlich unter der Bezeichnung „Rosenkugel“ in der Gartenabteilung des lokalen Baumarkts. Diese Glaskugeln weisen allerdings mittlere bis grobe Unebenheiten auf. Da die Spiegelschicht von der Innenseite aufgebracht ist, kann man auch eine überlagerte Zweitspiegelung an der Oberfläche des Glases erkennen. Besonders an den Rändern, wo der flache Blickwinkel auf die Glasoberfläche zu einer Totalreflexion führt, wirkt sich das sehr störend aus. Nichtsdestotrotz kann auch eine Glaskugel zu befriedigenden Ergebnissen führen, wenn mehr als 2 Blickwinkel aufnommen werden. Mit 3 Belichtungsserien hat man schon genug Bildmaterial, um die groben Fehler wegzuretuschieren. 57 5.3.2. Das Fotografieren Wie geht man nun konkret vor? Die Kugel wird zuerst auf ein eigenes Stativ montiert. Dabei ist ein wenig Phantasie gefragt. Gut läßt sind beispielsweise eine Rosenkugel auf ein Universalstativ montieren, indem man den Hals der Rosenkugel an der runden Feststellscheibe des Stativs mit Hilfe von Paketklebeband fixiert. Danach wird die Kugel im gewünschten Zentrum des Panoramas plaziert, also in der Position, in der später das 3D Objekt scheinbar stehen soll. Dann stellt man die Kamera auf die maximale Zoomstufe, und entfernt sich soweit zurück bis die Kugel gerade bildfüllend ist. Damit erreicht man zum einen, daß die Spiegelung des Fotografen so klein wie möglich ist. Zum anderen ist ein paralleler Lauf der Sehstrahlen erforderlich um die sphärischen Bildverzerrung korrekt in ein Panorama umzuwandeln [2][18][23]. Im theoretischen Idealfall ist man unendlich weit weg, und fotografiert durch ein Teleobjektiv mit unendlicher Brennweite. In der Realität erlaubt ein 7facher Kamerazoom einen ausreichenden Abstand von 7 Metern.bei einer Kugel von 40 cm Durchmesser. Aus diesem Grund empfiehlt sich in engen Räumen auch die Verwendung einer kleineren Kugel. Die Kamera wird wie in Bild 49 auf ein auf einem zweiten Stativ montiert. Ein hochwertiges Stativ mit Wasserwaage ist hilfreich für eine exakt horizontale Ausrichtung. Um die Kugel im Bildausschnitt zu zentrieren, verstellt man die Höhe des Kamerastativs, nicht die Neigung. Damit ist gewährleistet, daß Objektiv und Kugelmittelpunkt in derselben Ebene liegen. Dann fotografiert man, wie in Kapitel 3.3. beschrieben, eine Belichtungsserie (Bild 50) von der Kugel. Bild 50: Belichtungsserie Bild 49: Versuchsaufbau 58 Dann bewegt man sich um die Kugel herum, und justiert die Stativhöhe um eventuelle Bodenunebenheiten auszugleichen. Zoom, Kameraneigung und Abstand zur Kugel sollten dabei jedoch konstant bleiben. Die zweite und dritte Serie wird fotografiert, indem man dieselben Belichtungsstufen durchläuft wie bei der ersten Serie. 5.3.3. Übersicht des Nachbearbeitungsprozesses Der vorgestellte Arbeitsablauf geht von 3 Belichtungsserien aus, die mit der Spiegeltechnik aufgenommen sind. Er stellt eine Optimierung der von DEBEVEC [2][23] und BAUER [42] und beschriebenen Methoden dar, und kommt deshalb mit bedeutend weniger Einzelschritten aus. 1. Aufnahme von 3 Serien 2. Kombination zu HDRIs 3. Abwicklung 4. Vereinigung und Retusche 5. Horizontal spiegeln Fertig. Bild 51: Übersicht des optimierten Spiegelkugel-Workflows 59 5.3.4. Umwandlung in HDR Aus drei Belichtungsserien zu je 12 Bildern entstanden 36 Bilder, aus denen es nun gilt, ein HDR-Panorama zu erstellen. Um den Aufand für Dateimanagement zu verringern, empfiehl es sich zuallererst diese Anzahl zu reduzieren. Also kombinieren wir jeweils die 12 Bilder einer Serie in ein High Dynamic Range Bild. Wie in Bild 52 zeigt, ist das mit PhotoSphere eine Sache von 5 Minuten. Bild 52: Make High Dynamic Range in Photosphere Die drei generierten Bilder werden dann im Radiance Format (.hdr) gespeichert und auf den PC portiert. 5.3.5. Abwicklung in HDR-Shop Zunächst müssen die Bilder möglichst exakt auf die Kugelgröße beschnitten werden. Genau dafür bietet HDR-Shop ein spezielles Selektionswerkzeug, bei welchem einen Kreis in der rechteckigen Selektion angezeigt wird. Dieser Kreis wird so angepaßt, daß er genau auf dem Rand der Kugel liegt. Dabei sollte man sorgsam vorgehen, denn gerade die Randbereiche der Kugel enthalten die höchste Informationsdichte. Nur eine exakt ausgeschnittene Kugel kann auch korrekt entzerrt werden. Daher sollte man die Zoomfunktion (Strg. +/-) nutzen, und für die Anpassung an überstrahlten Kanten die Belichtung der Anzeige auf beste Sichtbarkeit einregeln (+/-). 60 Dann wird das Bild mit dem Menüpunkt ImageàCrop beschnitten (Bild 53). Bild 53: Beschneiden Jetzt ist das Bild vorbereitet für die eigentliche Abwicklung. Dazu dient der Menüpunkt „ImageàPanoramaàPanoramic Transformations“. Und zwar transformieren wir hier von einem Mirror Ball in das Latitude/Longitude Format. Für eine optimale Ausbeute der verfügbaren Pixelauflösung empfiehlt es sich, als entzerrte Bildhöhe die Höhe des Quellbildes anzugeben (siehe Bild 54). Bild54: Panoramic Transformation 61 Die so erstellte Abwicklung ist dann tatsächlich schon ein 360°/180° Panorama (siehe Bild 55). Bild 55: abgewickelte Spiegelkugel Allerdings wird bei diesem Verfahren die Informationsdichte nicht gleichmäßig verteilt. Im Mittelbereich entspricht ein abgewickelter Pixel noch ungefähr seinem Original, doch zum Rand hin werden die Details aus immer engeren Pixelreihen extrahiert. Gut erkennbar sind die extremen Verzerrungen am linken und rechten Rand. Das ist die ursprünglich von der Kugel verdeckte Stelle des Raumes. Der tatsächliche Informationsgehalt an diesen Stellen ist gleich Null. Bild 56: Verwertbarer Informationsgehalt Leider ist ausgerechnet im Bereich der besten Abwicklungsgüte der Fotograf samt Stativ und Kamera abgebildet. Damit ist noch einmal begründet, wieso es so wichtig ist die Kugel aus einem größtmöglichen Abstand zu fotografieren. 62 5.3.6. Retusche in Photogenics Aus den zwei bis drei abgewickelten Roh-Panoramen gilt es nun ein hochwertiges Panorama zusammenzustellen. Das kann prinzipiell auch in gängiger Compositing Software wie Digital Fusion oder Combustion gemacht werden. Hauptsache ist, daß das Bildbearbeitungsprogramm Ebenen unterstützt und mit HDRIs umgehen kann. Photogenics sei hier deshalb eingehender beschrieben, weil es als einziges reines Malprogramm für diesem Zweck prädestiniert erscheint. Bild 57: empfohlene Fensteranordnung in Photogenics, Horizontales Angleichen mit Roll-Effekt In Photogenics wird nun das optisch am saubersten erscheinende Bild als Basis gewählt. Mit einem Roll-Effekt verschiebt man den großen unsauberen Fleck in die Mitte, so daß an dem Randumbruch eine saubere Stelle liegt. Die anderen beiden Bilder dienen als Material für die Retusche, und werden ebenfalls mit dem Roll-Effekt in die gleiche Ausrichtung verschoben. Dabei muß man nicht allzu genau sein, denn die nichtlineare Funktionsweise von Photogenics erlaubt jederzeit eine Feinjustierung. 63 Dann erzeugt man für das Basisbild einen neuen Paint-Layer, bei dem als Paintmodus RubThru („Durchrubbeln“) zum Einsatz kommt (Bild 58). Nun wird eines der anderen beiden Bilder als „Secondary Layer“ angegeben, und damit das Ziel dieser Verknüpfung festgelegt (Bild 59). Bild 58: RubThrough Bild 59: Secondary Layer Mit dieser Vorbereitung kann jetzt ganz einfach retuschiert werden, indem mit dem weichen Pinsel das verknüpfte Bild freigerubbelt wird. So ist beispielsweise in Bild 60 der Fotograf mit einigen wenigen Pinselstrichen entfernt: Bild 60: Der Fotograf wird ausradiert. Genauso verfährt man mit dem blinden Fleck, und allen anderen Stellen die – eventuell auch durch Dellen oder Kratzer auf der Kugeloberfläche – unsauber sind. Paßt das durchgerubbelte Bild nicht genau, justiert man den Roll-Effekt des Secondary Layers entsprechend nach. Im Normalfall können schon mit einem Durchgang die groben Fehler bereinigt werden. Finden sich auf dem Secondary Layer keine sauberen Daten zum durchrubbeln, weicht man eben auf das dritte Bild als Quelle aus. Das ist sozusagen eine Art Rückversicherung. Doch die Arbeit im High Dynamic Range gebietet besondere Sorgfalt. Da der Monitor immer nur einen Ausschnitt aus dem gesamten Range darstellt, können sich in den gerade nicht angezeigten Schatten- oder Lichtregionen leicht Fehler einschleichen (siehe Bild 59). Daher sollte man in regelmäßigen Abständen die 64 Belichtung der Anzeige verstellen, um solche Fehler sichtbar zu machen. In Photogenics bedient man sich dafür des Exposure-Reglers im Inspektor Fenster. Bild 61: Vorsicht! In nicht angezeigten Helligkeitsbereichen können sich Fehler verstecken. Zusätzlich zum Durchrubbeln ist auch der Clone Stamp (Kopierstempel) eine gute Möglichkeit, die letzten Unsauberkeiten zu beheben (siehe Bild 60). Bild 62: Photogenics hat ein CloneStamp Tool à la Photoshop - aber im High Dynamic Range Abschließend wird das retuschierte Panoramabild horizontal gespiegelt. Das ist deshalb notwendig, weil wir ja ursprünglich in einen Spiegel fotografiert haben, und die ganze Zeit die seitenverkehrten Bilder bearbeitet haben. Selbstverständlich hätte man jederzeit zurückspiegeln können, doch macht man es zum Schluß braucht man eben nur ein einziges Bild zu spiegeln. 5.4. Weitwinkel Technik 5.4.1. rechtliche Vorbemerkungen Die Firma iPIX [43] hat sich weite Teile der Weitwinkel-Technik patentieren lassen und verfolgt mit beständiger Vehemenz jeden Verstoß. Damit soll das umstrittene Geschäftsmodell von iPIX geschützt werden, was eine Zahlung von $24,- für jedes komplettierte Panorama aus Fisheye Bildern vorsieht. Da die iPIX Software jedoch nicht mit HDR Images umgehen kann, müßte man für jede Belichtungsstufe ein Low-Dynamic-Range Panorama generieren und bezahlen. Das wäre umständlich, zeitaufwendig, und schlägt mit etwa $ 200,- pro HDR Environment zu Buche. 65 Dabei bestehen die von iPIX verkauften Komplettsysteme im Grunde auch nur aus Standardkomponenten, wie einer Nikon Kamera, einem Nikon 8mm Fisheye. Der motorgetriebenen Stativkopf und die hauseigene Stitching Software sind zwar Eigenentwicklungen, jedoch keinesfalls den auf dem freien Markt erhältlichen Alternativen überlegen. Auch sind die patentierten Techniken keinesfalls neu, waren sogar teilweise schon in Konkurrenzprodukten implementiert. Durch rechtlichen Druck zwang iPIX seine Konkurrenten, diese Funktionen zu entfernen. Auch Professor Dersch von der TU Furtwangen wurde in einen jahrelangen Rechtsstreit gezogen, weil seine kostenlose Software PanoTools die Panoramageneration aus Weitwinkelaufnahmen ermöglicht – und dabei der iPIX Software auch noch qualitativ weit überlegen ist [44]. Die vorgestellten Techniken kommen komplett ohne das iPIX System aus, und unterliegen der besonderen Zielstellung, im High Dynamic Range zu arbeiten. 5.4.2. Fotografie Benutzt man Objektive mit geringerer Brennweite, vergrößert sich der Bildwinkel und damit der aufgenommene Ausschnitt. Extreme Weitwinkel werden Fisheye genannt, und bieten einen Aufnahmewinkel bis zu 180 Grad. 180° Umgebung Abbildung der 180° Umgebung aus Sicht der Kamera Bild 63: Fisheye Technik Damit reichen eigentlich 2 Belichtungsreihen in entgegengesetzter Richtung, um ein volles Panorama aufzunehmen [2][3]. Die Randbereiche weisen jedoch sehr starke geometrische Verzerrungen, und je nach Linsenqualität auch mehr oder wenig starke chromatische Abweichungen auf. So ist es wieder sehr zu empfehlen, 3 Belichtungsreihen mit einem Versatz von ungefähr 120 Grad aufzunehmen [38]. Auch hier kann ein spezieller Panoramakopf auf dem Stativ die Qualität erhöhen, indem er die exakt horizontale Kamerarotation um den Linsenbrennpunkt ermöglicht. 66 Die Nachbearbeitung ist dann ganz einfach: 1. Kombination der Belichtungsreihen zu HDRIs. 2. Entzerrung mit HDRShop. 3. Ergänzung und Zusammenbau mit Photogenics. 5.4.3. Umwandlung in HDRI Wie bei der Spiegeltechnik hat man auch hier eine ganze Menge an Bilddaten als Ausgangsmaterial. Es gilt nun 6 bis 12 Belichtungszeiten aus jeweils 3 Blickwinkeln, also 18 bis 36 Bilder zu einem Panorama zu verbinden. Zwar kann man aus einer großen Palette von verschiedenen Programmen wählen, um zuerst aus 3 Low Dynamic Range Weitwinkel-Bildern ein Panorama zusammenzusetzen [38]. Doch dann hat man immer noch für jede Belichtungsstufe jeweils ein Panorama, und muß dann hoffen daß man mit HDRShop diese 6 bis 12 Panoramen in ein sauberes HDRI kombinieren kann. Dabei können sich leicht Fehler einschleichen, und der Aufwand an Datenmanagement ist recht groß. Effizienter geht man vor, indem man erst die 6 bis 12 Bilder aus einem Blickwinkel in ein HDR Image kombiniert. Dabei geht man vor wie in Kapitel 3.3. beschrieben, also benutzt PhotoSphere bzw. HDRshop. Damit hat man die Bilderflut auf 3 Fisheye-Aufnahmen im HDR-Format reduziert. Nun sind wir allerdings wieder auf die spärliche Auswahl an HDR-fähigen Programmen beschränkt, um diese Fisheye Blickwinkel zu entzerren und zusammenzusetzen. 5.4.4. Entzerrung mit HDRShop HDRShop bietet aus oben genannten patentrechtlichen Gründe leider keine explizite Funktion, um die Fisheye Geometrie zu entzerren. Jedoch durch den im folgenden beschriebenen Trick kann HDRShop zur Entzerrung mißbraucht werden. Dabei ist die geometrische Verwandschaft von Fisheye und Spiegelkugel von Nutzen. Wie im oben erläutert, nimmt eine Fisheye Linse 180° der Umgebung direkt auf. Fotografiert man dagegen in eine Spiegelkugel, hat man dieses 180° Sichtfeld 67 innerhalb eines Kreises, der exakt in das Innenquadrat der Kugelaufnahme eingeschrieben ist. (siehe Bild 64) Oder, mathematisch ausgedrückt: Spiegelkugel (2) 180° Umgebung a = 2r = 2R 2 1 2-5 1 2-5 Diese 2R Formel aermittelt = 2r = sich aus dem Satz des Pythagoras in 2dem gleichseitigen Dreieck aus Abbildungsradius r und Kugelradius R. (Siehe Bild 38) R 2 = r 2 + r 2 R 2 = 2r 2 parallele Sehstrahlen (idealisiert) R R=2 =2rr2 + r 2 R 2 R= 2r 2 r= 2 R = 2r R r= 2 6 7 (3) a (4) (5) a frontale Abbildung der 180° Umgebung r r (6) R 6 7 YPano = 180° × YRe nder VFOV YPano = YPano = Bild 64: Strahlenverlauf an einer Spiegelkugel, und Konstruktion des 180° Rings 180° × YRe nder VFOV Wendet man diese Überlegung praktisch an, kann man 180° der Umgebung in dem Bild einer Spiegelkugel markieren. Bild 65 zeigt dies: 180° × 576pixel = 2987,035pixel ≈ 3000 pixel 34,7° = ° Bild 65: Beschneiden der Spiegelkugel auf 180°. YPano 180 × 576pixel = 2987,035pixel ≈ 3000 pixel 34,7° 68 HDRShop bietet für exakt diesen Bildausschnitt eine Option in der Panoramic Transformations Funktion: „Mirror Ball Close Up“. Diese ist ursprünglich dazu gedacht, nur den Bereich mit der besten Umgebungsauflösung aus einer Spiegelkugel zu verwenden. Vernachlässigt man die geringen Unterschiede in der Winkelverteilung von der Mitte zum 180° Ring, so kann man diese Transformationsoption nutzen, um eine Fisheye Aufnahme zu entzerren. Der Schlüssel zum Erfolg dieser Methode ist die korrekte Beschneidung der Fisheye-Aufnahme. HDRShop’s Selektionskreis sollte genau den 180° Blickwinkel umfassen. Dabei muß man seine Linse kennen, hat sie beispielsweise einen Blickwinkel von 184° (wie die Nikon-16mm-Objektive), so muß man diese Selektion leicht kleiner machen als den aufgenommenen Bildkreis (Siehe Bild 66b). Nimmt das Objektiv dagegen einen Blickwinkel von beispielsweise 170° auf, so muß man die Auswahl leicht größer wählen, Orientierungspunkte können dabei die sichtbaren Linsenringe bieten (siehe Bild 66a). Bild 66: Fisheyes korrekt beschneiden. Das so beschnittene Bild ähnelt nun von der Bildgeometrie her der Nahaufnahme einer Spiegelkugel. Somit kann es in HDRShop entzerrt werden, wie in Bild 67 dargestellt. Quellformat ist „Mirror Ball Closup“, und als Zielformat wird „Latitude/Longitude“ angegeben. Die Bildhöhe des Zielbildes sollte wieder der Höhe des Quellbildes entsprechen, um die verfügbare Pixelauflösung maximal auszunutzen. Bild 67: Fisheye entzerren mit „MirrorBall Close Up“ Preset 69 5.4.5. Panoramageneration in Photogenics Ist diese Entzerrung an allen 3 Blickwinkeln vorgenommen, ist man im Besitz von sehr sauberem Ausgangsmaterial. Der Fotograf ist auf keinem der Bilder abgebildet, also muß er nicht wie bei der Spiegeltechnik wegretuschiert werden. Auch gibt es keine so extrem schlecht aufgelösten Stellen wie bei den Spiegelpanoramen, und es gibt auch keine Verzerrungen durch Unebenheiten auf der Spiegelkugel. Wohl aber sind die 3 abgewickelten Panoramen alle nur partiell. Diese gilt es nun also, zusammenzusetzen. Zuerst werden alle 3 Blickwinkel eingeladen, zwei der Bilder zoomt man klein, eines wird als Basisbild für das künftige Panorama gewählt. Dieses Hauptbild wird dann mit dem Roll-Effekt so verschoben, daß es den linken und rechten Rand schneidet. Damit braucht dieser Rand nicht mehr retuschiert werden. Folglich ist die Gefahr die Nahtstelle zu verletzen ausgeschalten. Die zwei anderen Blickwinkel werden dann entsprechend horizontal verschoben, und als Secondary Layer an das Hauptbild geknüpft. Nun benutzt man die Rubthrough Funktion im Hauptbild, um diese verlinkten Bilder freizurubbeln, und das Panorama damit zu ergänzen. Bild 68 zeigt diese Methode im Verlauf, in Kapitel 5.3.6. sind diese Schritte ausführlicher beschrieben. Bild 68: 3 entzerrte Fisheye-HDRIs werden in Photogenics zu einem Panorama vereint. 70 Abschließend kann noch eine Retusche des oberen und unteren Randes mit dem Clone Stamp Tool durchgeführt werden. Diese Ränder stellen die Pole der Kugelabwicklung dar, und konvergieren eigentlich zu einem Punkt. (vergleiche Kapitel 3.4.) Für wirklich saubere Ergebnis sollten diese Stellen deshalb erst nach einer Umwandlung in das Cubic Format retuschiert werden. Das fertige Panorama sieht dann aus wie in Bild 69: Bild 69: Fertiges HDRI Panorama 5.4.6. Bessere Qualität durch PTPicker Die oben beschriebene Entzerrung mit HDRShop basiert sowohl zu einem gewissen Gard auf Augenmaß, als auch auf der Annahme, daß die Bilder alle mit exakt horizontaler Kamerausrichtung aufgenommen wurden. Das Ergebnis ist zwar verwendbar, doch bei genauerer Untersuchung nicht wirklich korrekt. Insbesondere vertikale Linien, wie Häuserecken, Fenster und Türen, sind im fertigen Panorama leicht schief oder gebogen. Um ein wirklich exaktes Ergebnis zu erreichen, kann man PTPicker von DERSCH [45] benutzen. PTPicker ist eine Java-basierte Applikation, die als Teil des Paketes PanoTools für alle Plattformen erhältlich ist. Dieses Paket ist auch als Plugin für Photoshop ein sehr beliebtes und vielseitiges Werkzeug für Panoramafotografen [38]. Prinzipiell ist es in der Lage, aus 3 Fisheye-Bildern vollautomatisch ein komplettes Panorama zusammenzusetzen. Leider unterstützt es jedoch keine HDR-Formate, sondern nur JPEG, PNG, TIFF und BMP. Die Innovation besteht nun darin, 3 Blickwinkel als Low-Dynamic-Range Originalfotos in PTPicker auszumessen, und die ermittelten Daten bei der Entzerrung der HDR Images in HDRShop zu berücksichtigen. 71 Panotools inklusive PTPicker kann man kostenlos downloaden unter http://home.no.net/dmaurer/~dersch/index_deutsch.html. Die Installationsanweisungen sind je nach Betriebssystem unterschiedlich umfangreich, und erfordern unter anderem eine Java-Console der Version 1.3. Nach einem Tipp von Bauer [46] ist es für Windows-User empfehlenswert, PTPicker über ein Batch-File zu starten. Damit kann man dem Programm mehr als 1 Megabyte Speicher durch die JAVAConsole zur Verfügung stellen, was eine einfachere Alternative zum Ändern der JAVA-Settings in der Windows-Registrierung ist. Diese Batch-Datei ist ein einfaches Textfile mit der Endung „.bat“ und dem Inhalt: java -Xmx192m -jar ptpicker.jar . In diesem Fall werden PTPicker 192 Megabyte zugestanden, lauffähig ist es ab 32 Mb [45]. Das eigentliche Angleichen der Bilder funktioniert dann wie von BAUER [46] beschrieben: Zuerst erstellt man in PTPicker mit „FileNew“ ein neues Panorama-Projekt. In dem Dialogfeld gibt man dann die Brennweite des Objektivs sowie die Anzahl der verschiedenen Blickwinkel an. In diesem Fall handelt es sich um ein Nikon Objektiv mit 7.7 Millimeter Brennweite, und Aufnahmen aus 3 Blickwinkeln. Bild 70: Neues PTPicker Projekt Mit den Menüpunkten „Left Image“ und „Right Image“ werden jetzt die Bilder in die Arbeitsfläche laden. Dabei wird immer paarweise vorgegangen. Beispielsweise wird Bild 1 links, und Bild 2 rechts eingeladen. Nun werden Kontrollpunkte an solchen Stellen gesetzt, die in beiden Bildern zu sehen sind (siehe Bild 71A). Vertikale Linien eignen sich besonders gut, um den Algorithmen die Bildgeometrie zu beschreiben. Etwa 3 bis 4 solcher Kontrollpunkte reichen aus. Durch einfachen Klick auf eine Kante wird ein Punkt gesetzt, der erscheinende Partner im anderen Bild wird dann an die korrespondierende Bildstelle gezogen. Das Plazieren wird unterstützt von einer kleinen Bildschirmlupe, die sich automatisch unter dem Mauszeiger mitbewegt. 72 Bild 71A: Korrespondierende Punkte in Bild 1 und 2 markieren. Die Punkte sind dabei farbcodiert. Rot ist das aktive Punktepaar. Grün zeigt an daß diese Punkte in den angezeigten Bildern zusammengehören. Blau markierte Punkte haben ihr Gegenstück in dem nicht angezeigten Bild. Sind Bild 1 und 2 so miteinander verknüpft, wird das Bild 3 in das rechte Anzeigefeld geladen. Nun werden auch hier korrespondierende Bildteile markiert (Siehe Bild 71B) Bild 71B: Kontrollpunkte in Bild 2 und 3 setzen Bild 71C: Kontrollpunkte in Bild 1 und 3 setzen Abschließend wird diese Prozedur noch mit Bild 2 und 3 wiederholt (siehe Bild 71C). Damit ist die Verknüpfungskette komplett. Die Reihenfolge der Bearbeitung und die Plazierung im linken oder rechten Anzeigefeld ist völlig egal. Hauptsache ist, wir haben die Kombinationen 1:2, 1:3 und 2:3 alle ausgeschöpft. Nun wird der Optimizer mit dem Menüpunkt „Project-Optimize“ gestartet. Dieser erzeugt eine Textdatei, die alle Resultate der fotometrischen Vermessung enthält. Eigentlich ist sie dazu gedacht, dem nächsten PanoTools Modul (PanoStitcher), die ermittelten Parameter zu übergeben. 73 Mit dem Menüpunkt „ProjectàView Script“ lassen wir uns diesen Text anzeigen. Und nun kann HDRShop gestartet werden. Dort werden die vorgenerierten HDRI-Versionen der Blickwinkel geladen und man öffnet die Funktion „Panoramic Transformation“ wie in Abschnitt 5.4.3 beschrieben. Anstatt nun jedoch pauschal von ‚Mirror Ball CloseUp’ in ‚Latitude/Longitude’ umzuwandeln, wird zusätzlich noch auf „Arbitrary Rotation“ geklickt. Bild 72: Übertragen der ermittelten Kamerarotation von PTPicker Script zu HDRShop. Tabelle 6: Zuordnung der Rotationsachsen In diesem Feld werden jetzt die ermittelten Kameradaten eingegeben (siehe Bild 44). Dabei entspricht der X-Wert dem Pitch-Winkel mit invertiertem Vorzeichen, Y ist der YawWinkel, und Z ist der invertierte Roll-Winkel. In Tabelle 4 ist diese Koordinatenzuordnung noch einmal zusammengestellt. HDRShop PTPicker X - Pitch Y Yaw Z - Roll Allein durch die Angabe dieser 3 Werte kann die Qualität der Abwicklung beträchtlich erhöht werden. Klare geometrische Linien sind auch als solche im Panorama zu erkennen. Vertikale Linien bleiben vertikal (siehe Bild 48c+d). Durch die Angabe des korrekten Yaw-Winkels (Y) ist das Bild sogar schon an die korrekte horizontale Stelle verschoben, so daß bei dem Zusammenfügen der Roll-Effekt überflüssig wird (siehe Bild 73). Dagegen ist die von Pitch (X) und Roll (Z) verursachte Verzerrung einzigartig, und mit normalen Werkzeugen kaum nachzustellen. 74 Bild 73: Qualitätsvergleich Diese vorbereitende Ausmessung zeigt, daß auch HDR Images so präzise entzerrt werden können wie LDR Images. Allerdings ist diese Präzision in vielen Fällen gar nicht notwendig. Wie das Kapitel 6 zeigen wird, reicht für die Beleuchtung von 3D Objekten das schnell und einfach generierte HDR Environment aus Kapitel 5.4.4. aus. 5.5. Sonderfall Skydome 5.5.1. Vorüberlegungen Da der überwiegende Teil der natürlichen Außenbeleuchtung sowieso von oben kommt, benötigt man in vielen Fällen gar kein voll immersives Panorama. So ist beispielsweise in der Architekturvisualierung die Verwendung eines Skydomes üblich, also einer halben Himmelskugel die alles vom Horizont aufwärts zeigt. Das virtuelle Modell steht dann auf einer Bodenplatte, die den unteren Bildraum bis zum Horizont ausfüllt. 75 Skydomes eignen sich nur bedingt für die Ausleuchtung kleinerer Objekte, wie z.B. in der Produktvisualisierung oder im Industriedesign. Auch Filmsets beinhalten oftmals Komponenten, die von unterhalb der Horizontlinie beleuchten, und deshalb in einem Skydome vernachlässigt werden. Darüberhinaus ist ein Skydome auch nur bei der Beleuchtung matter Objekte akkurat. Bei einem reflektierenden Material kann sich der Wegfall der unteren Halbkugel störend auswirken. Ob der Einsatz eines Skydomes Sinn macht, ist demnach eine sehr projektspezifische Entscheidung. Als Gegengewicht für die beschränkten Anwendungsmöglichkeiten ist die einfache und unkomplizierte Erzeugung eines Skydomes ins Feld zu führen. Vorgestellt wird eine Weiterentwicklung der von Bauer [47] beschriebenen Technik. 5.5.2. Das Fotografieren Man benötigt eine Digitalkamera und ein 180° Fisheye. Ein Stativ ist nicht zwingend notwendig, man kommt also mit minimalem Equipment aus. Die Kamera wird einfach auf die Erde gelegt, und mit dem Objektiv direkt nach oben gerichtet. Eine einzige Belichtungsserie genügt, denn durch den extremen Öffnungswinkel des Fisheyes ist die gesamte Umgebung oberhalb des Horizonts im Bild. 5.5.3. Umwandlung in HDR Wie in Kapitel 4 ausführlich beschrieben, ist dieser Schritt in PhotoSphere sehr einfach. Sollte PhotoSphere den Dienst versagen, ist HDRShop oder Photogenics zu verwenden. 5.5.4. Entzerrung in HDRShop Wie bei der normalen Fisheye Entzerrung wird das Bild auf den 180° Sichtwinkel beschnitten. Damit kann es wieder als ‚Mirror Ball Close Up’ behandelt werden (siehe 5.4.4.). In diesem Fall wird bei der Panoramatransformation wieder ein ‚Arbitrary Angle’ angegeben, und zwar –90° für X (siehe Bild 74). 76 Bild 74: Umwandlung von Fisheye HDRI in Skydome Damit ist der Skydome schon fertig (siehe Bild 75). Es ist kein weiteres Zusammenfügen notwendig, denn als Ausgangsmaterial gab es ja nur diese eine Belichtungsserie. Bild75: Fertiger HDRI Skydome 77 5.6. Vergleich Die entscheidenden Merkmale der verschiedenen Methoden zur Generierung von HDR Environments sind noch einmal in Tabelle 7 zusammengefaßt. Tabelle 7: Vergleichsübersicht HDRI Environment Generation One Shot Segment Equipment - SpheroCamHDR - Laptop (nicht im Lieferumfang) - 1 Stativ - Panoramakopf - Spiegelkugel - 2 Stative Kosten, rund € 50.000,- € 100,- bis € 300,- keine (2) keine Anzahl der notwendigen Belichtungsserien Geometrische Verzerrung im fertigen HDREnvironment Maximale nichtinterpolierte Auflösung / Pixel 5300 * 13000 Aufwand am Set Mittel, 5 min. Aufwand für die Nachbearbeitung keiner (2) Spiegel Fisheye Skydome - Fisheye € 100,- bis € 200,- - Fisheye - 1 Stativ - Panoramakopf € 300,- bis € 600,- € 200,- bis € 500,- 50 bis 70 2 bis 3 2 bis 3 1 keine Mittel bis Groß, Bedingt durch Kugeloberfläche Gering bis Mittel, minimierbar in Nachbearbeitung keine Rund 2200 * 1100 (1) Rund 2400 * 1200 (1) Rund 1600 * 800 Groß, ca. 15 min. Mittel, ca. 30 min. Mittel, ca. 5 min. Mittel, ca. 30-45 min. (3) Gering, ca. 2 min. Gering, ca. 5 min. Abhängig von Segmentanzahl, theoretisch unbegrenzt Sehr groß, ca. 60 min. Sehr groß, bis zu 5 h Anmerkungen: (2) Abhängig von Kameraauflösung; Beispiel für 1600 X 1200 Pixel (3) Direkte Ausgabe des HDR-Environments. (4) Abhängig von gewünschter Qualität Fazit: Ein Skydome ist mit dem geringsten Aufwand erstellt und deshalb unbedingt zu empfehlen, wenn die Projektanforderungen den eingeschränkten Nutzungsrahmen nicht überschreiten. Die Fisheye Methode ist einfacher, genauer, schneller als die Spiegelmethode und ist daher für den professionellen Produktionsalltag am besten geeignet. Die Spiegelmethode ist besonders attraktiv für Einsteiger und Gelegenheitsanwender, weil sie mit den geringsten Kosten und vertretbarem Aufwand und Qualität verbunden ist. Der enorme Aufwand für die Segmenttechnik ist nur in Ausnahmefällen gerechtfertigt, wenn allerhöchste Auflösungen zwingend notwendig sind. Auch die Anschaffung einer SpheroCam lohnt sich nur, wenn diese hohen Auflösungen gerechtfertigt sind und die einfachste Art der Handhabung entscheidend ist. 12-5 78 2-5 2 2 5.7. RWelche ist notwendig? = r 2 + rAuflösung R 2 = 2r 2 2 2 2 R = r + r R = 2r Wie sich im nächsten Kapitel herausstellen wird, ist die Auflösung von Spiegel2 2 2 R = r R und Fisheye-Methode ausreichend für viele Anwendungen in 3D Programmen. 6 r= R = 2r Sie reicht jedoch nicht, wenn man das Panorama als lückenlose UmgebungstexR tur im Hintergrund einer 3D-Szene verwenden will. Um die benötigte Panoramr= auflösung zu 2 errechnen kann folgende Formel genutzt werden: 67 7 YPano 180° = × YRe nder VFOV YPano = (6) 180° × YRe nder VFOV VFOV (Vertical Field Of View) ist dabei der vertikale Öffnungswinkel der virtuellen Kamera in der geplanten 3D-Szene. Will man beispielsweise mit einem VFOV von 34,7° (entspricht dem geläufigen Zoom Faktor 3.2) in D1-PALAuflösung rendern, 180° ergibt das: YPano = YPano = 34,7° × 576pixel = 2987,035pixel ≈ 3000 pixel 180° × 576pixel = 2987,035pixel ≈ 3000 pixel 34,7° (7) 3000 Pixel hoch und dementsprechend 6000 Pixel breit muß also ein Panoramabild sein, um ein scharfes Hintergrundbild abzugeben. 3000 Pixel sind auch gleichzeitig die benötigte Bildhöhe, wenn man so ein Panorama mit der Fisheye-Methode aufnehmen will. Mit einer 12 MegaPixel-Kamera kann man das durchaus schaffen, ansonsten bleibt nur der Weg über analoge Fotografie, die Segmenttechnik, oder die SpheroCamHDR. 79 6. Anwendung im CGI Bereich 6.1. CGI – Computer Generated Images In den 80er Jahren sprach WINKLER [48] erstmals von einem „computergenerierten 3-D-Fotorealismus“. Damit bezeichnet man seither die glaubhafte Abbildung virtueller, also materiell nicht existenter Objekte. Im eigentlichen Sinne kann das allerdings nur ein „Fotoillusionismus“ sein, da den Bildern nur mathematischgeometrische Beschreibungen zugrunde liegen. Hierin liegt der Schlüssel zum Verständnis von CGI. Am Anfang stehen immer nur dreidimensionale Datenmodelle, die am Computer entworfen oder eingescannt wurden. Eine fotorealistische Abbildung dieser Objekte soll dann den Anschein erwecken, sie wären real fotografiert. Seit den 80er Jahren, als dieses Konzept noch als visionär angesehen wurde, hat sich viel entwickelt. Nicht nur die Techniken der fotorealistischen Darstellung sind heute ausgefeilter, auch die Bedeutung und die Anforderungen haben sich verändert. Die freie Umsetzbarkeit von narrativen Ideen setzt ein ähnliches künstlerisches Potential frei wie es nur von Malerei und Literatur bekannt war. CGI befreien den Film vom Paradigma des Materiellen und erweitern den Darstellungsraum auf das Imaginäre – das Vorstellbare. Damit ziehen längst vergessene Fabelwesen, mystische Begebenheiten und zauberhafte Fiktionen wieder in die darstellenden Künste ein. Mit CGI werden tagtäglich reale Filmsets erweitert, Phantasielandschaften erschaffen, und gefährliche Stunts von virtuellen Doubles ausgeführt. „Das Medium, seiner Maske beraubt, bezieht jetzt offen seine Position als Transportmittel für Illusionen und agiert als kontemporäre Manifestation einer Sehnsucht, die im vorigen Jahrhundert romantische Motive des Doppelgängers, des ewig Reisenden und der Maschinenpuppe hervorbrachte. Diesen literarischen Phantasien ist in dieser abbildungsintensiven Epoche ein adäquates Mittel zur Visualisierung gegeben.“ führt 1993 SCHMIDT [49] aus. Drehbuchschreiber und Regisseure wissen heute um die Möglichkeiten, und genießen diese neue Freiheit. Dabei verlassen sie sich inzwischen darauf, daß sich CGI Elemente nahtlos in real gedrehte Aufnahmen einfügen. Selbst in wöchentlich produzierten Fernsehserien werden da keine Abstriche gemacht. Beste Qualität muß daher in möglichst kurzer Zeit produziert werden. Das betrifft einerseits die Berechnung der Bilder, also Maschinenzeit. Andererseits 80 muß auch die eigentliche Erstellung der Szenen durch den CG-Artist in eng kalkulierten Zeitrahmen möglich sein. Maschinenzeit ist dabei deutlich billiger und leichter erweiterbar als die Zeit des CG-Artist. Diese beiden Faktoren müssen durch moderne Rendermethoden in eine sorgfältig ausgewogene Balance gebracht werden. Dabei existiert ein prinzipieller Unterschied zwischen photorealistischen und physikalisch basierten Rendering Methoden. 6.1.1. Klassisches Fotorealistisches Rendering Bei fotorealistischem Rendern ist es völlig egal, wie das Bild zustande kommt. Hauptsache ist, das Ergebnis sieht gut aus [13]. Typische Berechnungsmethoden aus dieser Kategorie sind Scanline-Rendering ( in Maya und 3dMAX), Raytracing (in Softimage und Lightwave). Sie alle basieren auf vereinfachten Shading-Modellen wie Phong und Blinn [2]. Grundsätzlich funktionieren sie alle nach demselben Schema: Lichtquellen werden von der Geometrie separat definiert, und besitzen zum Teil physikalisch unmögliche Eigenschaften. So sind Punktlichter beispielsweise eindimensional, also abstrahiert auf einen unendlich kleinen Punkt ohne räumliche Ausdehnung. Auch die Lichtausbreitung ist oft mit einem linearen Intensitätsabfall charakterisiert, im Gegensatz zum physikalisch korrekten quadratischen Abfall (1/r2 : Inverse Square Law). Eine andere beliebte Lichtquellendefinition ist das parallele Licht, was aus unendlicher Entfernung mit konstanter Helligkeit in die Szene strahlt. Oder ein ambientes Licht das von nirgendwo kommt, und alle Oberflächen gleichermaßen aufhellt. Damit soll diffuse Lichtverteilung innerhalb der Szene nachgestellt werden. Alle diese Abstraktionen dienen dazu, die Berechnungen zu vereinfachen und die benötigte Maschinenzeit zu verkürzen. Im Gegenzug muß eine gewaltige Menge an Zeit und Geschick von dem CGArtist investiert werden, um eine Szene fotorealistisch auszuleuchten. Beleuchtungseffekte wie weiche Schatten, dunkle verwinkelte Ecken, zurückgeworfenes Licht von hellen Flächen, all die subtilen Nuancen die eine reale Beleuchtung ausmachen müssen mit diesen abstrahierten Lichtern nachgestellt werden. 81 Alle 3D-Pakete, die in der Postproduktion verwendet werden, basieren ursprünglich auf diesem Prinzip. Die grafischen Benutzeroberflächen sind stets um die entsprechende Renderengine (den Berechnungsalgorithmus) herumgebaut. Sie alle bieten dem Artist Unmengen von Knöpfen, Einstellungen und algorithmischen Kniffen an, um die richtigen Einstellungen für diese abstrahierten Renderengines zu treffen. Damit ist fotorealistisches Rendering in jedem dieser Programme möglich, vorausgesetzt man kennt seine Renderengine, und weiß genau wie man ihre abstraktionsbedingten Schwächen umgeht. 6.1.2. Physikalisch Basiertes Rendering Auf der anderen Seite gibt es die Möglichkeit, die Lichtverteilung in einem Raum nach allen physikalischen Gesetzmäßigkeiten zu simulieren. Beim Photon-Tracing [50],wird beispielsweise der Weg einzelner Photonen verfolgt, wie sie zwischen den Objekten immer wieder hin- und hergeworfen werden. Bei jeder Kollision wird ein Teil ihrer Energie abgezogen und der Helligkeit des Kollisionsobjektes hinzugefügt. Das geschieht entweder bis sie ihre Energie verbraucht haben, oder die Berechnung wird nach einer vordefinierten Anzahl von Kollisionen abgebrochen. Andere Verfahren funktionieren ähnlich, und sind unter den Oberbegriffen Radiosity oder Global Illumination [51] zusammengefaßt. Der bekannteste dieser Vertreter ist die Monte Carlo Methode [52]. Hier werden in einer Vorberechnung erstmal alle Flächen in kleine Stücke zerlegt, deren Größe je nach Oberflächenbiegung und Verwinkelung variiert. Dann wird für jedes dieser Stückchen die empfangene, absorbierte und weitergestrahlte Lichtmenge ermittelt. Dieser Schritt wird wiederholt, wobei die weitergestrahlte Lichtmenge des vorigen Durchgangs mit berücksichtigt wird. Durch mehrere rekursive Durchgänge dieser Art nähert sich diese Berechnung einer Lösung. Ein wichtiges Grundprinzip ist allen diesen Simulationen gemein: Die strikte Trennung in Objekte und Lichtquellen ist aufgehoben. Wird ein Objekt hell genug angestrahlt, wirkt es auf den Rest der Szene selbst wie eine Lichtquelle. Ein roter Teppichboden strahlt beispielsweise rotes Licht in den Raum zurück und färbt damit andere Objekte ein. Solche Simulationen waren vor 10 Jahren noch Spezialprogrammen für Spektralanalyse, Lichtdesign und Architekturplanung [13] vorenthalten. Für die Postproduktion waren diese Berechnungen viel zu aufwendig, und die entsprechende 82 Software viel zu spezialisiert. Programme wie Lightscape und Radiance waren zwar schon in der Lage, auf diese Weise Bilder zu berechnen, brauchten jedoch Stunden bis Tage dafür und waren nur über Kommandozeilen und Scriptsprachen zu bedienen. Mittlerweile jedoch bieten auch die klassischen 3D-Programme für die Postproduktion einen solchen Simulationsmodus. Um die komplexen Berechnungen auch für eine Produktion nutzbar zu machen, wurden die verschiedensten Vereinfachungsmechanismen eingebaut. In manchen Fällen ist die Simulation auf die darunterliegende, klassische Renderengine aufgesetzt – etwa bei Lightwave oder Cinema 4D. Damit erscheint diese Funktionalität vollintegriert zu sein, und ist über dieselben Parameter zu steuern wie die klassische Engine. Bei den von Haus aus modular aufgebauten Programmen 3d Studio MAX, Maya, und Softimage dagegen kann die komplette Renderengine ausgetauscht werden. Dabei bekommt der Benutzer dann völlig neue Einstellungen angeboten, die Bedienfelder für die klassische Engine verschwinden. So kommt es beispielsweise, daß die Mental Ray Renderengine unter 3dMAX, Softimage, und Maya gleichermaßen betrieben werden kann. 6.1.3. Über den Umgang mit der Simulation Vielen Benutzern ist dieser neue Simulationsmodus als neues, zusätzliches Feature vorgekommen. Durch die Gründlichkeit der Implementierung wird dabei jedoch oftmals die völlig neue Herangehensweise an die Bildberechnung übersehen. Dies erfordert auch ein Umdenken für den Anwender. Viele Parameter, von denen man gewohnt ist, sie zur Beschreibung der Szene zu benötigen, sind nun vollkommen überflüssig. So ist beispielsweise die Vergabe eines Specular Wertes die gängige Methode, um glänzende Materialeigenschaften zu definieren. In einer Radiosity-Simulation hat dieser Wert jedoch keine Bedeutung mehr. Ursprünglich diente er dazu Glanzpunkte definiert einzustellen. Ein Glanzpunkt wird verursacht durch die Reflexion einer Lichtquelle. Das geschieht unter der Annahme diese Lichtquelle ist der hellste Punkte im Raum. Klassisches Raytracing kann jedoch keine Strahlen zu einem 1-dimensionalen Punkt verfolgen, kann also die Reflexion der Punktlichtquelle auch nicht als solche berechnen. Deshalb muß der Specular-Wert diese Reflexion simulieren. 83 In einer Radiosity-Simulation dagegen sind Helligkeiten im ganzen Raum verteilt, Lichtquellen und Körper sind nicht mehr getrennte Entitäten. Um also glänzende Materialeigenschaften darzustellen, ist hier der Reflexionswert viel besser geeignet, denn Reflexion ist ja das eigentliche physikalische Phänomen, das den optischen Eindruck „Glanz“ bestimmt. 6.1.4. Image Based Lighting In einer Radiosity Simulation werden also klassische Lichtquellen durch das physikalisch korrektere Modell der leuchtenden Körper ersetzt. Das bedeutet unter anderem auch, daß auch Bildern direkte Leuchtkraft zugesprochen wird. Mehr noch – durch Texturen lassen sich regelrechte Leuchtstrukturen auf Oberflächen formen, wobei Intensität und Farbe in denselben Maßstäben wie in der echten Welt definiert werden können. Hier kommen HDR Bilder ins Spiel. Nur HDRIs sind in der Lage die Intensitätsverhältnisse der echten Welt zu transportieren. Wickelt man sozusagen die Szene in ein HDRI Environment ein, kann man tatsächlich virtuelle Objekte mit echtem Licht beleuchten [23]. Bisher war es mit erheblichem Zeitaufwand und künstlerischem Geschick verbunden, die Lichtsituation realer Aufnahmen nachzustellen. Mit der Aufnahme eines HDR-Environments ist dies ein rein fotografischer Prozeß, und damit schnell, unkompliziert und von jedermann nachvollziehbar [2]. In den folgenden Fallbeispielen soll sich diese Technik im Praxistest beweisen. Auch hier werden wieder verschiedene Methoden beschrieben, diskutiert und mit Anwendungsfällen verknüpft. Die Beispiele greifen dabei die häufigste Anwendung von 3D in der Postproduktion auf: die Ergänzung real aufge nommener Hintergründe mit virtuellen Objekten. 84 6.2. Fallstudie A: Reine Simulation, In-Camera Die erste Studie soll untersuchen, ob dieses 1998 von DEBEVEC [23] erstmals in Radiance demonstrierte Grundprinzip inzwischen produktionstauglich ist, also in handelsüblichen 3D Programmen reibungslos funktioniert. Dazu wurde eine Referenz-Szene in Lightwave3D aufgebaut, die dann in verschiedene Software Pakete konvertiert wurde. Es wurden keine Lichtquellen verwendet, die Beleuchtung sollte ausschließlich aus dem HDRI Environment kommen. Bild 76 zeigt das Referenzbild, die virtuellen Objekte wurden zur Verdeutlichung in Bild 77 markiert. Bild 76: Referenzbild Bild 77: virtuelle Objekte 85 6.2.1. Aufbau und Vorbereitung Als Hintergrund dient das Bild 78, aufgenommen im Apartment des Autors. Danach wurde in der Mitte des Tisches eine Spiegelkugel plaziert, und mittels der Spiegelmethode ein HDR Environment hergestellt. Dieser Schritt ist in Kapitel Bild 78: Hintergrund 5.3.1. ausführlich beschrieben. Bild 79: passendes HDR-Environment Nun wurde eine Szenenergänzung aus einfacher Geometrie im Lightwave Modeler erstellt. Der Koordinatenursprung wurde so gewählt, daß dieser mit der Plazierung der echten Spiegelkugel übereinstimmt. Dies soll als Fixpunkt gelten, denn in diesem Punkt stimmt die virtuelle Beleuchtung auch tatsächlich mit der realen Beleuchtung überein. Bild 80 zeigt diesen Aufbau von der Seite: Bild 80: Drahtgitter Perspektive 86 Die virtuelle 3D-Kamera wird dabei so eingerichtet, daß sie mit der realen Kamera korrespondiert. Im Handbuch der realen Kamera findet man die Baugröße der CCD. Diese Angabe ist wichtig, denn sie legt das Abbildungsverhältnis (Aperture Height) der Linse fest. Hat man die richtige Kameraart angegeben, verwendet Lightwave auch dieselben Brennweiten. Dann kann die Brennweite aus den EXIFDaten des Hintergrundbildes ausgelesen und übertragen (siehe Bild 81) werden. Bild 81: Übertragen der Kameradaten Damit ist automatisch auch der Sichtwinkel des Objektivs (Field Of View) angeglichen, die virtuelle Linse weist also dieselbe perspektivische Verzerrung auf wie die reale. Nun wird die Kamera solange verschoben und rotiert, bis die virtuelle Tischplatte mit der realen deckungsgleich ist. Das eingeblendete Raster bietet dazu die passende Referenz, um den richtigen Blickwinkel zu finden (siehe Bild 82). Bild 82: Kameraansicht Eine weitere Zielstellung war, das Bild in einem Durchgang zu rendern. Daher ist die richtige Texturierung der Tischplatte wichtig. Der Trick besteht darin, das Hintergrundbild direkt aus der Kameraperspektive auf den Tisch zu projizieren. Damit ergibt sich im Idealfall ein nahtloser Übergang, denn das eigentliche Hintergrundbild paßt sich ja genau in die Kamerasicht ein – wird sozusagen auch aus der Kamerasicht projiziert. Die 3D-Objekte für diesen Test wurden mit Sorgfalt zusammengestellt (vergleiche Bild 83). Zuerst einmal ist rechts die große Spiegelkugel zu sehen. Sie ermöglicht eine erste Kontrolle des HDR Environments, hinsichtlich Ausrichtung, Helligkeit und korrekter Projektionsart. Die beiden Kugeln links sind Materialtests für einen glatten und einen stumpfen glänzenden Körper. An den Gläsern soll untersucht werden, ob die Simulation auch mit Transparenzen und Brechung 87 zurechtkommt. Da dies in allen Renderengines durch klassisches Raytracing berechnet wird, steht hier das nahtlose Zusammenspiel von klassischer Renderengine und Radiosity auf dem Prüfstand. Die schwierigste Herausforderung aber stellte die Tasse dar, da eine echte Tasse als Referenzobjekt direkt daneben steht. Jede noch so kleine Abweichung in Form, Farbe, Glanz und Schattenwurf ist erkennbar. Selbst wenn die virtuelle Tasse für sich allein betrachtet schon fotorealistisch wirkt, so muß hier einer direkten Konfrontation mit der realen Tasse standhalten. Bild 83: Nahaufnahme 6.2.2. HDRI Challenge Um die beschriebene Szene in den verschiedenen 3D-Programmen zu testen, wurde ein Internet Projekt ins Leben gerufen: die HDRI Challenge. Christian Bauer stellte dafür seine Wissensplattform www.CGtechniques.com zur Verfügung. Mit seiner freundlichen Unterstützung wurde ein eigenes Diskussionsforum unter dem Titel „HDRI Challenge“ eingerichtet, erreichbar unter http://hdri.cgtechniques.com/~blochi/. Die Szene wurde in die geläufigsten Formate (DXF, 3DS, XSI, VRML, LWO+LWS) konvertiert und zum Download angeboten. Auch Hintergrundbild und HDR Environment wurden in verschiedenen Auflösungen als Radiance .HDR Dateien online bereitgestellt. 88 Gestartet wurde die Aktion am 16. Juni 2003, und wurde durch Ankündigung in einschlägigen Fachforen publik gemacht. Schon innerhalb des ersten Monats wurde die Szene über 1000 mal heruntergeladen, und das Diskussionsforum konnte 190 registrierte Mitglieder aufweisen. Sehr zielorientierte Fachdiskussionen über HDRI Beleuchtung werden seitdem dort geführt, erstmalig auch unter Benutzern verschiedener 3d-Software. Die ersten vergleichbaren Ergebnisse sind in Bild 84 zusammengetragen. Bild 84: Ausgewählte Beiträge aus der HDRI Challenge nach einem Monat Laufzeit 89 Diese Bilder zeigen, daß die HDRI Technologie in allen marktführenden 3D-Programmen (3dMAX, SoftimageXSI, Lightwave, Maya und Cinema4D) funktioniert. Ein direkter Vergleich der Renderzeiten hat sich als unpraktikabel erwiesen, da die Bilder auf verschiedener Hardware, in verschiedener Auflösung, und in unterschiedlichen Qualitätsstufen gerendert wurden. Noch zu untersuchen ist die Unterstützung in • Finalrender (3dMAX Renderer) • Renderman 11 • POV Ray 3.5 • Virtualight Die HDRI Challenge hat kein vorbestimmtes Ablaufdatum, die Downloads und die Beteiligung an der Diskussion steht auch in Zukunft jedem frei. Es ist die Hoffnung der Initiatoren, daß sich daraus eine umfassende Bibliothek mit frei zugänglichen Arbeitsmethoden und Anwender-Tipps entwickelt. 6.2.3. Das Tischproblem Im Verlauf des Tests tauchte mit dem Tisch in allen Programmen ein Problem auf. Die Projektion auf dem Tisch war stets deutlich heller als der Hintergrund, und eine sichtbare Kante markierte den Übergang. Was sich hier als konkreter Problemfall darstellt, steht beispielhaft für sämtliche Geometrie, die mit Originalfotos texturiert wird und Schatten empfangen soll. Der Grund ist, daß der Tisch als 3d-Objekt die Beleuchtung von dem HDRI Environment erfährt, zusätzlich die Beleuchtung aber schon in der projizierten Textur enthalten ist. Damit wird der gerenderte Tisch effektiv doppelt beleuchtet. Es gilt also nun, einen dieser Beleuchtungseinflüsse zu eliminieren. Die erste Lösung wäre, ein Material zu entwerfen, das nur Schatten empfängt, nicht aber zusätzlich von dem HDRI Environment aufgehellt wird. Damit eliminiert man die Aufhellung durch die Szenenbeleuchtung. Zwar kann beispielsweise in 3dMAX oder Lightwave ein Objekt explizit als „Shadowcatcher only“ definiert werden, doch diese Option bezieht sich nur auf traditionell berechnete Schatten. Eine zweite Lösungsmöglichkeit entspricht der im Original von Debevec [23] ausgearbeiteten Methode. Diese sieht die Aufteilung der Szene in 2 Teillösungen vor. Erst wird der Tisch allein, dann ein zweites Mal mit den schattenwerfenden Objekten berechnet. Zieht man nun das erste von dem zweiten Bild ab, bleibt nur 90 der reine Schatten übrig. Dann legt man in einem Compositing-Vorgang diesen Schatten auf das Hintergrundbild, und darüber wiederum die VordergrundObjekte (per Alpha-Kanal ausmaskiert). Der Nachteil ist, daß man zwei Rendervorgänge hat. Handelt es sich um eine bewegte Kamera, so muß die gesamte Sequenz doppelt in voller Qualität berechnet werden. Das ist ein hoher Preis für die Lösung dieses Einzelproblems, und kann zu einem Flaschenhals in der Produktion werden. Die weitere Lösung könnte sein, die in der Textur enthaltene Beleuchtung zu eliminieren. Es gilt in zukünftigen Arbeiten zu prüfen, ob auf der Grundlage von DEBEVECS [23] Methode durch eine einmalige Vorberechnung eine Differenztextur für den Tisch erzeugt werden kann. Damit könnte die Notwendigkeit für einen zweiten Rendervorgang wegfallen. 6.3. Fallstudie B: Extrahieren der Lichtinformation So physikalisch korrekt die direkte Lichtsimulation mit einem HDRI auch ist, sie hat auch einige gravierende Nachteile: • Die Beleuchtung steht fest, die künstlerischen Eingriffsmöglichkeiten sind auf globale Veränderungen begrenzt. • Die Rechenzeit ist bedeutend höher als mit klassischem Raytracing. • Das Tischproblem ist nur sehr umständlich zu lösen. Um diese Probleme zu umgehen, hat Cohen [3][53] das Programm LightGen entwikkelt. Es bindet sich als Plugin in HDR-Shop ein und ermöglicht das Extrahieren von Lichtquellen aus einem HDRI (siehe Bild 85). Bild 85: LightGen Als Grundlage dient ein HDR Environment im Spherical Format, vorzugsweise kleinskaliert auf 128*64 Pixel. Lightgen untersucht darin die Intensität und Farbe der Pixelwerte, und ermittelt aus den Pixelkoordinaten den Lichtwinkel. und erstellt daraus eine vordefinierte Anzahl von Lichtquellen. Die können dann exportiert werden als Lichtsetup für 91 Arnold, Houdini, Radiance, und Maya (über MEL-Script). Alternativ kann man die Ausgabe auch in eine Textdatei umleiten lassen. Für fast alle 3d-Programme gibt es kostenlose Scripte, die diese Textdatei interpretieren können. So baut beispielsweise das LScript „Lightgen2LW“ von CACHELIN [53] aus dieser Textdatei die Szene in Bild 86 auf. Bild 86: Von LightGen generierte und Lightgen2LW importierte Lichter. Bild 86 zeigt auch sehr deutlich, wie sich in der Mitte durch die Überschneidung der Lichtkegel eine Art Lichtfeld herausbildet. Das Ergebnis ist natürlich stark abhängig von der Anzahl der Lichtquellen. Man spricht in diesem Zusammenhang auch von der Sampling-Frequenz des Environments. Bild 87 zeigt, daß bei 100 Lichtern die Einzelschatten der Lichter besser miteinander verschmelzen, als bei 20 Lichtern. Je mehr Lichter man erzeugt, umso näher kommt man an die diffuse Beleuchtung des Originals Bild 87: Vergleich 20 / 100 Lichter heran. Das „Tischproblem“ tritt mit dieser Methode zwar auch auf, läßt sich aber ohne ein zweites Rendering beheben. Weil es sich hier um klassisch berechnete Schatten handelt, bietet jede geläufige Software zahlreiche Mechanismen zur isolierten Schattenbearbeitung an. So kann man beispielsweise beim Rendern einen extra Shadow-Pass mitspeichern lassen, oder den Tisch explizit als „Shadowcatcher“ definieren. 92 Eine andere Methode ist in Bild 88 beschrieben. Hier wird durch die Materialeinstellung des Tisches die Schattendichte in den Aplha-Kanal umgeleitet. Mit diesem Alpha kann man dann alle gerenderten Bildteile maskieren, inclusive halbtransparenter Schatten. Dann legt man diesen maskierten Vordergund wieder auf das orginale Hintergrundbild. So erhält man ein sauberes Ergebnis, ohne visuellen Bruch von Tischplatte zum Hintergrundbild. Bild 88: Compositing zur sauberen Integration mit dem Hintergrundbild mit nur einem Rendervorgang Der Erfolg dieser Technik ist stark abhängig von dem eigentlichen Extraktionsalgorithmus. So entwickelten KELLER und KOLLIG [54] eine Methode, die an den hellsten Stellen mehr Lichtquellen erzeugt als an dunkleren. Damit werden mehr Einzelschatten generiert, die Überblendung liefert einen weicheren Gesamtschatten. Implementiert wurde dieser Algorithmus in dem Programm „MakeLight“, das als exklusiver Bestandteil der SpheroCamHDR Software [40] vertrieben wird. 93 6.4. HDRI Projektion durch Spotlights Abschließend wird eine vom Autor entwickelte Methode vorgestellt, mit der die Übertragung echter Lichtcharakteristika auf konventionelle Spotlichter möglich ist. Damit wird der Realitätsgrad bei konventionellen Renderverfahren mit minimalem Aufwand drastisch erhöht. 6.4.1. Aufnahme des Lichtbildes Man benötigt eine lichtdurchlässige Leinwand, beispielsweise ein aufgespanntes Bettlaken oder weißes Tuch. Dahinter wird eine Lampe aufgestellt, und lotrecht auf die Leinwand gerichtet. Der Abstand zur Leinwand richtet sich nach dem Öffnungswinkel der LIchtquelle und der Größe der Leinwand selbst. 5 bis 15 cm sind aus Erfahrung gut geeignet, um den gesamten Lichtschein auf der Leinwand abzubilden. Der Raum muß abgedunkelt sein, um den Einfluß anderer Lichtquellen zu eliminieren. Auf der anderen Seite der Leinwand, genau der Lampe gegenüber, wird dann eine Kamera plaziert. Es wird eine Belichtungsserie wie in Bild 89 aufgenommen. Bild 89: Belichtungsserie von 1/2000 sec bis 15 sec Wir gewohnt wird die Serie in PhotoSphere zu einem HDRI kombiniert. In HDRShop wird es dann zentriert, quadratisch beschnitten und mit einem Blur belegt um die Leinwandstruktur zu verwischen. 6.4.2. Lichtprojektion in 3D Der Trick besteht nun darin, das so entstandene Bild vor ein ganz normales Spotlicht zu klemmen, vergleichbar mit einer Diaprojektion. In Lightwave gibt es dafür eine extra Lichtoption namens „Projection Image“ (siehe Bild 90). 94 Bild 90: Screenshot mit Lichtsettings Bild 91: Vasen unter verschiedenen Projection Lights 95 Die Intensitäten des HDRI wirken dann als Multiplikator für die Lichtstärke, die hellen Pixel in der Mitte hellen es auf und die am Rand verringern die Lichtintensität. Zusätzlich wird das Licht eingefärbt, je nach Farbwert des durchleuchteten Pixels. Stellt man nun den Öffnungswinkel des Spotlichtes noch auf einen großen Wert, hat der Spot eine ähnliche Leuchtcharakteristik wie die echte Lampe. Bild 91A zeigt die Beleuchtung mit einem einzelnen Spotlight, so realistisch eingerichtet wie es die Standardeinstellungen erlauben. Der Lichtabfall (Falloff) ist auf die physikalisch korrekten 1/r² eingestellt, und das Licht hat eine leichte volumetrische Komponente beigemischt (vergleiche Bild 90). Trotzdem ist auf dem Fußboden nur ein langweiliger diagonaler Farbverlauf zu sehen, das Bild insgesamt sieht sehr künstlich aus. Die Renderzeit mit „Enhanced High“ Antialiasing betrug 93 Sekunden. Bei allen anderen Bildern handelt es sich um die identische Szene, nur mir verschiedenen Projektionsbildern. So wirft in Bild 91B die Fahrradlampe eine viel nuancenreichere Beleuchtung, die sogar dieser einfachen Szene eine realistische Stimmung verleiht. Bei genauerer Betrachtung erkennt man auch sehr gut, daß das Lichbild sich in der volumetrischen Komponente als diagonale Streifen wiederfinden. Dieses Bild wurde in 98 Sekunden gerendert, dauerte also nur 5 Sekunden länger als Bild 91A. Ein geringer Preis für diesen Qualitätssprung. Bild 91B und 91C dauerten genauso lange. Schlußfolgernd ist die Renderzeit ist also von dem Inhalt der Projektion unabhängig. Man beachte, daß das kleine Wurmlicht viel gerichteter auf einen Punkt strahlt, und im Hintergrund viel schneller ausblendet. Die Tischlampe dagegen gibt ein homogeneres Lichtfeld ab. Bemerkenswert bei beiden sind auch die Farbübergänge von Glanzlicht in Schattenregionen, ein Effekt der mit herkömmlichen Methoden nur sehr schwer zu erreichen ist. Die Eleganz dieser Methode liegt in ihrer einfachen Handhabung. Einfach nur durch das Auswechseln des Projektionsbildes ändert man die gesamte Lichtstimmung - und hat bei deren Auswahl sogar eine visuelle Vorschau. Trotzdem hat man noch genügend manuelle Einflußmöglichkeiten. Mit Intensität, Öffnungswinkel, und Lichtfarbe kann man aus jedem dieser Lichtbilder eine Vielzahl von Variationen erstellen. 96 6.5. Ausblick auf zukünftige Arbeiten Gegenstand der nächsten Versuche wird die in Abschnitt 6.2.3. erwähnte Erzeugung und Anwendung einer Differenztextur sein. Das gegründete Diskussionsforum „HDRI Challenge“ wird aufrecht erhalten. Vielversprechende Ideen, die sich dort herauskristallisieren, werden weiterverfolgt. So hat beispielsweise eine von HARRINGTON [55] entwickelte Erweiterung der Fallstudie großes Potential (siehe Bild 92). Bild 92: Erweiterung von Robert Harrington In Anlehnung an DOWNING’s [56] PIMP Technik scheint diese Methode geeignet, um komplexe Interaktionen von CG Objekten und realen Objekten darzustellen. Beispielsweise spiegelt sich in Bild 94D die virtuelle Kugel in der realen Kaffekanne. Darüberhinaus ist die Simulation perspektivisch korrekter Kamerabewegung in dem ursprünglichen 2d-Hintergrund möglich. Auch Unschärfeverlagerung (vergleiche Bild 92A und 92B) kann erzeugt werden. Es gilt hier, einen zuverlässigen und effizienten Arbeitsablauf zu entwickeln. Langfristig ist in Zusammenarbeit mit Christian BAUER eine umfassende Auswertung der HDRI Challenge vorgesehen. Softwarespezifische Setup-Techniken, die anhand der Referenzszene entwickelt und optimiert wurden, sollen katalogisiert werden. Es ist weiterhin geplant, die jeweils effizienteste Technik in Form eines Scriptes für die jeweilige Software zu automatisieren. Angedacht ist auch, die erforderlichen Inputdaten für die Ausführung des Scriptes in einem neuen Dateiformat zu bündeln. Das würde dann das HDRI-Environment, Hintergrundbild (oder hochauflösendes Panorama), und Kameradaten enthalten, eventuell zusätzlich noch primitive Szenengeometrie und vielleicht sogar eine Sounddatei von der Originalumgebung. Damit hätte man ein Austauschformat geschaffen, mit dem eine reale Umgebung einfach und zuverlässig importiert werden kann und in jeder unterstützten 3d-Software zu vergleichbaren Ergebnissen führt. 97 7. Zusammenfassung Es wurde das Grundprinzip hinter High Dynamic Range Images (HDRIs) erläutert, und in Relation zu den Beschränkungen analoger und klassischer digitaler Aufzeichnungsverfahren gesetzt. Daraus wurde ersichtlich, daß HDRIs am besten für die Abbildung der realen Welt geeignet sind. In einem Vergleichstest wurde ermittelt, daß mit einer Digitalkamera und dem Shareware Programm „PhotoSphere“ die Aufnahme von HDRIs am einfachsten und exaktesten ist. Als Dateiformat wird Radiance HDR aufgrund der breitesten Unterstützung empfohlen, eine breitere Implementierung des überlegenen OpenEXR Formates wäre wünschenswert. Die Erweiterung der digitalen Bildbearbeitungsmöglichkeiten durch HDRI wurde aufgezeigt. Digitale Nachbelichtung, Simulation von Bewegungsunschärfe und analogen Filmeffekten kann mit handelsüblicher Software an HDRIs durchgeführt werden und führt zu erheblichen Qualitästverbesserungen. Mit HDRI Panoramafotos können in allen 5 marktführenden 3D-Programmen (3dMax, SoftimageXSI, Lightwave, Maya, Cinema4D) virtuelle Objekte mit realen Lichtsituationen beleuchtet werden. Das erleichtert die Erstellung fotorealistischer 3D-Effekte erheblich. Diese HDRI Panoramen können auch mit niedrigem Budget und akzeptablem Aufwand in hoher Qualität aufgenommen werden. Verschiedene optimierte Arbeitsmethoden wurden vorgestellt, und mit Empfehlungen für einzelne Anwendergruppen verknüpft. Als Gesamtschlußfolgerung wird festgestellt, daß die HDRI Technologie inzwischen produktionstauglich ist. Die Integration in eine bestehende Postproduktionskette ist sinnvoll, unkompliziert, und wurde nachvollziehbar demonstriert. 98 Quellenverzeichnis [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] ILM, Industrial Light+Magic. OpenEXR Press Release. San Rafael, Calif. Januar 2003. DEBEVEC, Paul und LEMMON, Dan: Image-Based Lighting. Siggraph 2001 Course#14 Slides:. August 2001 COHEN, Jonathan. Persönliches Interview im Rhythm&Hues Lighting Department. Archivierte Tonbandaufnahme, Los Angeles, April 2003. BIRCHNER, Adrian. Belichtungsmessung: Korrekt messen, richtig belichten. Gilching: Verlag Photographie, 2002 YANG, David und EL GAMAL, Abbas. Comparative Analysis of SNR for Image Sensors with Enhanced DR. Stanford University, 1999 STOCKMAN, Andrew u.a. Color and Vision Database, Institute of Ophthalmology, London, http://cvision.ucsd.edu/ HOFFMANN, Donald. Visuelle Intelligenz: Wie die Welt im Kopf entsteht. 3.Aufl. Stuttgart: Verlag Klett-Cotta, 2001 WARD, Greg: High Dynamic Range Imaging, Exponent-Failure Analysis Assoc. Menlo Park, Calif. 1994 BOLLEROT, Michael. CMOS Camera with High Dynamic Irridiance Range and Linear Output, Datenblatt. Fraunhofer Institut. Duisburg. Sept.1999 KODAK R&D Abteilung. Apples and Oranges and OLED, Juli 2002 www.kodak.com/US/en/corp/researchDevelopment/ KODAK Pressemitteilung: Kodak... use Active-Matrix OLED Displays, März 2003 http://www.kodak.com/US/en/corp/display/LS633.jhtml WARD, Greg: Overcoming Gamut and DR Limitations in Digital Images, IS&T/SID 6th Color Imaging Conference, November 1998. WARD, Greg: The RADIANCE Lighting Simulation and Rendering System. In Computer Graphics, S.459-472, Juli 1994 ILM, OpenEXR Developer Website, www.OpenEXR.com KODAK R&D Abteilung. Extended Range Imaging Technology. April 2002. www.kodak.com/US/en/corp/researchDevelopment/ Testbericht DCSpro14n, www.steves-digicams.com/2003_reviews/ KELBLEY, Jay. Interview auf der Photokina, in Nexthardware Magazin. www.nexthardware.com/focus.php?artID=65&numpag=1 , 2002 TCHOU, Cris. Diskussionsbeitrag im HDRShop Support Board: www.debevec.org/HDRShop , Juni 2003 HORMANN, Christoph. HDR-Edit Entwicklerwebsite. www-public.tubs.de:8080/~y0013390/hcredit/ , 2002 WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance Workshop, Sept.2002 www.radiance-online.org/radiance-workshop1/cd/ WARD. GREG. Persönliche Nachricht per e-mail, Mai 2003 Herstellerangaben zu Photogenics www.idruna.com DEBEVEC, Paul und Jitendra, Malik. Rendering Synthetic Objects into Real Scenes… In Proceedings of SIGGRAPH 98, S.189-198. Juli 1998 DEBEVEC, Paul. Recovering High Dynamic Range Radiance Maps from Photographs. In Proceedings of SIGGRAPH 97, S.369-378. Aug. 1997 ACM SIGGRAPH UIUC. Gruppe an der Universität Illinois, EOH Projekt. www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html , 2002. 99 [26] COHEN, Jonathan / TCHOU, Chris / DEBEVEC, Paul / HAWKINGS, Tim. Real-Time High Dynamic Range Texture Mapping. In: Eurographics Rendering Workshop, www.ict.usc.edu/graphics, Mai 2001 [27] EL GAMAL, Abbas. High Dynamic Range Image Sensors, Workshop auf der IEEE International Conference on Cicuits and Systems’02, www-isl.stanford.edu/~abbas/group, 2002. [28] BRAJOVIC, V. und KANADE, T. A sorting image sensor:…parallel intensity-totime processing... In Proceedings of the 1996 IEEE International Conference on Robotics and Automation, Minneapolis, S. 1638-1643. [29] EL GAMAL, Abbas. Digital Pixel Sensors. Stanford University/Department of Electrical Engeneering. www-isl.stanford.edu/~abbas/group 2002 [30] NAYAR, Shree und MITSUNAGA, Tomoo. HDRI: Spatially varying pixel exposures. www.cs.columbia.edu/CAVE , March 2000. [31] FUJIFILM Pressemitteilung: Introducing ‘High Fidelity Photography™’ www.fujifilm.co.uk/presscentre/public/ index.cfm?FuseAction=ViewPR&release_ID=535 , 22. Januar 2003 [32] KOCH, C., ELLIS, T.J., GEORGIADIS, A. u.a. Illumination Technique for optical dynamic range compression and offset reduction. 2000 [33] WAESE, Jamie und DEBEVEC, Paul. A Real Time High Dynamic Range Light Probe, USC Institute for Creative Technologies/Graphics Lab, www.ict.usc.edu/graphics, 2001. [34] RODNEY, Andrew: High-End Digital Cameras, in PEInfo #139, S.18-28, April 2000 [35] DOWNING, Greg. Stitched HDRI, Online Tutorial www.gregdowning.com/ HDRI/stitched/. 2001. [36] GEIGEL, Joe und MUSGRAVE, Kenton. A Model for Simulating the Photographic Development Process…. , SIGGRAPH’97 Proceedings, S. 135-142, www.jogle.com/Research/vdr/ ,1997. [37] WOODRUFF, Kenneth, CACHELIN, Arnie, HASTINGS, Allen. LightWave‘s „Full Precision“ Renderer and You. Online Tutorial. www.newtek.com/products/ lightwave/tutorials/fullprecision, 2002. [38] RIGG, James. www.Panoguide.com. Online Wissensplattform, 2002. [39] KUNZ, Thomas. www.tbk.de/panorama/ . Online Wissensplattform. Berlin, 2002 [40] SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002. [41] KUNZE, Tilo. Panoramaspiegel für 20 Euro, Online Bastelanleitung. www.crosus.de/panorama/pancam40.html. Senftenberg, 2001. [42] BAUER, Christian. How to remove the photographer… Online Tutorial www.cgtechniques.com/tutorials/getridof.php. Wien. August 2001. [43] IPIX, Selbstdarstellung www.ipix.com. 2002. [44] Briefverkehr von DERSCH/IPIX, gemirrored auf der Protestseite http:// vr.albury.net.au/%7Ekathyw/EyePics/ipix.html. 1999. [45] DERSCH, Helmut und DERSCH, Astrid. PanoramaTools. FH Furtwangen http:// home.no.net/dmaurer/~dersch/index_deutsch.html, 2001. [46] BAUER, Christian. Create a Panoarama with Panotools, Online Tutorial www.cgtechniques.com/tutorials/makepano.php. Wien. Sept. 2001. [47] BAUER, Christian. From Fisheye to HDRI, Online Tutorial. www.cgtechniques.com/tutorials/hdrenviroment.php. Wien. Aug.2001 [48] WINKLER, Mathias: Filmerfahrung: Ansätze einer phänomenologischen Konstitutionsanalyse. S.244. Frankfurt am Main. 1985. 100 [49] SCHMIDT, Mechthild. Gedanken zur Zeit, In: Digitales Fernsehen – eine neue Medienwelt?... In: ZDF Schriftenreihe, Heft 50 S. 62, Mainz 1993. [50] WILLMOT, Andrew und HECKBERT, Paul: An Empirical Comparison of Progressive and Wavelet Radiosity. In Eurographics Workshop on Rendering, Juni 1997 [51] ELIAS, Hugo: Radiosity. Online Tutorial für Nichtprogrammierer. http://freespace.virgin.net/hugo.elias/radiosity/radiosity.htm. 2000 [52] DUTRÉ, Philip. Global Illumination Compendium, Cornell University. www.graphics.cornell.edu/~phil/GI/ . Januar 2001. [53] COHEN, Jonathan. CACHELIN, Arnie. LightGen Manual and Download. www.ict.usc.edu/~jcohen/lightgen/lightgen.html . Sept.2001 [54] KELLER, Alexander und KOLLIG, Thomas. Efficient Illumination by High Dynamic Range Images, Universität Kaiserslautern, Sept. 2002 [55] HARRINGTON, Robert. (Mr.P.) …Camera map me up, Diskussionsbeitrag http://hdri.cgtechniques.com/~blochi/show_list.php?free=15, 2003 [56] DOWNING, Greg. PIMP-Panoramic Image Modeling Project. Online Tutorial, http://www.gregdowning.com/pimp/. 2003 [57] DURAND, Frédo und DORSEY, Julie. Fast Bilateral Filtering for the Display of HDR Images. Laboratory for Computer Science, MIT, 2001 [58] Reinhard, Erik. Tone mapping. Vortrag an der University of Central Florida, www.cs.ucf.edu/%7Ereinhard/cdrom/, 2002 Bildquellen 24 aus WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance Workshop, Sept.2002 www.radiance-online.org/radiance-workshop1/cd/ 44 aus SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002. 43, 45, 46, 47 aus KUNZ, Thomas. www.tbk.de/panorama/ . Online Wissensplattform. Berlin, 2002 84 ist zusammengestellt aus Arbeiten von 8 Teilnehmern der HDRI Challenge, entsprechende Personen sind im Bild verzeichnet. 66, 68, 69, 71, 73, 74, 74, 75 erstellt unter Verwendung von Rohmaterial von BAUER, Christian. www.cgtechniques.com/ Tabelle 1 aus www.dpreview.com/learn/key=exposure. Online Photo Glossary