Die Bewegungsmuster der virtuellen Kamera
Transcrição
Die Bewegungsmuster der virtuellen Kamera
Die Bewegungsmuster der virtuellen Kamera Möglichkeiten der Bewegungsvisualisierung in einer 3D-Welt mit Hilfe einer virtuellen Kamera (Maya) und Untersuchung von ausgewählten Effekten für eine visuelle Variation der Informationen (Compositing in Shake). Daten zur Diplomarbeit Technische Universität Dresden Fakultät Informatik Diplomthema im Studiengang Medieninformatik Ausgeführt am Institut für Software- und Multimediatechnik Hochschullehrer und Betreuer: Prof. Dr.-Ing. habil. Rainer Groh Diplomand: Sandro Kath Matrikelnummer: 2850506 Thema: Die Bewegungsmuster der virtuellen Kamera Bearbeitungszeit: 01.08.2008 bis 31.01.2009 2 Eigenständigkeitserklärung Ich versichere hiermit, dass ich, Sandro Kath, die vorliegende Diplomarbeit mit dem Titel Die Bewegungsmuster der virtuellen Kamera selbstständig verfasst und keine anderen als die angegebenen Hilfsmittel benutzt habe. Die Angaben, welche anderen Quellen dem Wortlaut oder sinngemäß entnommen wurden, habe ich in jedem einzelnen Fall durch eine Quellenangabe gekennzeichnet. Dresden, 29. Januar 2009 ……………………………......... 3 Aufgabenstellung: Ziel dieser Arbeit soll es sein, mit Hilfe einer Kamera in Maya, mögliche „KameraAufnahmen“ in einer 3D-Welt zu realisieren und darzustellen (z. B. Totale, einzelne Gebäude, Bewegung durch Straßen-Schlucht, Dolly-Zoom, Zoom). In einem ersten Teil sollen dabei die Vorteile der Kamera aus Maya genutzt (vollkommene Bewegungsfreiheit und Einstellungsmöglichkeiten) sowie deren Attribute vor- und dargestellt werden (z. B. Brennweite-Einstellungsmöglichkeiten). Die erstellten Szenen werden abschließend gerendert und zusammengefügt. Im 2. Teil der Arbeit werden Effekte vorgestellt, mit welchen visuelle Veränderungen ermöglicht werden („Effekte als Dienst“). (z.B. Effekt: Warp Æ Verzerrung von Gebäuden) Die entsprechenden Effekte werden vorgestellt und ausführlich erläutert wie diese funktionieren. 2 Aufnahmen: 1. „Maya-Kamera-Film“ (Rohfassung) 2. „Maya-Kamera-Film“ mit Effekten 4 Danksagung Mein Dank gilt allen, die an der Fertigstellung der Diplomarbeit beteiligt waren, besonders Herrn Professor Groh, der stets Rat wusste und dessen Gespräche sehr motivierend waren. Meiner Freundin Sandra Scheibe möchte ich vor allem für die tatkräftige Unterstützung danken. Ohne Sie wäre diese Arbeit in dieser Form nicht möglich gewesen. Sie baute mich vor allem bei auftretenden Problemen immer auf. 5 Inhaltsverzeichnis 1. Einleitung 9 2. Übersicht über die verwendeten Programme 12 2.1 Autodesk Maya 12 2.1.1 Was ist ein Bewegungsmuster? 13 2.2 Apple Shake 17 3. Autodesk Maya 19 3.1 Überblick über die Grundlagen der Maya-Kamera 19 3.1.1 Erstellen einer Kamera in Maya 20 3.1.2 Bewegen einer Kamera in Maya 21 3.1.3 Camera Attributes 23 3.2 Kamera-Typen in Maya 24 3.2.1 Camera (Single Node Option) 24 3.2.2 Camera and Aim (Two Node Option) 25 3.2.3 Camera, Aim and Up (Three Node Option) 27 3.3 Kamera-Attribute 29 3.3.1 Lens Attributes 29 3.3.2 Additional Attributes 34 3.4 Moving the Camera 35 3.4.1 Camera Tools 36 3.4.1.1 Track Tool 36 3.4.1.2 Dolly Tool 36 3.4.1.3 Zoom Tool 36 3.4.1.4 Roll Tool 37 3.4.2 Vertigo-Effekt 38 3.4.2.1 Dolly und Zoom 38 3.4.2.2 Dolly in Zoom out 40 3.4.2.3 Dolly out Zoom in 42 3.5 Camera Effects 43 3.5.1 Motion Blur 43 3.5.2 Depth of Field (Schärfenbereich) 45 6 3.5.3 Rack Focus (Schärfernverlagerung) 49 3.5.4 Fish Eye Lenses 51 3.6 Graph Editor 53 4. Apple Shake 54 4.1 Was ist Compositing? 54 4.2 Das Interface von Shake 56 4.3 Grundlagen von Shake 57 4.3.1 Alpha Kanal 57 4.3.2 Over Node 58 4.3.3 Rotoshape Node 60 4.4 Ausgewählte Effekte 61 4.4.1 Lokale dynamische Helligkeitsänderung 62 4.4.2 Änderung des ColorSpace und Erstllung von Glow 63 4.4.3 Warper 68 5. Cinematographic Terminology 71 5.1 Aufnahme-Distanz 72 5.1.1 Distanz-Aufnahme 72 5.1.2 Normal-Aufnahme 73 5.1.3 Nah-Aufnahme 77 5.2 Camera Angles (Aufnahmewinkel) 79 5.3 Continuity 82 5.4 Rule of Thirds 82 6. Genutzte Vorgehensweise für die Erstellung der Videosequenzen 84 7. Schlussteil 85 7.1 Zusammenfassung 85 7.2 Ausblick 86 8. Anhang 87 8.1 DVD – Allgemeine Informationen 87 8.2 Verzeichnisstruktur auf DVD 88 7 A Literaturverzeichnis 89 B Abbildungsverzeichnis 91 8 1. Einleitung In dieser Arbeit werden mit Hilfe eines externen Programms, Autodesk Maya, unterschiedliche Möglichkeiten der Bewegungsvisualisierung in einer 3D-Welt durch Nutzung einer virtuellen Kamera im externen Programm realisiert. Dabei bildet ein virtueller Nachbau der Stadt New York City die Grundlage für die virtuellen Kameraaufnahmen. In diesem 3D-Modell werden verschiedene Kamerafahrten realisiert, welche mögliche Bewegungsmuster sowie erstellbare Effekte einer virtuellen Kamera aufzeigen. Dabei soll erläutert werden, welche Attribute und damit verbundene Einstellungsmöglichkeiten eine Kamera in Maya besitzt, um entsprechende Bewegungsmuster zu realisieren. Die erstellten Kamerafahrten werden abschließend im SGI-Format als Einzelbildersequenz gerendert und sind somit für eine Weiterverarbeitung in Shake vorbereitet. Der Vorteil bei der Benutzung der Kamera im 3D-Programm Maya besteht in der vollkommenen Bewegungsfreiheit dieser in einer Szene. Dies bedeutet, dass es möglich ist, die Kamera an jede Position im 3D-Modell von New York City zu bewegen. 1 Mit Hilfe des Graph Editors sind darüber hinaus selbst kleinste Bewegungsänderungen der Kamera erstellbar. In einem zweiten Teil der Arbeit werden die erstellten Sequenzen in ein zweites externes Programm, Apple Shake, importiert. Apple Shake ist ein CompositingProgramm, welches es ermöglicht, voneinander getrennt erstellte bzw. aufgenommene Inhalte zusammenzufügen. Die erstellten Kamerafahrten in Maya bedürfen, für das endgültige Resultat, mehrerer Rendervorgänge. Diese unterschiedlichen Rendervorgänge werden in Shake importiert und zusammengefügt. In diesem Zusammenhang soll erläutert werden, auf welche Weise das Node based Compositing funktioniert. 1 Selbstverständlich können Kamerabewegungen auch in jeder anderen 3D-Szene durchgeführt und die Kamera in diesen an jede beliebige Position bewegt werden. 9 Des Weiteren werden Funktionen vorgestellt, welche es ermöglichen, ausgewählte Effekte für eine visuelle Variation zu erstellen. Darüber hinaus werden die dafür in Shake vorgestellten Nodes ausführlich erläutert und ihre Funktionsweise erklärt. Als Abschluss wird im letzten Kapitel das Thema Cinematographic Terminology (etwa „Fachsprache der Filmkunst“) behandelt. Hier werden u. a. die möglichen Kameraeinstellungen mit Berücksichtigung der Distanz sowie Aufnahmewinkel erläutert. Für die in dieser Arbeit erstellten Bewegungsabläufe und Effekte ist ein Ablaufplan entworfen worden, welcher die einzelnen Bewegungsabläufe der Kamera im 3DModell von New York City aufzeigt und graphisch darstellt. Dieser Ablaufplan soll als Überblick dienen sowie die einzelnen Bewegungsabläufe und Effekte sequentiell darstellen. Zitate, die nach alter Rechtschreibung verfasst worden sind, wurden übernommen, ohne diese an die gültige Rechtschreibung anzupassen. 10 Abb. 1 Ablaufplan der zu realisierenden Bewegungsabläufe der Kamerafahrt in Maya. Der lila gekennzeichnete Graph zeigt die Bewegung der Kamera durch das 3DModell von New York City. Die durch Rot gekennzeichneten Notizen stellen die verschiedenen umgesetzten Bewegungsabläufe beziehungsweise Effekte der Kamera dar. 11 2. Übersicht über die verwendeten Programme In dieser Arbeit werden, wie bereits erwähnt, zwei externe Programme verwendet. Im Folgenden werden diese kurz vorgestellt. 2.1 Autodesk Maya Maya ist ein 3D-Modellierungs- und Animationsprogramm, welches sehr stark im professionellen Bereich zum Einsatz kommt. Mit Hilfe dieser Software werden z. B Inhalte für die Film- und Fernsehindustrie sowie der Videospielindustrie erstellt. Maya gibt es in drei unterschiedlichen Versionen: Maya PLE (Personal Learning Edition), Maya Complete und Maya Unlimited, wobei nur die Complete- und Unlimited-Version für den kommerziellen Bereich eingesetzt werden können. Maya PLE ist für den privaten und nicht kommerziellen Einsatz gedacht. Die Maya Unlimited Version enthält im Gegensatz zu Maya Complete einige Extra-Funktionen (z. B. Fluid, Cloth, Hair). Alternativen zu Maya sind beispielsweise 3D Studio Max, Cinema4D, Lightwave und XSI. Abb. 2 Das Interface von Autodesk Maya 12 In dieser Arbeit werden die verschiedenen Attribute der virtuellen Kamera aus Maya sowie deren verschiedene Einstellungsmöglichkeiten erläutert. Damit ist es möglich, Bewegungsmuster und Effekte in Maya durch Nutzung dieser Attribute umzusetzen. 2.1.1 Was ist ein Bewegungsmuster? „Der Mensch bewegt sich in harmonischen, dreidimensionalen, dynamischen Abfolgen von Muskel-Skelettbewegungen. Das sind seine natürlichen Bewegungsmuster.“ 2 Eine virtuelle Kamera in Maya bewegt sich durch eine Abfolge von Attributwertveränderungen in Bezug auf die Zeit. Das bedeutet, dass eine Bewegung einer virtuellen Kamera in Maya ausgeführt wird, wenn eine entsprechende Veränderung der Attributwerte zwischen mindestens zwei zueinander in Beziehung stehenden Zeitpunkten stattfindet. Um eine Kamerabewegung zu realisieren, werden somit mindestens zwei miteinander in Beziehung stehende Kamerapositionen benötigt. Des Weiteren muss zwischen diesen ein zeitlicher Bezug bestehen. Dadurch ist es nun möglich, verschiedene Bewegungen der Kamera in Maya zu erstellen, in dem z. B. die Kamerapositionen sowie die damit in Bezug stehende Zeit variiert werden. Die erstellten Bewegungsmuster in Maya sind somit sequentiell zueinander in Beziehung stehende Kamerapositionen in Abhängigkeit mit der Zeit. Das Speichern einer Kameraposition zu einem bestimmten Zeitpunkt wird als Keyframe 3 (genau genommen werden die Attributwerte gespeichert) bezeichnet. Mindestens zwei unterschiedliche Keyframes einer Kamera können somit eine Kamerabewegung erstellen. 2 http://www.snaix.com/snaix/glossar/bewegungsmuster.html (letzter Zugriff am 27.01.2009) 3 In der Channel Box werden Attribute durch die Farbe Rot gekennzeichnet, falls ein Keyframe für diese gesetzt wurde. 13 Bei der Erstellung der Kamerafahrten sowie beim Rendering der Szene sind in Maya zwei grundlegende Probleme aufgrund der Größe des vollständigen 3D-Modells aufgetreten, welche es erforderlich machten, das 3D-Modell von New York City in mehrere Teilbereiche zu zerlegen. Das 3D-Modell hat eine Gesamtgröße von 806 MB und besteht aus ca. 20.000 Objekten. Jedem Objekt ist eine Textur zugeordnet, welche eine Auflösung von 1024 x 1024 Pixeln besitzt. Nach dem erfolgreichen Laden der Szene ist es nicht möglich eine Kamerabewegung umzusetzen, da sich das Programm Maya automatisch mit einer Fehlermeldung beendet. Deshalb war es zwingend notwendig das gesamte 3D-Modell in Teilbereiche zu teilen. Durch die Verwendung von Layern 4 wurde die Gesamtszene in 75 Teile zerlegt. Somit ist es möglich, je nach Bedarf, einen Teil des 3D-Modells auszublenden oder anzeigen zu lassen. Dies hat jedoch den Nachteil, dass für das vollständige Fertigstellen einer Kamerafahrt bis zu zwanzig Rendervorgänge nötig sind, um alle notwendigen Teile für eine Sequenz zu rendern. Das zweite und weitaus schwierigere Problem trat nach einem erfolgreichen Rendervorgang auf. Das als Image-Sequenz ausgegebene 3D-Modell bewegte sich auf und ab. Bei einer Kamerabewegung, welche nah an der Oberfläche des 3DModells stattfindet, tritt eine starke Selbstbewegung der Objekte auf, ähnlich einem Erdbeben. Diese Selbstbewegung der Objekte störte das dargestellte Bewegungsmuster der Kamera sehr stark. Der Grund für diese ungewollte Selbstbewegung liegt vermutlich an der großen Anzahl der Objekte. Für die Lösung des Problems wurden verschiedene Ansätze getestet. In professionellen Foren, wie beispielsweise von FXPHD 5 , GNOMON 6 und Digital- 4 Ein Layer ermöglicht ein einfaches Ein- und Ausblenden der zum Layer gehörenden Objekte. http://fxphd.com (letzter Zugriff am 27.01.2009) 6 http://thegnomonworkshop.com (letzter Zugriff am 27.01.2009) 5 14 Tutors 7 , wurden hilfreiche Vorschläge gegeben, welche jedoch das Problem nicht lösen konnten. Eine Skalierung des 3D-Modells brachte keine Besserung gegenüber der ungewollten Selbstbewegung, obwohl durch dieses Vorgehen die Anzahl von Objekten in unmittelbarer Umgebung zur Kamera deutlich verringert wurde. Das Verwenden von Clip Planes für eine Kamera verringerte das Problem ebenfalls nicht. Eine signifikante Besserung trat erst beim Wechsel des Betriebssystems ein. Das Problem der Selbstbewegung der Objekte konnte nicht vollständig behoben werden, jedoch konnte durch den Wechsel von OSX 10.5.2 auf Windows XP SP 2 eine Verbesserung bewirkt werden. Des Weiteren wurden Objekte des 3D-Modells in Maya durch die Befehle Group und Parent zusammengefügt, um das Problem zu beheben. Dies brachte jedoch keinen weiteren Fortschritt. Durch das Importieren der Image-Sequenz in Shake war es möglich die Funktion SmoothCam zu nutzen. Dabei wird das Bildmaterial in einem ersten Vorgang analysiert und kann anschließend stabilisiert werden, um die Selbstbewegung der Objekte zu vermindern. Durch die Funktion SmoothCam wird allerdings nicht die Ursache behoben, sondern nur eine Verbesserung bewirkt. Die Lösung des Problems der Selbstbewegung der Objekte konnte in Maya behoben werden. Die Befehle Group und Parent fügen jeweils die Objekte in eine Gruppe zusammen bzw. haben ein „Eltern-Element“. Die Objekte selbst werden durch diese Funktion nicht verändert. Der Befehl Combine vereinheitlicht die ausgewählten Objekte jedoch zu einem Objekt. Dies bedeutet, dass die einzelnen Objekte nicht mehr ausgewählt oder verändert werden können. Durch diesen Befehl wurde das Problem der Selbstbewegung der Objekte gelöst. Jedoch entsteht durch diesen Befehl ein großer Nachteil bezüglich der Renderzeit, denn diese wurde durchschnittlich um den Faktor acht erhöht. 7 http://www.digitaltutors.com/digital_tutors/index.php (letzter Zugriff am 27.01.2009) 15 Abb. 3 Der Befehl Combine (rechts) verbindet mehrere Objekte zu einem Objekt. Als Vergleich ein einzelnes Objekt (links). 16 2.2 Apple Shake Apple Shake ist ein Compositing-Programm, welches im professionellen Bereich der Film- und TV-Post-Production (Nachbearbeitung) eingesetzt wird. Mit Hilfe eines Compositing-Programmes werden voneinander getrennt erstellte bzw. aufgenommene Inhalte zusammengefügt, so dass der Eindruck entsteht, dass der Gesamtinhalt zur gleichen Zeit am gleichen Ort mit derselben Kamera aufgenommen wurde. Shake besitzt einen „node-basierten“ Aufbau, der sowohl über das User Interface als auch über die Kommandozeile genutzt werden kann. Alternativen zu Shake sind The foundry Nuke, eyeon Digital Fusion, Autodesk Combustion, Autodesk Toxik sowie Adobe After Effects. Abb. 4 Das Interface von Apple Shake. 17 Aufgrund der Größe des 3D-Modelles von New York City war es notwendig, die gesamte Szene in kleine Teilbereiche zu zerlegen. Angesichts dieses Schrittes sind mehrere Rendervorgänge notwendig, um eine Kamerafahrt vollständig darzustellen. Durch Shake ist es möglich, diese einzelnen Rendervorgänge (einzelne Inhalte) zu einer vollständigen Sequenz zusammenzufügen. Des Weiteren werden in diesem Compositing-Programm ausgewählte Effekte erstellt, welche an einer Sequenz beispielhaft erläutert werden. Dabei wird es sich um die Effekte bezüglich des Warping, der Farbraumänderung sowie einer lokalen Helligkeitsänderung handeln. 18 3. Autodesk Maya 3.1 Überblick über die Grundlagen der Maya-Kamera Ein Panel ist ein Anzeigebereich (Viewport), durch den es möglich ist sich den Ansichtsbereich einer Kamera oder verschiedener Editoren (z. B. Graph Editor, Outliner) anzeigen zu lassen. Der Name des dargestellten Anzeigebereiches befindet sich am unteren Rand des Panels. Als Default-Panel wird der Ansichtsbereich der Kamera persp dargestellt, d.h. beim Starten von Maya und Erstellen einer neuen Szene wird automatisch der Ansichtsbereich der Kamera persp angezeigt. Abb. 5 Bei dem Öffnen einer neuen Szene in Maya befindet sich die Standard-Kamera persp im Anzeigebereich des Panels an der Home-Default-Position. 19 3.1.1 Erstellen einer Kamera in Maya In Maya gibt es zwei Möglichkeiten eine neue Kamera zu erstellen. Die erste Möglichkeit befindet sich direkt im Panel: Panels Æ Perspective Æ New Die damit erzeugte Kamera wird an der Default-Home-Position erstellt. Des Weiteren ist zu beachten, dass die Kamera im aktiven Panel angezeigt wird, also dass der Ansichtsbereich der Kamera sofort dargestellt wird. Die Default-Home-Position ist die Position, die beim Erstellen einer neuen Szene durch das Default-Panel (Kamera persp) angezeigt wird. Durch das Hinzufügen einer neuen Perspektive (z. B. persp1) wird eine entsprechende Kamera generiert. Die zweite Möglichkeit zur Erstellung einer Kamera in Maya ist das Create-Menu: Create Æ Cameras Æ Camera Im Unterschied zu der ersten Möglichkeit erscheint die neue Kamera im Koordinatenursprung, d. h. die erstellte Kamera wird nicht als Ansichtsbereich im Panel angezeigt. Abb. 6 Neu erstellte Kamera „Basic_CAM“, die mit Hilfe des Create Menu erzeugt wurde. 20 3.1.2 Bewegen einer Kamera in Maya Für eine bessere Übersicht der Kamerabewegung wird in die „Four View“-Ansicht gewechselt. Panels Æ Saved Layouts Æ Four View Das Panel wird in vier Anzeigebereiche geteilt. Die orthographischen Ansichten top, front und side sowie die Standard-Ansicht persp sind nun verfügbar. Abb. 7 „Four View“-Ansicht mit den Panels top, front, persp und side (v.l.n.r.). Um eine Kamera in Maya zu bewegen ist es möglich Gizmos zur Hilfe zu nehmen, durch die es sehr viel einfacher ist die Kamera an eine bestimmte Position im Raum zu bewegen bzw. zu rotieren. Die Gizmos in Maya besitzen beispielsweise Pfeile, um die Steuerung der Kamera zu ermöglichen. Die beiden Befehle zum Bewegen und Rotieren der Kamera lauten Translate (W) und Rotate (E). Das Betätigen der entsprechenden Taste lässt den zugehörigen Gizmo erscheinen, welcher nun genutzt werden kann, um mit der Kamera zu interagieren. 21 Gizmos zur Bewegung einer Kamera: Abb. 8 Translate (W) – Bewegen Abb. 9 Rotate (E) - Rotieren Eine zweite Möglichkeit, die Kamera in Maya zu bewegen, besteht über das Eingeben von Werten in der Channel Box, welche sich auf der rechten Seite des User Interfaces von Maya befindet. Beispielsweise bewegt ein Wert von 1.5 im Attribut Translate Y die Kamera um 1,5 Grid-Units (Maßeinheit in Maya) in die entsprechende Richtung. Abb. 10 Rotierte und vom Koordinatenursprung entfernte Kamera. 22 Ein weiteres, sehr hilfreiches, Menu ist der Attribute-Editor. Dieser beinhaltet alle Einstellungsmöglichkeiten der Channel Box sowie eine Vielzahl mehr von diesen. Anstatt wie in der Channel Box eine Art Listenansicht zu verwenden, werden hier alle Attribute übersichtlich geordnet und gruppiert. Abb. 11 Kamera „Basic_CAM“ mit Attribute-Editor. 3.1.3 Camera Attributes In dem Menüpunkt Controls der Camera Attributes kann der Kamera-Typ nachträglich geändert werden, so dass es möglich ist, durch Nutzen des Drop-DownMenüs die Standard-Kamera in eine Three-Node-Camera zu ändern. Die verschiedenen Typen von Kameras werden im folgenden Kapitel vorgestellt. 23 3.2. Kamera-Typen in Maya Maya besitzt drei unterschiedliche Typen der Kamera. Jede von Ihnen hat ihre spezifischen Vor- und Nachteile und kann für bestimmte Einsatzzwecke vorteilhaft genutzt werden. 3.2.1 Camera (Single-Node-Camera) Die Single-Node-Camera ist die Standardkamera in Maya. Der große Vorteil dieses Typs besteht in der leichten Handhabung, denn nur ein einziger Node muss animiert werden (die Kamera selbst). Mit ihr lassen sich die verschiedensten Bewegungsabläufe schnell erstellen. Allerdings besitzt dieser Kamera-Typ einen Nachteil, welcher in der Nutzung von Motion Paths liegt. Ein Motion Path entspricht einer in Maya erstellten Curve, auf welcher sich die Kamera entlang bewegt. Auf das bestehende Problem der SingleNode-Camera mit Motion Paths wird in Kapitel 3.2.3 eingegangen. Abb. 12 Die Single-Node-Camera ist sehr einfach zu bedienen. 24 3.2.2 Camera and Aim (Two-Node-Camera) Im Gegensatz zu der normalen One-Node-Camera besteht diese Kamera aus zwei Nodes. Zum einen aus der Kamera selbst und zum anderen aus dem so genannten Aim. Die besondere Eigenschaft dieses Kamera-Typs besteht darin, dass sich die Kamera stets auf das Aim ausrichtet. Beide Nodes (Kamera sowie Aim) können unabhängig voneinander bewegt und animiert werden. Dies ist ebenfalls in der Channel-Box erkennbar. Die Attribute Rotate X, Rotate Y und Rotate Z sowie Center Of Interest sind farblich blau unterlegt. Das bedeutet, dass diese Attribute zu einem Objekt in Abhängigkeit stehen. In diesem Fall stehen die Attribute mit dem Node Aim in Beziehung. Der Bewegung des Aim entsprechend verändern sich die Werte der entsprechenden Attribute der Kamera. Das Attribut Center Of Interest gibt die Entfernung zwischen Kamera und Aim an. Die Attribute Rotate X, Rotate Y und Rotate Z geben die Rotation der Kamera in Bezug auf das Aim an. Abb. 13 Camera and Aim (es müssen bis zu zwei Nodes animiert werden) 25 Durch die Abhängigkeit der Kamera und des Aims besteht der Verwendungszweck im Erfassen von Objekten bei einer möglichen Bewegung der Kamera. Aufgrund des Ausrichtens ist das gewünschte Objekt stets im Mittelpunkt des Ansichtsbereiches der Kamera. Abb. 14 Camera and Aim mit Ausrichtung auf Objekt (Sequenz_02.0_Drehung.mov) Es besteht die Möglichkeit die Abhängigkeit zwischen den zwei Nodes, der Kamera und dem Aim, aufzuheben. Bei Verwendung eines Motion Paths bietet dies den Vorteil, dass das Aim unabhängig von der Kamera (welche sich noch immer auf das Aim ausrichtet) bewegt werden kann. Mit der Two-Node-Camera können alle Bewegungen und Einstellungsmöglichkeiten, welche auch mit der normalen Standard-Kamera in Maya möglich sind, vorgenommen werden. Jedoch bietet sie große Vorteile gegenüber der StandardKamera in entsprechenden Bewegungsabläufen. Dabei muss jedoch bedacht werden, dass die Steuerung durch das Vorhandensein eines zweiten Nodes an Komplexität zunimmt. 26 3.2.3 Camera, Aim and Up (Three-Node-Camera) Die Camera, Aim and Up ist eine Kamera, welche aus drei Nodes besteht: der eigentlichen Kamera selbst, einem Aim (wie bei der Two-Node-Camera) sowie einem zusätzlichen Node namens Up. Abb. 15 Three-Node-Camera bestehend aus Kamera, Aim und Up (es müssen bis zu drei Nodes animiert werden). Rechts: NURBS-Curve (Looping), welcher als Motion Path genutzt werden kann. Der Vorteil dieses Kamera-Typs aus Maya liegt im 3. Node namens Up. Durch Nutzen dieses Nodes kann verhindert werden, dass sich die Kamera bei einem Looping (Motion Path) unerwünscht verdreht. Die Kombination der Nodes Aim und Up bietet eine sehr gute Möglichkeit, mit Hilfe der Nutzung des Graph Editor, einen exakten Bewegungsablauf zu steuern. Bei Benutzung einer Standard-Kamera in Verbindung mit einer NURBS-Curve (genutzt als Motion Path) ist es nicht möglich, einen Looping erfolgreich zu animieren. Es kommt zu einer unerwünschten Drehung der Kamera entlang der NURBS-Curve. Die Standard-Kamera bietet Kontrollmöglichkeiten, um dieses Problem zu lösen. 27 nicht die erforderlichen Abb. 16 Looping mit der Camera, Aim and Up Die Three-Node-Camera besitzt, wie die Two-Node-Camera, aufgrund des Aims Abhängigkeiten für die Attribute Rotate X, Rotate Y und Rotate Z. Folglich ist auch diese Kamera stets auf das Aim gerichtet. Das Attribut Center of Interest gibt auch hier die Entfernung zwischen Kamera und Aim in Grid-Units an. Der Node Up ist frei beweglich und animierbar. Er stellt einen „Up-Vektor“ dar, mit dem es möglich ist, die Kamera horizontal auszurichten. 8 Durch diese zusätzliche Kontrollmöglichkeit ist mit diesem Kamera-Typ auch in Verbindung mit einer NURBSCurve (Motion Path) ein Looping animierbar. 8 Vgl. McGinnis, Cathy: „The Aesthetics of Cameras.” (Video) Alias Learning Tools, 15min 22sec – 20min 49sec. 28 3.3 Kamera-Attribute 3.3.1 Lens Attributes Die Lens entspricht der optischen Komponente einer realen Kamera. 9 In Maya wird die gesamte Kamera jedoch nur als eine Art Drahtgittermodell dargestellt, welches eine genaue Zuordnung der Bestandteile erschwert. Die zwei wichtigsten und am meisten genutzten Attribute der Kamera sind Angle of View und Focal Length. Angle of View sagt aus, wie groß der Sichtwinkel der Kamera ist, d. h. wie viel der Nutzer von der Szene sehen kann. Dieses Attribut ist mit der Focal Length eng verbunden, so dass diese sich gegenseitig beeinflussen. Je höher der Wert der Brennweite, desto niedriger der Sichtwinkel. Die Focal Length (Brennweite) ist die Distanz in mm von der Mitte der Linse und der Film Plane. Dieses Attribut wird genutzt, um die Brennweite zu ändern, um so einen Zoom In oder Zoom Out der Kamera zu erstellen. 10 Abb. 17 Eine Kamera mit einer Focal Length (Brennweite) von 35 mm. 9 Vgl. McGinnis (wie Anm. 8), 20min 45sec – 20min 55sec. Ebd., 21min 55sec – 22min 15sec 10 29 Es gibt drei unterschiedliche Typen von Objektiven, welche auch in der Realität zur Verfügung stehen. „Objektive werden allgemein nach ihrer Brennweite eingeteilt: dem Abstand zwischen der Filmebene und dem Mittelpunkt der Linse.“ 11 Abb. 18 Kameras mit unterschiedlichen Brennweiten Eine Normal Lens (Normal-Objektiv) besitzt eine Brennweite zwischen 30 und 50 mm. „Diese Objektive werden meist gewählt, weil sie am wenigsten verzerren und deshalb der Sehweise des menschlichen Auges am nächsten kommen“ 12 beziehungsweise nahezu das Sichtfeld eines Menschen abdecken (das normale Sichtfeld eines Menschen liegt bei etwa 50 mm). Eine Brennweite von 50 mm entspricht (lt. Autodesk Maya) einem Sichtwinkel von ca. 40 Grad. 13 Von einer Telephoto Lens (Tele-Objektiv) wird gesprochen, wenn die Brennweite der Optik über 50 mm liegt. Eine Brennweite von 100 mm besitzt einen Sichtwinkel von etwa 20 Grad. Die maximale Brennweite der Kamera in Maya liegt bei 3500 mm (Sichtwinkel 1 Grad), wobei die wirkungsvolle Obergrenze des Tele-Objektivs etwa 1200 mm beträgt. 14 11 Vgl. Monaco, James: „Film verstehen.“ Reinbeck bei Hamburg 1980, S. 71 Ebd., S. 71 13 Vgl. McGinnis (wie Anm. 8), 22min 30sec – 23min 00sec 14 Ebd., 23min 10sec – 23min 45sec 12 30 „Das Tele-Objektiv wirkt wie ein Teleskop und vergrößert entfernt liegende Gegenstände. Es verzerrt nicht die lineare Wahrnehmung, besitzt jedoch den manchmal nützlichen Effekt, die Tiefen-Wahrnehmung zu unterdrücken. Es hat einen relativ geringen Blickwinkel.“ 15 Das besonders Augenscheinliche bei diesem Objektiv ist, dass „… bei langer Brennweite (Tele) parallele Linien nahezu parallel aussehen“ 16 . Das Gegenstück zum Tele-Objektiv stellt das Weitwinkel-Objektiv dar. Dieses besitzt keinen kleinen, sondern einen weiten Blickwinkel. Von einem Wide Angle (Weitwinkel) spricht man, wenn die Brennweite des Objektives unter 30 mm liegt. Das Besondere an diesem Objektiv ist, dass vor allem in beengten Situationen dieser Typ gewählt werden sollte, denn dadurch ist es möglich einen großen Teil des zu filmenden Gegenstandes aufzunehmen. 17 „Die Weitwinkel-Optik hat jedoch auch den Effekt, die Tiefen-Wahrnehmung zu betonen und oftmals auch die lineare Wahrnehmung zu verzerren.“ 18 Bei Nutzung dieses Objektiv-Typs „[…] sehen Sie viele stürzende Linien, […]“. 19 Durch das Nutzen unterschiedlicher Brennweiten einer Kamera ist es möglich, die Distanz zwischen Objekten optisch zu variieren (vgl. mit unterer Grafik). Beim Verwenden einer normalen Brennweite entspricht dies dem Sichtfeld eines Menschen und die Gebäude im Vorder- und Hintergrund erscheinen optisch korrekt. Bei Verwendung einer Telephoto Lens wird die Distanz zwischen den Objekten kompensiert. Dies lässt einen klaustrophobischen Eindruck bzw. gar das Gefühl gefangen zu sein entstehen. 20 Das Gegenteil geschieht beim Nutzen einer Wide Angle Lens, denn hier erscheint es, als ob sich die Distanz zwischen den Objekten vergrößert. Die Nutzung dieser Möglichkeit für eine optische Variation der Distanz kann beispielsweise genutzt werden, um dem Publikum etwas mitzuteilen. Da durch das Nutzen einer kleinen Brennweite „mehr Raum vorhanden ist“, entsteht das Gefühl, Teil eines Gesamten zu sein, da ein Eintauchen in die Szene möglich 15 Vgl. Monaco (wie Anm. 11), S. 72 Vgl. Schönherr, Maximilian: „Maya 7. Die Referenz.“ München 2006, S. 129 17 Vgl. McGinnis (wie Anm. 8), 23min 50sec – 24min 30sec 18 Vgl. Monaco (wie Anm. 11), S. 71f 19 Vgl. Schönherr (wie Anm. 16), S. 129 20 Vgl. McGinnis (wie Anm. 8), 25min 00sec – 25min 45sec 16 31 scheint. Bestimmte Objekte im Mittelpunkt des Geschehens rücken in den Vordergrund und üben eine sehr starke Personalität aus. 21 Abb. 19 Vergleich der unterschiedlichen Objektiv-Typen - Bild 1 21 Vgl. McGinnis (wie Anm. 8), 25min 00sec – 25min 45sec 32 Abb. 20 Vergleich der unterschiedlichen Objektiv-Typen - Bild 2 Die erstellten Sequenzen für diese Diplomarbeit wurden alle mit einer Brennweite von 35 mm erstellt. Eine Ausnahme bilden spezielle Kameraeinstellungen, in denen explizit die Brennweite für die Kamerafahrt geändert wurde (beispielsweise für einen Zoom). 33 3.3.2 Additional Attributes Ein weiteres Attribut, welches zu den Camera Attributes gehört, ist Camera Scale. Dieses erlaubt es, wie der Name schon sagt, die Größe der Kamera in Maya zu skalieren. Jedoch zieht ein Verändern der Größe eine Veränderung der Brennweite mit sich. Dies bedeutet, dass, wenn der Wert von Camera Scale halbiert wird, sich die Brennweite verdoppelt. Eine weitere Einstellungsmöglichkeit, welche sehr hilfreich sein kann, ist Clip Plane. „Die Clip Planes sind virtuelle Ebenen, die den Blick der Kamera beim Modellieren und Animieren und Rendern einschränken, […]. Nur wenn Sie Auto Render Clip Plane deaktivieren, berücksichtigt Maya beim Rendern die Einschränkung des Kamerablicks.” 22 Jede Kamera hat ihre eigene Near- und Far Clip Plane, welche einen festen Wert von -1 und 1 besitzt. Wenn Clip Planes sehr weit auseinander liegen, kann ein Problem mit der Genauigkeit beim Berechnen der Distanz von Meshes entstehen („Depth-Sorting-Problem“). Jedes Objekt hat einen Depth-Value (zwischen -1 und 1), welcher gerundet wird. Dieses Rundungsproblem ergibt anschließend das „DepthSorting-Problem“. Abb. 21 Kamera mit der Near- und Far-Clip Plane. 22 Vgl. Schönherr (wie Anm. 16), S. 128 34 3.4 Moving the Camera Wie bereits erwähnt, gibt es zwei grundlegende Möglichkeiten eine Kamera zu bewegen. Zum einen kann sie sich von einer Position zu einer anderen Position im 3D-Raum bewegen (Translation) und zum anderen kann sich die Kamera um ihre drei Achsen drehen. Dieser Vorgang wird auch als Rotation bezeichnet. Beim Ausführen einer Translation, track oder dolly, bewegt sich die Kamera in der horizontalen und bzw. oder vertikalen Ebene. Im Gegensatz dazu findet bei einer Rotation der Kamera keine Bewegung in den physisch visuellen Raum statt, sondern diese kann dazu genutzt werden, einen sich bewegenden Gegenstand zu verfolgen, indem ein Schwenken, pan, oder Neigen, tilt, der Kamera stattfindet. Beim Rollen, roll, rotiert die Kamera um die horizontale Achse, was nur die Lage eines Gegenstandes im Bild verändert und nicht ihn selbst. 23 „Diese verschiedenen Bewegungsarten und ihre diversen Kombinationen haben einen starken Einfluß auf das Verhältnis zwischen Gegenstand und Kamera (und damit auf den Zuschauer) […].“ 24 In diesem Kapitel werden ausgewählte Tools vorgestellt, mit denen es möglich ist, die Kamera in Maya zu bewegen. Nach dem Vorstellen des Dolly- und Zoom-Tool wird anschließend der daraus mögliche Vertigo-Effekt erläutert. Abb. 22 Auflistung aller Camera Tools. 23 24 Vgl. Monaco (wie Anm. 11), S. 89f Ebd., S. 90 35 3.4.1 Camera Tools 3.4.1.1 Track Tool Die Aufgabe des Track Tool besteht im Bewegen der Kamera sowohl in horizontaler als auch vertikaler Richtung (pan und tilt). Es ist weder eine Rotation noch eine Bewegung in den physisch visuellen Raum möglich. 3.4.1.2 Dolly Tool Den Gegensatz zum Track-Tool stellt das Dolly Tool dar. Mit diesem Tool ist es möglich, eine physische Kamerabewegung in den dreidimensionalen Raum von Maya hinein oder heraus zu erstellen. Das Dolly Tool hat somit nichts mit einer Änderung der Brennweite des Objektivs zu tun. 3.4.1.3 Zoom Tool Bei diesem Tool findet keine Bewegung der Kamera statt, sondern es wird die Brennweite der Linse, Focal Length, verändert. Durch ein „+“ im Icon wird angezeigt, dass die Brennweite vergrößert wird (Zoom In). Ein „-“ im Icon zeigt eine Verringerung der Brennweite an (Zoom Out). „Das Zoom-Objektiv (auch «Transfokator» oder «Gummilinse» genannt) besitzt eine veränderbare Brennweite, vom Weitwinkel bis zum Tele […]“ 25 , mit dem es möglich ist, auch während einer Aufnahme die Brennweite beliebig zu verändern und so den Gegebenheiten anzupassen. Diese Brennweitenänderungen des Objektivs sind in Maya stets zu jedem Zeitpunkt möglich. Mit einem normalen Zoom-Objektiv ist es beispielsweise möglich, Brennweiten von 10 bis 100 mm einzustellen. Bei einer Änderung dieser verändert sich die Größe des Bildausschnitts, da beispielsweise kurze Objektive einen größeren Blickwinkel haben als lange. Zusätzlich zu diesem Unterschied haben die verschiedenen Optiken auch Einfluss auf die Tiefenwahrnehmung. 26 „Zusammengefaßt: Je kürzer das Objektiv – desto weiter der Blickwinkel (und größer das Gesichtsfeld), desto stärker die TiefenWahrnehmung, desto größer die lineare Verzerrung; je länger das Objektiv – desto enger der Blickwinkel und flacher die Tiefen-Wahrnehmung.“ 27 25 Vgl. Monaco (wie Anm. 11), S. 73 Ebd., S. 73f 27 Ebd., S. 75 26 36 3.4.1.4 Roll Tool Das Roll Tool ermöglicht es, die Kamera um die horizontale Achse zu rotieren. Dabei werden nicht die Objekte in der Szene verändert, sondern nur ihre Lage im Bild. Abb. 23 Horizontal rotierte Kamera in der 3D-Szene in Maya. Abb. 24 Das Attribut Roll scale dient als Multiplikator für das Rollen der Kamera. 37 3.4.2 Vertigo-Effekt Der Vertigo-Effekt (auch als Hitchcock- oder Trombone-Effekt bekannt) erhielt seinen Namen durch den Eindruck, welchen er hervorruft: das Schwindelgefühl (englisch: „vertigo“). 28 3.4.2.1 Dolly und Zoom Der Dolly und der Zoom sind zwei verschiedene Möglichkeiten, um sich einem Objekt zu nähern oder zu entfernen. Im Grunde genommen wirkt ein Zoom ähnlich einer „Ran-Fahrt“ oder „Rück-Fahrt“. Abhängig davon, ob die Brennweite des Objektivs vergrößert oder verkleinert wurde, ändert sich das Geschehen entsprechend, indem es gleichmäßig größer oder kleiner wird. Da sich bei einem Zoom die Kamera nicht bewegt, verändern sich auch nicht die Beziehungen zwischen den Objekten auf den verschiedenen Ebenen des aufgenommenen Inhaltes. Dadurch bleibt die Perspektive, bei einer Brennweitenänderung des Objektivs, konstant und es entsteht nicht das Gefühl, sich in die Szene hineinzubewegen. Ganz im Gegenteil: es entsteht dadurch ein äußerst statischer Eindruck für die Objekte sowohl im Vorder- als auch im Hintergrund (ähnlich dem eines Fotos). Die Szene verliert einen großen Teil der Dreidimensionalität und erweckt eher das Gefühl, an ein Foto zu zoomen 29 . Im Gegensatz dazu findet bei einem dolly eine „physische“ Bewegung der Kamera in die 3D-Szene in Maya statt. Durch diese Bewegung verändern sich die räumlichen Beziehungen zwischen den vorhandenen Objekten sowie die Perspektive, welche eine Vergrößerung der Tiefenwahrnehmung unterstützt. Somit ermöglicht es eine bewegliche Kamera den Zuschauer tiefer mit einzubeziehen, da sich an Objekten vorbei- bzw. entlangbewegt wird. 30 Dies führt zu einem dramatischeren und besseren dreidimensionalen Eindruck. Ein Dolly entspricht mehr einer echten realen Kamera. 31 Folglich bedeutet dies, dass, wenn der Eindruck von Räumlichkeit vermittelt werden soll, ein Dolly die erste Wahl ist. Ein Zoom sollte verwendet werden, wenn ein zweidimensionaler Eindruck entstehen soll. 28 Vgl. Monaco (wie Anm. 11), S. 75 Vgl. McGinnis (wie Anm. 8), 54min 20sec – 57min 00sec 30 Vgl. Monaco (wie Anm. 11), S. 188f 31 Vgl. McGinnis (wie Anm. 8), 54min 20sec – 57min 00sec 29 38 „Wenn auch der Zoom oft eine billige Alternative zur Fahrt darstellt, so schafft er doch eine merkwürdige Distanz: Wir scheinen uns in größere Nähe zu begeben, ohne wirklich näher zu kommen, und das ist verwirrend, da wir im wirklichen Leben keine solche Erfahrung zum Vergleich haben.“ 32 Eine gleichzeitige Nutzung von Dolly und Zoom kann sowohl mit einer realen Kamera als auch mit einer Kamera in Maya realisiert werden. Dieser Effekt wird als VertigoEffekt bezeichnet. Es findet dabei eine Distortion (Verzerrung) und Veränderung der Perspektive statt. Es entsteht der Eindruck, dass die Realität verzerrt bzw. verändert wird, deshalb wird dieser Effekt oft genutzt, wenn ein Charakter etwas Bestimmtes sieht oder realisiert. 33 Den Dolly Zoom gibt es in zwei Variationen. Einmal den Dolly In Zoom Out (dabei wird die Kamera in die Szene hinein bewegt und die Brennweite verkleinert) sowie den Dolly Out Zoom In (Herausbewegen der Kamera aus der Szene und Vergrößerung der Brennweite). Abb. 25 Entfernung der Kamera vom Objekt: 3 Grid-Units, Brennweite beträgt 35 mm 32 33 Vgl. Monaco (wie Anm. 11), S. 188 Vgl. McGinnis (wie Anm. 8), 57min 00sec – 1h 01min 00sec 39 Abb. 26 Keine Distortion der Aufnahme 3.4.2.2 Dolly In Zoom Out Durch die Kamerabewegung in den 3D-Raum hinein wird sich an Objekten, welche sich im Vordergrund befinden, vorbeibewegt. Durch die Änderung der Brennweite verschieben sich Objekte des Hintergrundes hinter das Hauptobjekt. Im zweiten Fall des Dolly Zoom scheinen sich die Objekte im Vordergrund vor das eigentliche Hauptobjekt zu schieben. Beim Dolly Zoom sollte darauf geachtet werden, dass das Hauptobjekt in seiner Größe nicht variiert wird, sondern gleich bleibt. Bei Verwendung dieses Effektes wird der psychologische Eindruck erweckt, dass etwas bizarres vorgeht. 34 34 Vgl. McGinnis (wie Anm. 8), 59min 00sec – 1h 00min 45sec 40 Abb. 27 Brennweite der Kamera beträgt 9 mm, Entfernung vom Objekt ca. 0,5 Grid-Units Abb. 28 Dolly In Zoom Out – starke Verzerrung durch Brennweitenänderung und Kamerafahrt 41 3.4.2.3 Dolly Out Zoom In Bei dieser Variante des Dolly Zoom wird die Kamera aus der Szene herausbewegt und gleichzeitig die Brennweite vergrößert, um einen Zoom In zu realisieren. Abb. 29 Die Entfernung zum Objekt beträgt ca. 15 Grid-Units, die Brennweite 175 mm Abb. 30 Dolly Out Zoom In – starker zweidimensionaler Eindruck des Bildes 42 3.5 Camera Effects 3.5.1 Motion Blur Motion Blur ist ein fotographischer Effekt, welcher auch Bewegungsunschärfe genannt wird. Um diesen Kamera-Effekt von bestimmten Objekten in Maya zu erstellen, müssen die jeweiligen Objekte diesen Effekt auch unterstützen. Dies lässt sich folgendermaßen überprüfen: Objekt auswählen Æ Attribut Editor Æ Render Stats Æ Motion Blur (als Standardeinstellung ist Motion Blur aktiviert). Damit dieser Effekt genutzt werden kann, muss dieser in den „Render Settings“ im Tab „Maya Software“ aktiviert werden. Es gibt zwei Typen dieses Effektes: 2D- und 3D-Bewegungsunschärfe. 2D-Motion Blur ist der einfachere und schnellere (im Bezug auf die benötigte Renderzeit) von beiden Typen und wird bei einfachen Objekten genutzt. 3D-Motion Blur benötigt deutlich mehr Renderzeit und wird bei komplexen Objekten genutzt, welche sich nicht nur zweidimensional bewegen, sondern auch um die eigene Achse rotieren. Dieser Typ liefert genauere und bessere Ergebnisse als 2DMotion Blur. 35 Abb. 31 Die Einstellungsmöglichkeiten von Motion Blur 35 Vgl. McGinnis (wie Anm. 8), 1h 05min 30sec – 1h 09min 45sec 43 Mit den Einstellungsmöglichkeiten Blur by Frame und Blur Length wird die dargestellte Menge von Motion Blur beeinflusst. Blur by Frame gibt an, wie viel für das eigentlich gerenderte Frame vor- und zurückgesprungen wird, um ein möglichst akkurates Bild zu generieren. In die Berechnung zur Erstellung des Motion Blur wird demnach für die Standard-Einstellung (Blur by Frame 1) 0,2 Frame nach vorn und 0,2 Frame zurückgesprungen, um die jeweilige Veränderung der Kameraposition zu berücksichtigen. Blur Length gibt die Länge des Motion Blur an. Durch ein Erhöhen der Werte dieser beiden Einstellungsmöglichkeiten erhöht sich ebenfalls die Menge des Motion Blur. 36 Für die Erstellung der Aufnahme „Sequenz_06.0_Motion.Blur.mov“ wurde der zweidimensionale Typ des Motion Blur gewählt (die Kamerafahrt ist 1250 Frames lang, wobei das Rendern eines Frames mit 2D-Motion Blur im Durchschnitt vier Minuten dauerte [für einen von acht Rendervorgängen]). Abb. 32 2D-Motion Blur mit den Einstellungswerten Blur by Frame 1,5 und Blur Length 5 Dieser Effekt wird oft genutzt, um ein besseres Geschwindigkeitsgefühl zu vermitteln. Außerdem kann so „Verrücktes“ oder „Chaotisches“ versteckt werden. 37 36 37 Vgl. McGinnis (wie Anm. 8), 1h 05min 30sec – 1h 09min 45sec Ebd., 1h 05min 30sec – 1h 09min 45sec 44 3.5.2 Depth of Field (Schärfenbereich) „Der Ausdruck «Schärfenbereich» (Depth of Field) bezeichnet die Entfernungsspanne vor dem Objektiv, die im Bild genügend scharf erscheint. Wenn wir den Schärfenbereich mit wissenschaftlicher Genauigkeit festlegen wollten, so wäre nur eine einzige Ebene vor der Kamera wirklich scharf, die «Schärfenebene» (auch Einstellebene oder focus plane genannt).“ 38 Für die psychologische Realität gilt jedoch, dass auch stets der Bereich, welcher vor und hinter der Schärfenebene liegt, als scharf wahrgenommen wird. Sehr wichtig im Hinblick auf diesen Schärfenbereich ist die Verwendung von verschiedenen ObjektivTypen, denn diese besitzen stark unterschiedliche Eigenschaften bezüglich des Depth of Field. Beispielsweise hat ein Weitwinkel-Objektiv einen sehr tiefen Schärfenbereich, bei einem Tele-Objektiv ist dies das Gegenteil. Hier ist nur ein sehr flacher Schärfenbereich verfügbar. 39 „Es gibt zwei Achsen für die Bestimmung der Schärfe.“ 40 Die erste Achse beinhaltet entweder die Schärfentiefe oder die flache Schärfe. Bei Ersterer, welche auch deep focus genannt wird, werden Objekte vom Vordergrund bis in den Hintergrund scharf dargestellt. Die flache Schärfe ist das Gegenteil der Schärfentiefe, hier wird nur eine Ebene hervorgehoben. Dies gibt jedoch die Möglichkeit einer größeren Kontrolle über das Bild, da bestimmte Objekte des Bildes scharf dargestellt und somit hervorgehoben werden können. „Die zweite Achse ist das Kontinuum zwischen harter und weicher Schärfe.“ 41 Letztere von beiden wird sehr oft mit romantischen Stimmungen in Verbindung gebracht. Ein Weichzeichner verursacht jedoch ebenfalls eine Glättung des Bildes. Die harte Schärfe entspricht eher der Realität und wird deshalb eher mit Naturtreue in Verbindung gebracht. 42 Bei Aufnahmen mit einer realen Kamera gibt es unterschiedliche Distanzen im Aufnahmebereich. Es gibt Objekte, welche scharf dargestellt werden, da sie sich im Fokus der Kamera befinden, und es gibt Objekte, die weniger scharf dargestellt 38 Vgl. Monaco (wie Anm. 11), S. 78 Ebd., S. 78f 40 Ebd., S. 185 41 Ebd., S. 185 42 Ebd., S. 185 39 45 werden. Diese befinden sich nicht im Fokus der Kamera, sondern sind von diesem Schärfenbereich entfernt. Diese Objekte erscheinen unscharf. Die Standard-Einstellungen von Maya sehen keine Tiefenunschärfe vor. Diese muss durch die Attribute von Depth of Field eingestellt werden. Normalerweise werden in Maya alle Objekte stets scharf gerendert, dass bedeutet, dass in diesem Programm ein unendlicher Schärfenbereich vorliegt. 43 Abb. 33 Die Einstellungsmöglichkeiten von Depth of Field Focus Region Scale gibt den Bereich in Grid-Units an, welcher durch die Focus Distance scharf dargestellt wird. Dies bedeutet, dass bei einer Focus Distance von 1.5 und einem Focus Region Scale von 5 in einer Entfernung von 1,5 Grid-Units vor der Kamera der Schärfenbereich dargestellt wird. Durch den Focus Region Scale wird dieser Schärfenbereich um bis zu 2,5 Grid-Units vor und hinter die Schärfenebene ausgedehnt. Durch die Einstellungsmöglichkeit von „F Stop“ kann dieser Schärfenbereich jedoch noch zusätzlich verändert werden. Mit „F Stop" kann eingestellt werden, wie groß der Bereich des Fokus ist, in dem die Stärke der Tiefenunschärfe erhöht bzw. verringert wird. Außerhalb des Fokus liegende Objekte werden unscharf dargestellt. Bei einem höheren Wert von „F Stop“ ist der Bereich des Fokus größer, da die Stärke der Tiefenunschärfe abnimmt. Bei einem niedrigeren Wert verringert sich der scharf gestellte Bereich. 44 „F Stop“ ist die „Maßangabe der Größe der Blendenöffnung, […]. Je höher die f-Zahl, desto weniger Licht wird eingelassen“ 45 und gleichzeitig wird ein größerer Schärfenbereich ermöglicht. Es wird somit kontrolliert, wie viel Licht auf den Film trifft. 43 Vgl. McGinnis (wie Anm. 8), 1h 17min 00sec – 1h 24min 00sec Ebd., 1h 17min 00sec – 1h 24min 00sec 45 Vgl. Monaco (wie Anm. 11), S. 387 44 46 Abb. 34 Depth of Field mit Focus Distance 1.5 , „F Stop” 30 und Focus Region Scale 5 Depth of Field kann genutzt werden, um ein Objekt in den Mittelpunkt einer Szene zu rücken. Dabei wird der wichtige Bildausschnitt scharf und der weniger wichtige Teil des Bildes unscharf dargestellt. Durch Nutzen dieses Effektes kann der Blick auf bestimmte Objekte gelenkt und somit stark beeinflusst werden. Ebenfalls wird eine Isolation der Objekte auf der Schärfenebene hervorgerufen. 46 Auf der folgenden Seite sind, für ein besseres Verständnis, Bilder mit unterschiedlichen Rendereinstellungen bezüglich Depth of Field erstellt worden. Ein visueller Vergleich zeigt die unterschiedlichen Einstellungsmöglichkeiten am deutlichsten. 46 Vgl. McGinnis (wie Anm. 8), 1h 17min 00sec – 1h 24min 00sec 47 Abb. 35 Focus Distance 0.5 F Stop 30 Focus Region Scale 1 Abb. 36 Focus Distance 0.5 F Stop 50 Focus Region Scale 1 Abb. 37 Focus Distance 0.5 F Stop 30 Focus Region Scale 2 Abb. 38 48 Focus Distance 0.5 F Stop 30 Focus Region Scale 7 3.5.3 Rack Focus (Schärfenverlagerung) Als Rack Focus wird die Verlagerung der Schärfenebene innerhalb einer Einstellung bezeichnet. Dabei wird die Schärfenebene von einem Objekt, beispielsweise im Vordergrund, auf ein anderes Objekt, z. B. im Hintergrund, verlagert. Um diesen Kamera-Effekt in Maya zu erstellen, wird auf das Depth of Field (Schärfenbereich) zurückgegriffen. Mit dem Attribut Focus Distance ist es möglich, die Schärfenebene, focus plane, der Kamera in Maya zu verlagern. Nachdem die Informationen über die Entfernung der Objekte zur Kamera bekannt sind - durch das Attribut Center of Interest können die Grid-Units ausgewertet werden - müssen diese nur noch unterschiedlichen Zeitpunkten der Einstellung der Focus Distance zugeordnet werden, indem man mindestens zwei Keyframes für dieses Attribut setzt. 47 Abb. 39 Links: Kamera mit zwei Gebäudegruppen, welche jeweils eine Schärfenebene repräsentieren. Abb. 40 Rechts: Ansicht durch die Rack Focus Kamera. Zum Zeitpunkt 1 wird die Entfernung der vorderen Gebäudegruppe zur Kamera als Wert für die Focus Distance genutzt (Entfernung 1.5 Grid-Units). Zum Zeitpunkt 2 wird die Entfernung der hinteren Gebäude zur Kamera genutzt, um der Focus Distance einen korrekten Wert zuzuweisen (Entfernung 15 Grid-Units). 47 Vgl. McGinnis (wie Anm. 8), 1h 24min 00sec – 1h 30min 00sec 49 Abb. 41 Focus Distance: 1.5 - Schärfenebene mit Gebäuden im Vordergrund Abb. 42 Focus Distance: 15 - Schärfenebene mit Gebäuden im Hintergrund „Es gibt zwei Hauptarten von Schärfenwechsel innerhalb der Einstellung: Schärfenmitführung – die Schärfe wird gewechselt, damit die Kamera einen sich bewegenden Gegenstand scharf behalten kann – und Schärfenverlagerung – die Schärfe wird verändert, um unsere Aufmerksamkeit von einem Gegenstand weg zu 50 einem anderen zu lenken, zum Beispiel von einem Gegenstand im Hintergrund zu einem im Vordergrund.“ 48 Bei der Schärfenmitführung ist es im Gegensatz zu der Schärfenverlagerung wichtig, dass die Aufmerksamkeit durch die Schärfenebene auf dem Objekt ruht. Durch die Schärfe wird es ermöglicht, die gesamte Konzentration auf eine einzige Ebene zu verlagern. 49 Aus psychologischer Sicht kann der Regisseur der Aufnahme, durch Verwendung eines Rack Focus, dem Zuschauer mitteilen, welches Objekt ihm im jeweiligen Augenblick wichtig ist. 50 3.5.4 Fish Eye Camera Eine Fish Eye Camera besitzt normalerweise ein sehr großes Sichtfeld. Das verwendete Weitwinkel-Objektiv besitzt einen Blickwinkel von nahezu 180 Grad und nimmt damit diese extreme Verzerrung der linearen und Tiefen-Wahrnehmung auf. Die Fish Eye Camera wird auch einfach als das «Fischauge» bezeichnet. 51 In Autodesk Maya kann dieser Effekt sehr einfach erstellt werden, dafür wird jedoch zusätzlich zur Kamera eine Halbkugel benötigt, welche am vorderen Teil der Kamera (Objektiv) angebracht wird. Durch diese Konstruktion ist es nun möglich, die Reflektion der Umgebung in der Halbkugel zu rendern. So entsteht der typische Verzerrungseffekt. 48 Vgl. Monaco (wie Anm. 11), S. 185 Ebd., S. 185 50 Vgl. McGinnis (wie Anm. 8), 1h 24min 00sec – 1h 30min 00sec 51 Vgl. Monaco (wie Anm. 11), S. 71f 49 51 Abb. 43 Erstellte Fish Eye Camera in Maya mit Halbkugel für Verzerrung Abb. 44 Der Fish Eye Effekt mit seiner bekannten Distortion 52 3.6 Graph Editor Der Graph Editor ist einer der am meisten genutzten Editoren in Maya, wenn eine Animation nachbearbeitet werden muss. Im Zusammenhang mit dieser Diplomarbeit wurden alle 20 Bewegungsabläufe der Kamera mit Hilfe dieses Editors angefertigt. Nachdem der grobe Kameraverlauf sowie sonstige Eigenschaften der Kamera, beispielsweise Brennweite, durch Setzen von Keyframes erstellt wurde, kann anschließend mit dem Graph Editor die bestehende Animation verfeinert werden. Dafür muss das entsprechende Objekt einfach ausgewählt werden. Nun werden in der linken Übersicht alle zur Verfügung stehenden Attribute aufgelistet. Die bestehenden Animationen, z. B. Translate X, Translate Y und Translate Z für eine Bewegung des Objektes, werden durch Graphen dargestellt. Die schwarzen Punkte auf diesen Graphen stellen Keyframes dar. An diesen Stellen kann durch Nutzen von Tangenten der Verlauf des Graphs verändert werden. Eine Gewichtung und Brechung dieser ist ebenfalls möglich, um die gewünschte Animation des Objektes zu erstellen. Die Keyframes selbst können in ihrem Wert auch verändert werden. Auf diese Weise sind sehr feine Bewegungen animierbar. Abb. 45 Der Graph Editor mit Kamera „RenderCAM_07_IV_“. In dieser Übersicht sind alle zu veränderbaren Attribute aufgelistet. 53 4. Apple Shake „In der Filmindustrie teilt man den Arbeitsprozeß in drei Phasen: Pre-Production, Dreharbeiten, Post-Production.“ 52 Die Pre-Production umfasst sämtliche Vorbereitungen, die getroffen werden müssen, damit der eigentliche Film überhaupt entstehen kann. Es müssen Drehbücher geschrieben, Schauspieler und Techniker engagiert sowie das Budget veranschlagt werden. In der zweiten Phase wird der eigentliche Film gedreht und damit das für die dritte Phase notwendige Rohmaterial produziert. Die Post-Production selbst läuft in mehreren unterschiedlichen Arbeitsschritten gleichzeitig ab: Der Schnitt, die Musik und das Composting. Im letzterem Arbeitsschritt werden sämtliche Spezialeffekte für den Film erstellt. 53 4.1 Was ist Compositing? Compositing gibt es schon seit vielen Jahren und fand seinen eigentlichen Ursprung in der Fotografie. Fotografen kombinierten damals ihre unterschiedlichen Negative im „Dunkel-Raum“, um ihr fertiges Bild zu erstellen. 54 Abb. 46 Links: Bild 1 ohne Nachbearbeitung. Abb. 47 Rechts: Bild 2 mit erhöhter Brightness (Helligkeit) gegenüber von Bild 1 52 Vgl. Monaco (wie Anm. 11), S. 116 Ebd., S. 117 54 Jackemuk, Gary: „Visual Effects Compositing Fundamentals. Production Compositing Techniques with Gary Jackemuk.” (Video) The Gnomon Workshop, Chapter 1, 00min 10sec – 5min 00sec 53 54 Das erste Bild hat einen relativ dunklen Vordergrund, der nicht in das eigentliche Gesamtbild passt. Durch Erhöhen der Helligkeit wird jedoch nicht nur der Vordergrund, sondern das gesamte Bild heller. Damit ist der Hintergrund jedoch zu „stark beleuchtet“, der Vordergrund besitzt nun im Gegensatz dazu sehr angenehme Farbwerte. Somit würden der Hintergrund von Bild 1 und der Vordergrund von Bild 2 eine passende Komposition ergeben. Eine Möglichkeit zum Zusammenfügen dieser beiden Inhalte stellen Matte dar. Matte sind unterschiedlich erstellbare schwarz-weiß Bilder, welche für die Separation oder Hinzufügung von Inhalten genutzt werden können. Abb. 48 Matte für Bild 1 (Vordergrund) sowie invertierte Matte für Bild 2 (Hintergrund) Durch Erstellen und Nutzen einer Matte können anschließend der Vordergrund von Bild 1 und der Hintergrund von Bild 2 (bei invertierter Matte) separiert werden. Abb. 49 Diese zwei Composites können anschließend miteinander kombiniert werden und ergeben zusammen das gewünschte Resultat. Ein Composite (bedeutet soviel wie „Gemisch“) ist ein durch Compositing erstellter Inhalt. 55 Abb. 50 Bildes. Das fertige Composite: aufgehellter Vordergrund und originaler Hintergrund des Dieses einfache Beispiel soll als Einführung in Compositing dienen, durch das es sehr viel einfacher ist, Änderungen an bereits erstellten Inhalten vorzunehmen. Beispielsweise können lokale Farb- oder Helligkeitsanpassungen sehr einfach nachträglich getätigt werden, ohne dass eine komplette Einstellung noch einmal neu gedreht oder gerendert werden muss. 4.2 Das Interface von Shake Die Benutzeroberfläche von Shake ist in vier Bereiche unterteilt. Den Viewer zum Darstellen der Bilder, die Node-View-Area zum Erstellen des Node-Tree sowie die Tool-Tab-Area, die alle Tools beinhaltet, die benötigt werden, um einen Node-Tree zu erstellen und somit ein Bild beziehungsweise eine Sequenz optisch zu verändern. Dabei erscheint der gewählte Node nach dem Anklicken in der Tool-Tab-Area direkt als Node in der Node-Tree-Area. Den vierten Bereich stellt die Parameter-Area dar, in der die Einstellungen für die unterschiedlichen Nodes getroffen werden. 56 Abb. 51 Das Interface von Shake mit seinen vier Bereichen: der Viewer, die Node-TreeArea, die Tool-Tab-Area und die Parameter-Area (v.l.o.n.r.u.) 4.3 Grundlagen von Shake In diesem Abschnitt sollen Grundlagen vermittelt werden, welche für das Compositing notwendig sind. Das Verstehen und Nutzen des Alpha Kanals, des Over und Rotoshape Node sind essentiell, um Inhalte sowohl zusammenzuführen als auch zu trennen. 4.3.1. Alpha Kanal Der sogenannte Alpha Kanal wird oft auch als Matte Channel bezeichnet. Bis auf den unterschiedlichen Namen sind diese identisch. Ein Alpha Kanal zeigt an, wo im Rot-, Grün- und Blau-Kanal eines Bildes Daten vorhanden sind. Darüber hinaus wird nicht nur die Position der vorhandenen Daten, sondern auch die mögliche Transparenz anzeigt. Wenn ein Alpha Kanal beispielsweise bei einem Wert von 50 Prozent (Grauton) liegt, bedeutet dies, dass der eigentliche Farbton der RGB Kanäle, die das Bild an dieser Position hätte, ebenfalls nur zu 50 Prozent angezeigt wird. 57 Alle 3D-Animations- und Modellierungswerkzeuge (Maya, 3D Studio Max, Cinema 4D, Lightwave, XSI) erstellen beim Rendern für jedes Bild einen optionalen Alpha Kanal zusätzlich (RGBA für Rot, Grün, Blau, Alpha). Abb. 52 Auf der linken Seite sind die RGBInformationen des Bildes zu sehen, auf der rechten Seite ist der Alpha Kanal (weiße Fläche) des Bildes dargestellt Nur in Regionen, in denen der Alpha Kanal vorhanden ist, gibt es sichtbare Informationen. Schwarze Regionen sind vollständig transparent und somit nicht sichtbar. Grautöne, wie an den Rändern des weißen Bereiches, werden entsprechend halbtransparent dargestellt. Es ist möglich, einen Alpha Kanal nachträglich einem Bild in Shake hinzuzufügen. 4.3.2 Over Node Der Over Node wird auch als das Workhorse of Compositing 55 bezeichnet. Mit diesem Node ist es möglich verschiedenste Inhalte - Images - „übereinanderzulegen“. Für dieses Layering ist die Nutzung des Alpha Kanals prädestiniert, denn es werden dadurch nur die gewünschten Bereiche des „Vordergrund-Bildes“ angezeigt, an denen der Alpha Kanal vorhanden ist. Der Over Node kann sowohl mit UnPremultiplied als auch Premultiplied Images genutzt werden. Letzteres von beiden bedeutet, dass das Bild bereits einen Alpha Kanal besitzt. Ein UnPremultiplied Image besitzt im Gegensatz dazu keinen, welcher jedoch mit dem Node MMult (MatteMult) dem Bild hinzugefügt werden kann. Eine mathematische Formel für den Over Node würde so aussehen: 55 Vgl. Jackemuk (wie Anm. 54), 2h 11min 00sec – 2h 12min 00sec 58 für UnPremultiplied Images (ohne Alpha Kanal) gilt Folgendes: ((A*Aa)+((1-Aa)*B)) Multipliziere Bild 1 (A) mit seinem Alpha Kanal (Aa) – Premultiplication. Bilde die Inverse des Alpha Kanals von Bild 1 (1-Aa) und multipliziere dies mit Bild 2 (B). Abschließend lege Bild 1 über Bild 2. 56 für Premultiplied Images (mit Alpha Kanal) gilt folgendes: (A + ((1-Aa)*B)) Die Schritte entsprechen denen für UnPremultiplied Images. Es fällt nur der Schritt weg, in dem für Bild 1 ein Alpha Kanal erstellt wird, da dieses schon einen besitzt. 57 Bild 2 benötigt im Gegensatz zu Bild 1 keinen Alpha Kanal. Der Grund dafür ist in der Formel ersichtlich. Bild 1 wird über Bild 2 „gelegt“, dafür werden die Transparenzinformationen von Bild 1 benötigt - wo es sichtbar ist und wo nicht. Bild 2 hingegen wird nur verdeckt und braucht somit keinen Alpha Kanal. 58 Abb. 53 Der Over Node mit zwei Inputs (Bild 1 und Bild 2) 56 Vgl. Jackemuk (wie Anm. 54), 2h 11min 00sec – 2h 14min 00sec Ebd., 2h 11min 00sec – 2h 14min 00sec 58 Ebd., 2h 14min 00sec – 2h 18min 00sec 57 59 4.3.3 Rotoshape Node Shake unterstützt Rotoscoping durch den Rotoshape Node. Unter Rotoscoping versteht man das Freistellen von Bildteilen. „Nicht selten ist es hierbei oftmals notwendig, einzelbildweise Masken für Objekte zu ziehen, d.h. die Umrisslinie eines Objekts nachzuziehen, um das Objekt auszuschneiden. Dies geschieht meist, um ein anderes Objekt in den Hintergrund einfügen zu können.“ 59 Ein anderer Grund könnte auch das lokale Verändern eines einzelnen Objektes im Bild sein. Dies ist in der unteren Abbildung der Fall. Abb. 54 Der Brightness Node besitzt einen Matte Input, dargestellt durch den kleinen roten Kreis, in den ein Rotoshape Node eingefügt werden kann. Das oben dargestellte Bild ist folgendermaßen zu verstehen: „N02“ ist eine ImageSequenz, welche mit einem Brightness Node verbunden ist. Da das Ändern der Helligkeit jedoch nicht auf das vollständige Bild angewendet werden soll, sondern nur lokal auf ein ausgewähltes Objekt, muss ein Rotoshape Node genutzt werden. In diesem wird nun das Objekt mit einer Umrisslinie (vgl. Viewer und Rotoshape Node im obigen Bild) nachgezogen. Durch Einfügen der gezeichneten Maske in den Matte Input des Brightness Node wird nun die Helligkeitsänderung auf das ausgewählte 59 http://www.idagrove.de/RotoscopingArtist.html (letzter Zugriff am 27.01.2009) 60 Objekt beschränkt. Der außerhalb der Maske liegende Bildteil wird von der Änderung nicht betroffen (vgl. mit Abschnitt 4.4.1 lokale dynamische Helligkeitsänderung). 4.4 Ausgewählte Effekte Einen anderen Ansatz als das Verwenden des Rotoshape Node stellt das untere Bild dar. Hier wurde, wie im Node Tree ersichtlich ist, für das Separieren des Objektes (Gebäude) eine eigene Image-Sequenz erstellt. Dazu wurde das entsprechende Objekt einzeln in Maya gerendert und anschließend als eigene Sequenz in Shake importiert. Durch Nutzen des Over Node und der eigentlichen Bilderfolge „N02“ ist es bei der Ausgabe nicht ersichtlich, dass es sich bei einer Ebene um einen eigenständig anpassbaren Layer handelt. Abb. 55 Eine Ebene (ein einzelnes Gebäude als Image-Sequenz „layer“) als eigener Layer im Vordergrund (oberste Ebene) Dieses Layering wird in Abschnitt 4.4.2 und 4.4.3 verwendet. 61 4.4.1 Lokale dynamische Helligkeitsänderung Als Grundlage für die Helligkeitsänderung eines einzelnen Gebäudes wird an dieser Stelle der Node Tree, wie in Abschnitt 4.3.3 Rotoshape Node beschrieben, verwendet. Durch eine Maske wird das Objekt separiert und kann fortan eigenständig verändert werden. Der Brightness Node ist ein einfacher Multiplikator der RGB Kanäle. Falls nur ein Kanal, Rot, Grün oder Blau, in der Helligkeit verändert werden soll, muss der Mult Node verwendet werden. Wenn der Brightness value größer als 1 ist, wird der Inhalt aufgehellt. Ein Verringern des Wertes unter 1 bringt ein abdunkeln des Inhaltes mit sich. Bei einem Wert von 0 erscheint der Inhalt vollständig schwarz. Abb. 56 Der Brightness value wurde auf einen Wert von 4 erhöht und hellt damit den Inhalt des Rotoshapes, welches mit dem Brightness Node verbunden ist, auf. 62 Abb. 57 Auf dieser Abbildung wurde der Brightness value auf 0.1 verringert. Damit wird der entsprechende Bereich abgedunkelt. 4.4.2 Änderung des ColorSpace und Erstellung von Glow Rot, Grün und Blau sind die Farben, die ein Monitor normalerweise „erwartet“. Es ist in Shake jedoch möglich, den ColorSpace von RGB in einen Anderen zu ändern und sich diesen anzeigen zu lassen. Nach der Überführung von RGB in HLS (Hue, Luminance und Saturation) wird gezeigt, wie ein Glow-Effekt in Shake erstellt werden kann. An Hand dieses Effektes wird sehr anschaulich erläutert, dass Shake einen sehr atomar aufgebauten Workflow besitzt. Für die Erstellung des Glow sind beispielsweise zwei Nodes nötig. Zum einen ein Blur und zum anderen ein Brightness Node. Durch diesen atomaren Aufbau ist eine bessere Kontrolle des Node Tree gegeben, jedoch steigt dadurch die Komplexität dessen deutlich an. 60 In diesem Beispiel wird ein Gebäude, an welchem die Änderung des ColorSpace sowie die Erstellung des Glow gezeigt wird, als eigenständige Ebene namens „layer“ verwendet. Es wird kein Rotoshape Node genutzt. 60 Vgl. Jackemuk (wie Anm. 54), 2h 46min 30sec – 2h 53min 00sec 63 Abb. 58 Eigenständige Ebene „layer“ mit einzelnem Gebäude als Image-Sequenz Die ColorSpace Funktion ermöglicht es, ein Bild, welches einem Farbraum entspricht, in einen anderen Farbraum umzuwandeln. Es entstehen durch diese Änderung sehr originelle Farben, da der Monitor normalerweise einen RGB Farbraum darstellt. Insgesamt stehen in Shake sechs verschiedene Farbräume zur Verfügung. Dies sind unter Anderem RGB (Rot, Grün, Blau), CMY (Cyan, Magenta, Yellow), HLS (Hue, Luminance, Saturation) und HSV (Hue, Saturation, Value). An dieser Stelle wird der ColorSpace Node genutzt, um von RGB in HLS zu wechseln. Shake geht bei Anwendung dieser Funktion folgendermaßen vor: es wird der Red Channel mit dem Hue Channel, der Green Channel mit dem Lunminance Channel und der Blue Channel mit dem Saturation Channel ersetzt. Nach dem Umwandeln können verschiedenste Farbkorrekturen im neuen Farbraum getätigt werden, um anschließend durch Nutzen eines weiteren ColorSpace Node in den eigentlichen Farbraum zurückzuwechseln. 61 61 Apple Computer, Inc.: “Shake 4 User Manual.” Cupertino 2005, S.646ff 64 Abb. 59 Der ColorSpace Node mit seinen Einstellungsmöglichkeiten. inSpace entspricht dem „Ausgangsfarbraum“ und outSpace dem „Zielfarbraum“. Der Blur Node wird genutzt, um ein Bild mit Unschärfe zu versehen. Dafür gibt es unterschiedliche Einstellungsmöglichkeiten. Standardmäßig wird gaussian blur in sowohl horizontale als auch vertikale Richtung verwendet. Unter dem Parameter pixels wird die Stärke der Unschärfe in Pixel eingestellt. Ein Wert von 100 bedeutet, dass 100 Pixel auf beiden Seiten des Bezugpunktes geblurt werden. Dabei ist standardmäßig die horizontale und vertikale Richtung (xPixels und yPixels) miteinander verbunden, so dass eine gleichmäßige Unschärfe entsteht. Durch Trennen der Abhängigkeit voneinander ist es möglich in nur eine Richtung, also in horizontale oder vertikale Richtung, Unschärfe zu erstellen. 62 Durch Nutzen des Blur wird das eigentliche Objekt - das Gebäude - sehr unscharf dargestellt. Jedoch wird dadurch eine Vergrößerung um 100 Pixel in horizontale als auch vertikale Richtung erzeugt. Diese Ausbreitung wird im Folgenden durch den Brightness Node genutzt. 62 Vgl. Apple (wie Anm. 61), S. 864f 65 Abb. 60 Der Blur Node mit seinen Parametern. Die Unschärfe ist in diesem Fall bis zu 100 Pixel in jede Richtung vom „Bezugpixel“ entfernt. Der Brightness Node wurde bereits in Kapitel 4.4.1 vorgestellt. In diesem Fall wird er dazu genutzt, um die zuvor erstellte Unschärfe aufzuhellen. Abb. 61 Durch das Erhöhen der Helligkeit wird dass durch den Blur ausgeweitete Objekt aufgehellt. 66 Durch den Over Node werden, bedingt durch die Anzahl der vorhandenen Inputs, zwei Bilder übereinander gelegt. Es gibt dafür die beiden Parameter Foreground und Background, wobei der Vordergrund über den Hintergrund gelegt wird. In diesem Falle sind das zum einen das durch den Node ColorSpace umgewandelte Bild als Input für den Foreground, und zum Anderen das mit den Node Brightness aufgehellte Bild für den Background. Es spielt keine Rolle, dass es sich bei dem Bild um das in seiner Grundform identische Bild handelt. Der Vordergrund wird über den Hintergrund gelegt, so dass nun deutlich die durch den Blur verursachte Ausweitung sichtbar ist. Der Hauptteil des Blur ist nicht sichtbar, da dies durch das Bild, welches sich im Vordergrund befindet, überlagert wird. Abb. 62 Die Ausweitung des Blur ist im Viewer sehr gut erkennbar. Der Fade Node besitzt nur einen Parameter, den fade value. Mit diesem ist es möglich, ein Bild in seiner Darstellung ein- oder auszublenden. In diesem Beispiel wird die Ebene „layer“ um 20 Prozent in ihrer „Darstellungsstärke“ reduziert, um anschließend als Vordergrund für den folgenden Over Node zu fungieren. 67 Abb. 63 Der fade value mit einem Wert von 0.8 bedeutet, dass das Bild mit nur 80 Prozent seiner normalen „Darstellungsstärke“ angezeigt wird. 4.4.3 Warper Der Warper Node ermöglicht das Deformieren, das Verzerren, eines Bildes. Dazu werden unterschiedliche Shapes („Umrisslinien“) benötigt. Diese können zu jedem Zeitpunkt kontrolliert und durch Keyframes animiert werden, um so eine Verzerrung hervorzurufen. Für den Warper Node gibt es insgesamt vier verschiedene „Umrisslinien“, welche miteinander in Verbindung stehen. Durch diese Shapes wird beispielsweise definiert, welcher Teil des Bildes um wie viel verzerrt werden soll. 63 Die folgende Grafik zeigt die verschiedenen zur Verfügung stehenden Shapes. 63 Vgl. Apple (wie Anm. 60), S. 821ff 68 Abb. 64 Die unterschiedlichen Shapes für die Nutzung des Warper Node. Source Shape: Dies sind „Umrisslinien“, welche um das zu verzerrende Objekt gezogen werden müssen. Die Farbe dieser Shapes ist hellblau. 64 Target Shape: Diese Shapes spiegeln die Form des Objektes wieder, welche nach der Verzerrung erreicht werden soll. Durch eine dunkelblaue Farbe ist dieser Typ gekennzeichnet. 65 Connection Line: Um einen Warp Effekt zu erstellen, müssen das Source Shape und das zugehörige Target Shape miteinander verbunden werden. Wenn dies geschieht, werden automatisch Connection Lines zwischen den beiden Shapes erstellt. Diese zeigen die jeweiligen Bezugspunkte, welche zwischen dem Source- und Target Shape auch nach der Verformung übereinstimmen. Die Farbe dieser Linien ist lila. 66 Boundry Shape: Dieser Typ von „Umrisslinien“ stellt die Begrenzung für die Deformation dar. Nur innerhalb dieser orangenen Shapes sind Verzerrungen möglich. 67 64 Vgl. Apple (wie Anm. 61), S. 823 Ebd., S. 823 66 Ebd., S. 823 67 Ebd., S. 823 65 69 Abb. 65 Objektes Der Warper Node mit Source- und Target Shape jedoch ohne Verformung des Abb. 66 Bei dieser Verzerrung des Objektes sind sehr schön die unterschiedlichen Shapes erkennbar 70 5. Cinematographic Terminology Der Begriff Cinematographic Terminology setzt sich aus den zwei Wörtern cinematography (zu deutsch: Kinematografie) und terminology zusammen. Ersteres bedeutet soviel wie Filmkunst 68 , letzteres kann als Fachsprache 69 übersetzt werden. Diese „Fachsprache der Filmkunst“ behandelt u. a. die verschiedenen Distanzen zwischen Kamera und Objekt sowie Kamerawinkel, welche bei den Aufnahmen beachtet werden sollten. „Der Film ist keine Sprache in dem Sinne, wie Englisch, Französisch oder Mathematik Sprachen sind. Zunächst einmal ist es im Film unmöglich, «ungrammatisch» zu sein. Es ist auch nicht nötig, ein Vokabular zu lernen.“ 70 Jedoch hat ein Film sehr viel mehr mit einer Sprache gemein als zunächst vermutet. Durch ein Kennen lernen der Quasisprache des Films gibt dies dem Zuschauer die Möglichkeit, einen Film besser zu deuten. Darüber hinaus kann vorausgesetzt werden, dass jeder Mensch sowohl ein visuelles Bild wahrnehmen als auch erkennen kann. Jedoch muss dabei beachtet werden, dass in unterschiedlichen Kulturen auch die einfachsten visuellen Bilder etwas anderes aussagen können. Dieser Umstand sollte stets Beachtung finden. Es kann aber daraus geschlussfolgert werden, dass Bilder von einem Menschen gelesen werden müssen. 71 Anhand eines kleinen Beispiels soll an dieser Stelle kurz verdeutlicht werden, welche Entscheidungen für die Aufnahme eines Bildes getroffen werden können: „Die Rose ist aus einem bestimmten Winkel gefilmt, die Kamera bewegt sich oder bewegt sich nicht, die Farbe ist leuchtend oder stumpf, die Rose frisch oder welk, die Dornen sichtbar oder versteckt, der Hintergrund klar (so daß die Rose im Zusammenhang gesehen wird) oder verwischt (so daß sie isoliert erscheint), die Aufnahmedauer ist lang oder kurz […].“ 72 68 http://www.medialine.de/deutsch/wissen/enzyklopaedisches-woerterbuch.php?ext_pfad=bkb&snr=3 036 (letzter Zugriff am 27.01.2009) 69 http://www.medialine.de/deutsch/wissen/enzyklopaedisches-woerterbuch.php?ext_pfad=bkb&stichw ort=terminology&x=0&y=0 (letzter Zugriff am 27.01.2009) 70 Vgl. Monaco (wie Anm. 11), S. 134 71 Ebd., S. 134 72 Ebd., S. 145 71 5.1 Aufnahme-Distanz „Filmemacher benutzen eine Fülle von Begriffen in bezug auf die Einstellung. Die Faktoren […] schließen die Entfernung ein, die Bildschärfe, den Winkel, die Bewegung und den Standpunkt.“ 73 5.1.1 Distanz-Aufnahme Bei einer Distanz-Aufnahme ist die Kamera, wie es der Name schon erahnen lässt, vom Geschehen entfernt. Das bedeutet, es wird die Einstellung aus einer gewissen Entfernung aufgenommen. Die Totale sowie die Panorama-Einstellung sind Distanz-Aufnahmen. Der Establishing Shot ist eine besondere Form der Totalen. Diese Kameraeinstellung wird auch als „(d)ie einführende Einstellung“ bezeichnet. Der Name kommt daher, weil sie am Anfang eines Films eingesetzt wird, um einen Überblick über den Schauplatz zu geben, und so mitzuteilen, wo sich das Geschehen gerade abspielt. Dazu wird sehr oft eine erhöhte Kameraposition mit einem etwas dem Boden zugeneigten Kamerawinkel gewählt. 74 Zusätzlich soll der Establishing Shot oft die Zeit und andere wichtige Informationen wiedergeben. 75 „[…] (E)in Film, der hauptsächlich aus Totalen besteht […], (betont) den Kontext vor dem Drama und die Dialektik vor der Persönlichkeit.“ 76 Keine dieser Distanz-Aufnahmen hat einen Bezug zu der Verwendung der Brennweite des Objektivs. Bei diesen Einstellungen spielt die Brennweite keine Rolle, sondern nur die Entfernung zwischen Kamera und dem aufgenommen Geschehen. Es werden aber auch Einstellungen nach den Objektiven benannt, „[…] zusätzlich zu ihrer Definition durch Begriffe, die auch aus der Entfernung zum Objekt ableiten.“ 77 73 Vgl. Monaco (wie Anm. 11), S. 182 Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec 75 Vgl. Monaco (wie Anm. 11), S. 197 76 Ebd., S. 182ff 77 Ebd., S. 183 74 72 Abb. 67 Establishing Shot mit erhöhter Kameraposition und geneigtem Kamerawinkel 5.1.2 Normal-Aufnahme Die so genannten Normal-Einstellungen schließen folgende Einstellungen ein: den Over-the-Shoulder Shot (Kopf-und-Schulter-Einstellung), Two Shot, Medium Shot, die Halbnah Einstellung, die «amerikanische» Einstellung und den Full Shot (Halbtotale). 78 Diese werden dadurch definiert, was in der Aufnahme vom entsprechenden Objekt zu sehen ist. 79 „Es ist […] festzuhalten, daß diese Begriffe in der Praxis recht unterschiedlich verwendet werden. Die Nahaufnahme des einen ist für den anderen eine «Großaufnahme», […].“ 80 In den vom Autor dieser Diplomarbeit verwendeten Quellen gibt es unterschiedliche Auffassungen über verschiedene Einstellungen (Halbnah Einstellung und Medium Shot). Im Folgenden werden die unterschiedlichen Normal-Aufnahmen vorgestellt: 78 Vgl. McGinnis (wie Anm. 8), 1h 44min 00sec – 1h 49min 00sec Ebd., S. 182 80 Ebd., S. 183 79 73 Abb. 68 Der Full Shot (Halbtotale) zeigt den größten Bildausschnitt für eine NormalEinstellung. Es werden etwa ein oder mehrere Objekte samt ihrem Umfeld dargestellt. 81 Abb. 69 Der Medium Shot zeigt etwa ein Objekt, hier beispielhaft eine Person, in seiner vollen Größe. 82 Außerdem ist normalerweise auch der Hintergrund gut erkennbar. Abb. 70 „In der halbnahen Einstellung wird ein(e) Person vom Kopf bis zur Hüfte gezeigt. Dadurch sind Mimik und Gestik gut erkennbar. Dieser Ausschnitt entspricht auch der natürlichen Sehsituation und wird daher in Dial(o)gszenen oft verwendet.“ 83 81 Vgl. Monaco (wie Anm. 11), S. 395 Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec 83 http://www.cd-agent.de/Film/Lexikon/Halbnahe-Einstellung.htm (letzter Zugriff am 27.01.2009) 82 74 Abb. 71 Die Amerikanische Einstellung zeigt einen Bildausschnitt, der sich zwischen einer Nah- und Halbnah-Einstellung bewegt. (Vgl. McGinnis (wie Anm. 8), 1h 40min 50sec – Audiospur, Bild: Kath) Das bedeutet, es wird bei einer Person, welche sich auf der mittleren Bildebene befindet, etwa der Kopf bis Knie dargestellt. Abb. 72 Ein Two Shot, auch als ZweierEinstellung bekannt, ist eine Einstellung, in der zwei Charaktere zu sehen sind. 84 Diese Einstellung wird normalerweise zum Beginn eines Over-the-Shoulder Shots genutzt, um die beiden Charaktere einzuführen. Anschließend folgt eine EinerEinstellung, bei welcher stets einer der Teilnehmer abwechselnd zuhört und spricht. Diese Montage von Einstellungen wird auch „Hollywood-Dialogstil“ genannt. 85 84 85 Vgl. Monaco (wie Anm. 11), S. 409 Ebd., S. 197f 75 Abb. 73 Der Over-The-Shoulder Shot, auch EinerEinstellung genannt, wird bei Gesprächen zwischen zwei Charakteren verwendet. Die Reaktion und Gestiken werden meist nur von dem zur Kamera zeigenden Charakter sichtbar. Wenn der andere Charakter spricht, kann ein Schnitt hinter die Schulter des nun nicht sprechenden Charakters erfolgen. 86 In der Filmsprache wird ein „Gegenschuß“ als dramaturgisches Mittel zur bildlichen Auflösung einer Unterhaltung genutzt. Dabei werden beide Partner abwechselnd sprechend und reagierend gezeigt. 87 Das besondere an dieser Aufnahme ist, dass der Blickpunkt des Sprechers dem Zuschauer angedeutet wird, er jedoch physisch von der Person getrennt ist. Durch die Schuß-Gegenschuß-Technik nimmt der Zuschauer an beiden Blickpunkten der Personen teil und besitzt dadurch eine ideale Perspektive, um das Gespräch vollständig mit zu verfolgen. 88 Im Laufe der Jahre wurden, geprägt durch Hollywood, eine Anzahl von Regeln erstellt. Diese sagen beispielsweise aus, dass stets mit einer Einführungseinstellung - Establishing Shot - begonnen wird, um anschließend vom dargestellten Allgemeinen auf die Details zu schwenken. Darüber hinaus gibt es die Regel, dass Dialogszenen durch Over-the-Shoulder Shots realisiert werden sollten und bei Übergängen zwischen den Einstellungen möglichst wenig Aufmerksamkeit erweckt werden sollte, damit die Handlung besser verfolgt werden kann. 89 86 Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec Vgl. Monaco (wie Anm. 11), S. 394 88 Ebd., S. 198 89 Ebd., S. 203 87 76 5.1.3 Nah-Aufnahme Nah-Aufnahmen oder so genannte Close-Ups werden entweder zum Darstellen von Details oder zum Isolieren von Objekten genutzt. Das bedeutet, es soll auf bestimmte Sachverhalte im Geschehen aufmerksam gemacht werden. 90 „Ein Film, der hauptsächlich aus Nahaufnahmen besteht, […] beraubt uns des umgebenden Raumes und ist daher verwirrend, klaustrophobisch. Die Wirkung kann äußerst ungewöhnlich sein.“ 91 Im Folgenden werden unterschiedliche Nah-Aufnahmen vorgestellt: Abb. 74 Medium Close-Up: zeigt den Brustbereich bis zum Kopf Abb. 75 Head and Shoulder Close-Up 90 91 Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec Vgl. Monaco (wie Anm. 11), S. 183 77 Abb. 76 Head Close-Up Abb. 77 Choker – diese Einstellung zeigt nur einen Teil des Kopfes: unterhalb des Mundes und knapp über den Augenbrauen Abb. 78 Ein Extreme Close-Up zeigt einen Bereich des Gesichtes, z. B. Augen oder Mund (Vgl. McGinnis (wie Anm. 8), 1h 42 min 35sec – Audiospur; Bild: Kath) Nur ein einzelnes Auge in einer Einstellung sollte als Extreme Close-Up vermieden werden, da es dadurch nicht möglich ist einzuschätzen, in welche Richtung der Charakter gerade schaut. Des Weiteren sollten Close-Ups überhaupt vermieden werden, wenn es einen sehr belebten Hintergrund gibt. 92 Dies kann zu Störungen des eigentlich gezeigten Inhaltes führen. 92 Vgl. McGinnis (wie Anm. 8), 1h 42min 00sec – 1h 44min 00sec 78 5.2 Camera Angles (Aufnahmewinkel) Bei jeder Einstellung besteht eine gewisse Beziehung zwischen der filmenden Kamera und dem Objekt im dreidimensionalen Raum, denn es gibt drei verschiedene Blickwinkel für die Kamera, welche eine Aufnahme bestimmen. 93 „Um die Beziehung zwischen den drei verschiedenen Blickwinkeln zu verstehen, könnte es nützlich sein, sich die drei imaginären Achsen, die durch die Kamera laufen, vor Augen zu führen […].“ 94 Die Erste dieser drei Achsen ist die Schwenk-Achse, welche vertikal verläuft. Diese Achse wird oft genutzt, um bei einer Totalen einen leichten Schwenk von beispielsweise links nach rechts zu realisieren, um so einen größeren Ausschnitt der Szene zu zeigen. Dabei ist die Schwenk-Achse entweder rechtwinklig oder schräg angeordnet. Die Neigungs-Achse ist die Zweite der imaginären Achsen einer Kamera. Diese verläuft horizontal von links nach rechts und bestimmt damit, von welcher Höhe aus die Kamera das Geschehen aufnimmt. Als Beispiele für besondere Perspektiven wären hier der Low-Angled Shot (Untersicht), High-Angled Shot (Obersicht) und die „Augenhöhe“ hervorzuheben. 95 „Es ist selbstverständlich, dass die Obersicht die Wichtigkeit des Gegenstandes verringert, während die Untersicht seine Bedeutung betont. Interessanterweise lässt sich die Aufnahme in Augenhöhe, die unauffälligste von allen, meistens am schlechtesten definieren.“ 96 Die letzte der drei Achsen ist die Horizontal-Achse, welche sich parallel zur Achse des Objektivs befindet. Diese Achse wird jedoch nur sehr selten genutzt. In Autodesk Maya gibt es das bereits vorgestellte Roll-Tool (vgl. S. 37), um diese HorizontalAchse zu nutzen. Das Tilt Angle (oder auch Dutch Angle genannt) ist eine Kameraperspektive, welche die Horizontal-Achse nutzen. 97 93 Vgl. Monaco (wie Anm. 11), S. 187 Ebd., S. 187 95 Ebd., S. 187 96 Ebd., S. 187 97 Ebd., S. 187 94 79 Im Folgenden werden einige Kameraperspektiven vorgestellt. Es ist sehr wichtig, sich Gedanken darüber zu machen, was für einen Eindruck die Aufnahme auf das Publikum haben soll. Denn es ist möglich, durch den Aufnahmewinkel der Kamera die Empfindung des Geschehens zu untermalen. 98 Abb. 79 Low-Angled Shot – auch Untersicht genannt Wenn eine Kameraaufnahme aus dieser Perspektive, Low-Angled Shot, eine Person aufnimmt, so verstärkt dies die Position des Charakters in der Geschichte. Das bedeutet, er ist sehr wichtig und dominant. Dem Zuschauer wird durch das Hinaufschauen zu dem Charakter das Gefühl der Wichtigkeit untermauert. 99 Abb. 80 High-Angled Shot – auch Obersicht genannt Der High-Angled Shot stellt das Gegenteil zum Low-Angled Shot dar. Durch das Nutzen der Neigungs-Achse für diese Kameraperspektive wird auch hier dem Zuschauer etwas mitgeteilt. Psychologisch wird durch diese Kameraführung 98 99 Vgl. McGinnis (wie Anm. 8), 1h 44min 00sec – 1h 46min 00sec Ebd., 1h 44min 00sec – 1h 46min 00sec 80 ausgedrückt, dass der Charakter schwach ist und das Publikum auf ihn herabschauen soll. 100 Ein abschließendes Beispiel für den Low- und High-Angled Shot ist folgendes: „Eine von unten aufgenommene Rose vermittelt zum Beispiel, daß die Blume aus irgendeinem Grund beherrschend, überwältigend ist, da wir sie bewußt oder unbewußt mit zum Beispiel einer von oben aufgenommenen Rose vergleichen würden, deren Bedeutung vermindert würde.“ 101 Abb. 81 Tilt Angle (oder Dutch Angle) Durch das Drehen der vertikalen Achse der Kamera erscheint das Objekt schräg. Es wird ein unstabiler und bizarrer Eindruck durch diese Kameraposition hervorgerufen. Diese Einstellung wird genutzt, um dem Zuschauer mitzuteilen, dass in der Szene etwas Komisches vorgeht oder aus Sicht des Charakters sein Denken untermauert wird. 102 100 Vgl. McGinnis (wie Anm. 8), 1h 46min 00sec – 1h 49min 00sec Vgl. Monaco (wie Anm. 11), S. 145 102 Vgl. McGinnis (wie Anm. 8), 1h 46min 00sec – 1h 49min 00sec 101 81 5.3 Continuity Continuity, etwa Anschluss, sind u. a. Regeln, auf welche geachtet werden sollte, wenn unterschiedliche Einstellungen aneinandergereiht werden. „Das SCRIPT-GIRL ist dafür verantwortlich, daß die Anschlüsse zwischen verschiedenen Aufnahmen stimmen, auch wenn Tage oder Wochen dazwischen liegen. Das betrifft vor allem die Kostüme, Dekorationen, Positionen von Schauspielern etc.“ 103 Des Weiteren sollten sich alle Objekte, die sich in einer Aufnahme bewegen, dies auch in der anschließenden Einstellung tun. Auch die Bewegungsrichtung von Objekten sollte die Gleiche sein, es sei denn, es wurde gezeigt, dass das Objekt die Richtung wechselt. Beim Betreten der Szene in eine bestimmte Richtung muss beim Verlassen der Szene die entgegengesetzte Richtung benutzt werden. 104 5.4 Rule of Thirds Abb. 82 Hilfslinien, welche durch die Regel Rule of Thirds erstellt wurden. Bei Rule of Thirds geht es um die Verteilung von Objekten für den Aufbau einer Szene. Dazu wird das Sichtfeld horizontal und vertikal gedrittelt. Die dadurch entstehenden Hilfslinien können genutzt werden, um Objekte anzuordnen. Diese Hilfslinien sollen dabei helfen, die Objekte nicht zu zentrieren und es soll ebenfalls vermieden werden, das Bild durch den Horizont zu halbieren. 105 103 Vgl. Monaco (wie Anm. 11), S. 385 Ebd., 1h 47min 10sec – 1h 48min 30sec 105 Ebd., 1h 49min 00sec – 1h 49min 55sec 104 82 Abb. 83 Eingefügtes Objekt durch Nutzung der Hilfslinien 83 6. Genutzte Vorgehensweise für Erstellung der Videosequenzen Für das Erstellen der Kamerafahrten in Autodesk Maya sowie das Zusammenfügen der gerenderten Inhalte in Apple Shake wurde eine bestimmte Vorgehensweise genutzt, welche an dieser Stelle erläutert werden soll. Der Aufbau dieser Diplomarbeit folgt in gewisser Weise dem vom Verfasser angewandten Vorgehen. Um eine Kamerafahrt überhaupt zu bewerkstelligen wird selbstverständlich eine Kamera benötigt. Nachdem diese unter Berücksichtigung des geeigneten Typs erstellt wurde, kann durch Setzen von Keyframes die Kamera in Bewegung versetzt sowie Effekte eingestellt werden. Als Grundvoraussetzung wird eine vorhandene 3DSzene angenommen, in der sich die Kamera frei bewegen kann (3D-Modell von New York City). Nachdem der grobe Kameraverlauf erstellt wurde, kann durch Nutzen des Graph Editors eine sehr feine Bewegung ausgearbeitet und unerwünschte Abläufe beseitigt werden. Nach Vollendung der Animation der Kamera kann nun der gewünschte Teil der 3D-Szene gerendert werden. An dieser Stelle ist es sehr wichtig zu entscheiden, welche Objekte mit welchem Rendervorgang ausgegeben werden sollen. Dies hat einen sehr einfachen Grund: falls in der Post-Production nur vereinzelte Objekte nachbearbeitet werden müssen, ist es angebracht, diese einzeln in Rendervorgängen auszugeben, um eine Bearbeitung zu erleichtern. In den Kapiteln von Shake wurde dieser Unterschied erläutert („layer“ und Rotoshape Node). Das Importieren und korrekte Bearbeiten der aus Maya gerenderten ImageSequenzen wird durch den vorhandenen Alpha Kanal sehr vereinfacht. In Shake können nun beliebige Effekte hinzugefügt oder Objekte aufbereitet werden. Nachdem alle Veränderungen getätigt worden sind, kann die Ausgabe aus Shake erfolgen. Dies wurde für die erstellten Sequenzen in Form von mov-Dateien durchgeführt. Diese Vorgehensweise kann für beliebige Inhalte aus einem 3D-Animations- und Modellierungsprogramm und nachfolgender Verwendung in einem CompositingProgramm genutzt werden. Es besteht eine sehr enge Verbindung zwischen diesen beiden Programm-Typen. 84 7. Schlussteil 7.1 Zusammenfassung Zusammenfassend lässt sich feststellen, dass sich durch eine virtuelle Kamera in Maya Bewegungsabläufe in einer dreidimensionalen Umgebung umsetzen lassen. Durch Nutzen der zur Verfügung stehenden Kamera-Typen ist es möglich, jede Bewegung umzusetzen. Die vollkommene Freiheit, die Kamera an jede Position innerhalb einer Szene zu bewegen, vergrößert zusätzlich den Raum für animierbare Bewegungen. Mit einer realen Kamera ist dies mitunter nur sehr aufwendig möglich. Es wurden insgesamt 23 Sequenzen für diese Diplomarbeit erstellt. 18 von diesen entsprechen Bewegungsabläufen, welche nach dem Ablaufplan erstellt wurden. Zwei zusätzliche Aufnahmen sind auf diesen nicht eingezeichnet, während drei Sequenzen dazu dienen, Effekte in Shake zu erstellen. Alle Aufnahmen wurden mit Autodesk Maya realisiert. Nach dem praktischen Entwerfen der Bewegung oder des Effektes wurden die zugrunde liegenden Einstellungsmöglichkeiten erklärt. Das bedeutet, dass sämtliche genutzten Attribute auf ihre Funktion hin untersucht wurden. Daraus lässt sich schließen, in wie weit welche Attribute für die Erstellung eines Effektes verantwortlich sind. Die in Autodesk Maya zur Verfügung stehenden Camera Tools, wie beispielsweise das Roll Tool, ermöglichen spezielle Aufnahmen. Das Attribut Roll scale dreht die horizontale Achse der Kamera und lässt dadurch das Bild schräg erscheinen. Diese Kameraposition ruft etwa einen bizarren und unstabilen Eindruck hervor. Die Aufnahme versucht somit durch ihre entstehende Wirkung etwas mitzuteilen. In dieser wissenschaftlichen Arbeit wurde demzufolge an einzelnen Stellen eine Beziehung zwischen der Cinematographic Terminology und den in Autodesk Maya angefertigten Bewegungen der Kamera erstellt. Für den praktischen Teil dieser Diplomarbeit wurde eine spezielle Vorgehensweise genutzt. Anhand des Aufbaus dieses schriftlichen Teiles lassen sich sehr einfach die einzelnen Schritte, die dazu nötig waren, nachvollziehen. Durch Aufzeigen dieser Vorgehensweise kann verdeutlicht werden, wie eng das Erstellen von Inhalten in 3D- 85 Modellierungs- und Animationsprogrammen sowie dem Compositing dieser in der Post-Production miteinander in Verbindung stehen. Als Grundvoraussetzung für diese Vorgehensweise muss eine 3D-Szene vorhanden sein. Durch Hinzufügen einer Kamera eines beliebigen Typs in Maya und erstellen von Bewegungsabläufen sowie Effekten für diese kann anschließend ein Rendern sämtlicher Objekte für die gewünschte Kameraeinstellung getätigt werden. Das Importieren und Zusammenfügen der Rendervorgänge geschieht in Shake. Darüber hinaus ist eine Bearbeitung dieser importierten Inhalte möglich. Diese Vorgehensweise kann somit für beliebig erstellte Inhalte in einem 3DAnimations- und Modellierungsprogramm und der Weiterverarbeitung in einem Compositing-Programm genutzt werden. 7.2 Ausblick Einen möglichen Grundgedanken, um dieses Themengebiet weiter zu untersuchen, könnte Cinematographic Terminology darstellen. Unter Beachtung dieser Regeln (ebenfalls Continuity und Rule of Thirds) sollten sämtliche Kamerabewegungen aufgebaut werden. Dabei sollte jedoch keine Stadt als dreidimensionale Szene genutzt werden, sondern nur einige wenige Objekte samt unmittelbarer Umgebung. Durch Erzählen einer Story könnten die verschiedenen Aufnahme-Distanzen und Winkel genutzt werden, um eine gewünschte Wirkung auf den Betrachter auszuüben. Anschließend wird die gleiche Story jedoch ohne Beachtung der Cinematographic Terminology erstellt. Somit kann untersucht werden, wie viel und was für eine Wirkung die Nutzung dieser Regeln besitzt. 86 8. Anhang 8.1 DVD – Allgemeine Informationen Die DVD befindet sich in einer Hülle auf der hinteren Umschlagseite dieser Arbeit. Zum Betrachten der erstellten Videosequenzen wird Apple Quicktime empfohlen. Das verwendete Format zur Erstellung dieser Videos ist das MOV-Format. Die Auflösung der Videosequenzen beträgt 1280 x 720 Pixel. Ein Abspielen mit dem VLC-Player ist ebenfalls möglich (liegt dieser DVD bei). Die erstellten Videosequenzen liegen in unterschiedlicher Form dieser DVD bei. Zum einen sind alle Videos sequentiell zu einer großen Sequenz zusammengefasst (mit und ohne Untertitel) und zum anderen liegen dieser DVD sämtliche Kamerafahrten einzeln bei. Ebenfalls einmal mit und ohne Untertitel. Es wird hiermit ausdrücklich erlaubt sämtliche vom Autor erstellten Videos zu bearbeiten. Aus diesem Grund liegt dieser DVD die vom Verfasser verwendete Final Cut Datei zum Ändern der eingeblendeten Titel bei. 87 8.2 Verzeichnisstruktur auf DVD Um ein Durchsuchen der DVD zu erleichtern, ist an dieser Stelle ein Inhaltsverzeichnis abgedruckt. 2850506.Diplomarbeit.NYC-DVD + Diplomarbeit + Final Cut + Sequenzen | /- MIT Untertitel | | /-- Einzeln | | /-- Zusammenhängend | /- OHNE Untertitel | /-- Einzeln | /-- Zusammenhängend + VLC-Player | /- MAC | /- WIN + Zusatz 88 A Literaturverzeichnis Bücher: [Monaco 1980] Monaco, James: „Film verstehen. Kunst, Technik, Sprache, Geschichte und Theorie des Films.“ Rowohlt Taschenbuch Verlag: Reinbeck bei Hamburg, 1980. [Schönherr 2000] Schönherr, Maximilian: „Maya 3. Technik und Ästhetik von High-End-Animationen.“ Addison-Wesley Verlag: München, 2000. [Schönherr 2001] Schönherr, Maximilian: „Maya 4 Sketches. 30 Tutorials in 3D.“ Addison-Wesley Verlag: München, 2001. [Schönherr 2006] Schönherr, Maximilian: „Maya 7. Die Referenz.“ Addison-Wesley Verlag: München, 2006. [SHK Manual 2005] Apple Computer, Inc.: “Shake 4 User Manual” Cupertino, 2005. Videos: [Jackemuk 2005] Jackemuk, Gary: „Visual Effects Compositing Fundamentals. Production Compositing Techniques with Gary Jackemuk.” The Gnomon Workshop: Hollywood, 2005 [McGinnis 2005] McGinnis, Cathy: „The Aesthetics of Cameras” Alias Systems Corp.: Toronto und Ontario, 2005 89 Internetquellen Bewegungsmuster http://www.snaix.com/snaix/glossar/bewegungsmuster.html (letzter Zugriff am 27.01.2009) cinematography http://www.medialine.de/deutsch/wissen/enzyklopaedischeswoerterbuch.php?ext_pfad=bkb&snr=3036 (letzter Zugriff am 27.01.2009) Digital Tutors http://www.digitaltutors.com/digital_tutors/index.php (letzter Zugriff am 27.01.2009) FXPHD http://fxphd.com (letzter Zugriff am 27.01.2009) Halbnah Einstellung http://www.cd-agent.de/Film/Lexikon/Halbnahe-Einstellung.htm (letzter Zugriff am 27.01.2009) Rotoshape http://www.idagrove.de/RotoscopingArtist.html (letzter Zugriff am 27.01.2009) terminology http://www.medialine.de/deutsch/wissen/enzyklopaedischeswoerterbuch.php?ext_pfad=bkb&stichwort=terminology&x=0&y=0 (letzter Zugriff am 27.01.2009) 90 The Gnomon Workshop http://thegnomonworkshop.com (letzter Zugriff am 27.01.2009) Weiterführende Literatur [Brinkmann 2008] Brinkmann, Ron: „The Art and Science of Digital Compositing. Techniques for Visual Effects, Animation and Motion Graphics.“ Elsevier: Burlington, 20082. [Wright 2006] Wright, Steve: „Digital Compositing for Film and Video.“ Elsevier: Burlington, 20062. B Abbildungsverzeichnis Nr. Seite Titel Quelle 1 11 Ablaufplan [Kath 2008, Seite 11] 2 12 Interface Maya [Kath 2008, Seite 12] 3 16 Befehl „Combine“ [Kath 2008, Seite 16] 4 17 Interface Shake [Kath 2008, Seite 17] 5 19 Default-Home-Position [Kath 2008, Seite 19] 6 20 Kameraerstellung [Kath 2008, Seite 20] 7 21 „Four-View“-Ansicht [Kath 2008, Seite 21] 8 22 Translate [Kath 2008, Seite 22] 9 22 Rotate [Kath 2008, Seite 22] 10 22 Kamerabewegung [Kath 2008, Seite 22] 11 23 Attribut Editor [Kath 2008, Seite 23] 12 24 Single-Node-Camera [Kath 2008, Seite 24] 13 25 Camera and Aim [Kath 2008, Seite 25] 14 26 Two-Node-Camera [Kath 2008, Seite 26] 91 Nr. Seite Titel Quelle 15 27 Three-Node-Camera [Kath 2008, Seite 27] 16 28 Camera, Aim and Up [Kath 2008, Seite 28] 17 29 Focal Length (Brennweite) [Kath 2008, Seite 29] 18 30 Unterschied Brennweite [McGinnis 2005, 22min 30sec] 19 32 Vergleich Objektiv-Typen 1 [McGinnis 2005, 25min 10sec] 20 33 Vergleich Objektiv-Typen 2 [McGinnis 2005, 25min 45sec] 21 34 Clip Planes [Kath 2008, Seite 34] 22 35 Auflistung Camera Tools [Kath 2008, Seite 35] 23 37 Roll Tool 1 [Kath 2008, Seite 37] 24 37 Roll Tool 2 [Kath 2008, Seite 37] 25 39 Dolly Zoom Normal 1 [Kath 2008, Seite 39] 26 40 Dolly Zoom Normal 2 [Kath 2008, Seite 40] 27 41 Dolly In Zoom Out 1 [Kath 2008, Seite 41] 28 41 Dolly In Zoom Out 2 [Kath 2008, Seite 41] 29 42 Dolly Out Zoom In 1 [Kath 2008, Seite 42] 30 42 Dolly Out Zoom In 2 [Kath 2008, Seite 42] 31 43 Motion Blur Attriubte [Kath 2008, Seite 43] 32 44 Motion Blur Bewegung [Kath 2008, Seite 44] 33 46 Depth of Field Attribute [Kath 2008, Seite 46] 34 47 Depth of Field Beispiel [Kath 2008, Seite 47] 35 48 Depth of Field Unterschied 1 [Kath 2008, Seite 48] 36 48 Depth of Field Unterschied 2 [Kath 2008, Seite 48] 37 48 Depth of Field Unterschied 3 [Kath 2008, Seite 48] 38 48 Depth of Field Unterschied 4 [Kath 2008, Seite 48] 39 49 Rack Focus top [Kath 2008, Seite 49] 40 49 Rack Focus persp [Kath 2008, Seite 49] 41 50 Rack Focus Vordergrund [Kath 2008, Seite 50] 42 50 Rack Focus Hintergrund [Kath 2008, Seite 50] 43 52 Fish Eye Kamera Maya [Kath 2008, Seite 52] 44 52 Fish Eye Effekt [Kath 2008, Seite 52] 45 53 Graph Editor [Kath 2008, Seite 53] 46 54 Brightness Normal [Jackemuk 2005, 01min 20sec] 47 54 Brightness Erhöht [Jackemuk 2005, 01min 20sec] 92 Nr. Seite Titel Quelle 48 55 Matte 1 und 2 [Jackemuk 2005, 01min 50sec] 49 55 Bild mit Matte 1 und 2 [Jackemuk 2005, 02min 10sec] 50 56 Composite Komplett [Jackemuk 2005, 03min 00sec] 51 57 Shake GUI [Kath 2008, Seite 57] 52 58 Alpha-Kanal [Jackemuk 2005, 2h 14min 26sec] 53 59 Over Node [Kath 2008, Seite 59] 54 60 Rotoshape Node [Kath 2008, Seite 60] 55 61 Gebäude als Layer [Kath 2008, Seite 61] 56 62 Helligkeitsänderung 1 [Kath 2008, Seite 62] 57 63 Helligkeitsänderung 2 [Kath 2008, Seite 63] 58 64 Farbänderung – Layer [Kath 2008, Seite 64] 59 65 Farbänderung – ColorSpace [Kath 2008, Seite 65] 60 66 Farbänderung – Blur [Kath 2008, Seite 66] 61 66 Farbänderung – Brightness [Kath 2008, Seite 66] 62 67 Farbänderung – Over [Kath 2008, Seite 67] 63 68 Farbänderung – Fade [Kath 2008, Seite 68] 64 69 Warper Shapes [SHK Manual 2005, S. 822] 65 70 Warper ohne Verformung [Kath 2008, Seite 70] 66 70 Warper mit Verformung [Kath 2008, Seite 70] 67 73 Establishing Shot [McGinnis 2006, 1h 40min 00sec] 68 74 Full Shot [McGinnis 2006, 1h 40min 10sec] 69 74 Medium Shot [McGinnis 2006, 1h 40min 30sec] 70 74 Halbnahe Einstellung [McGinnis 2006, 1h 40min 40sec] 71 75 amerikanische Einstellung [Kath 2008, Seite 75] 72 75 Two Shot [McGinnis 2006, 1h 41min 00sec] 73 76 Over the Shoulder Shot [McGinnis 2006, 1h 41min 15sec] 74 77 Medium Close Up [McGinnis 2006, 1h 41min 55sec] 75 77 Head and Shoulder Close Up [McGinnis 2006, 1h 42min 05sec] 76 78 Head Close Up [McGinnis 2006, 1h 42min 15sec] 77 78 Choker [McGinnis 2006, 1h 42min 24sec] 78 78 Extreme Close Up [Kath 2008, Seite 78] 79 80 Low Angled Shot [McGinnis 2006, 1h 44min 45sec] 80 80 High Angled Shot [McGinnis 2006, 1h 45min 30sec] 93 Nr. Seite Titel Quelle 81 81 Tilt Angle [McGinnis 2006, 1h 46min 45sec] 82 82 Rule of Thirds 1 [McGinnis 2006, 1h 49min 25sec] 83 83 Rule of Thirds 2 [McGinnis 2006, 1h 49min 45sec] 84 87 DVD Cover [Kath 2008, Seite 87] 94