Die Bewegungsmuster der virtuellen Kamera

Transcrição

Die Bewegungsmuster der virtuellen Kamera
Die Bewegungsmuster der virtuellen Kamera
Möglichkeiten der Bewegungsvisualisierung in einer 3D-Welt
mit Hilfe einer virtuellen Kamera (Maya) und Untersuchung von
ausgewählten Effekten für eine visuelle Variation der
Informationen
(Compositing in Shake).
Daten zur Diplomarbeit
Technische Universität Dresden
Fakultät Informatik
Diplomthema im Studiengang Medieninformatik
Ausgeführt am Institut für Software- und Multimediatechnik
Hochschullehrer und Betreuer: Prof. Dr.-Ing. habil. Rainer Groh
Diplomand: Sandro Kath
Matrikelnummer: 2850506
Thema: Die Bewegungsmuster der virtuellen Kamera
Bearbeitungszeit: 01.08.2008 bis 31.01.2009
2
Eigenständigkeitserklärung
Ich versichere hiermit, dass ich, Sandro Kath, die vorliegende Diplomarbeit mit dem
Titel Die Bewegungsmuster der virtuellen Kamera selbstständig verfasst und keine
anderen als die angegebenen Hilfsmittel benutzt habe.
Die Angaben, welche anderen Quellen dem Wortlaut oder sinngemäß entnommen
wurden, habe ich in jedem einzelnen Fall durch eine Quellenangabe gekennzeichnet.
Dresden, 29. Januar 2009
…………………………….........
3
Aufgabenstellung:
Ziel dieser Arbeit soll es sein, mit Hilfe einer Kamera in Maya, mögliche „KameraAufnahmen“ in einer 3D-Welt zu realisieren und darzustellen (z. B. Totale, einzelne
Gebäude, Bewegung durch Straßen-Schlucht, Dolly-Zoom, Zoom).
In einem ersten Teil sollen dabei die Vorteile der Kamera aus Maya genutzt
(vollkommene Bewegungsfreiheit und Einstellungsmöglichkeiten) sowie deren
Attribute vor- und dargestellt werden (z. B. Brennweite-Einstellungsmöglichkeiten).
Die erstellten Szenen werden abschließend gerendert und zusammengefügt.
Im 2. Teil der Arbeit werden Effekte vorgestellt, mit welchen visuelle Veränderungen
ermöglicht werden („Effekte als Dienst“).
(z.B. Effekt: Warp Æ Verzerrung von Gebäuden)
Die entsprechenden Effekte werden vorgestellt und ausführlich erläutert wie diese
funktionieren.
2 Aufnahmen:
1. „Maya-Kamera-Film“ (Rohfassung)
2. „Maya-Kamera-Film“ mit Effekten
4
Danksagung
Mein Dank gilt allen, die an der Fertigstellung der Diplomarbeit beteiligt waren,
besonders Herrn Professor Groh, der stets Rat wusste und dessen Gespräche sehr
motivierend waren.
Meiner Freundin Sandra Scheibe möchte ich vor allem für die tatkräftige
Unterstützung danken. Ohne Sie wäre diese Arbeit in dieser Form nicht möglich
gewesen. Sie baute mich vor allem bei auftretenden Problemen immer auf.
5
Inhaltsverzeichnis
1. Einleitung
9
2. Übersicht über die verwendeten Programme
12
2.1 Autodesk Maya
12
2.1.1 Was ist ein Bewegungsmuster?
13
2.2 Apple Shake
17
3. Autodesk Maya
19
3.1 Überblick über die Grundlagen der Maya-Kamera
19
3.1.1 Erstellen einer Kamera in Maya
20
3.1.2 Bewegen einer Kamera in Maya
21
3.1.3 Camera Attributes
23
3.2 Kamera-Typen in Maya
24
3.2.1 Camera (Single Node Option)
24
3.2.2 Camera and Aim (Two Node Option)
25
3.2.3 Camera, Aim and Up (Three Node Option)
27
3.3 Kamera-Attribute
29
3.3.1 Lens Attributes
29
3.3.2 Additional Attributes
34
3.4 Moving the Camera
35
3.4.1 Camera Tools
36
3.4.1.1 Track Tool
36
3.4.1.2 Dolly Tool
36
3.4.1.3 Zoom Tool
36
3.4.1.4 Roll Tool
37
3.4.2 Vertigo-Effekt
38
3.4.2.1 Dolly und Zoom
38
3.4.2.2 Dolly in Zoom out
40
3.4.2.3 Dolly out Zoom in
42
3.5 Camera Effects
43
3.5.1 Motion Blur
43
3.5.2 Depth of Field (Schärfenbereich)
45
6
3.5.3 Rack Focus (Schärfernverlagerung)
49
3.5.4 Fish Eye Lenses
51
3.6 Graph Editor
53
4. Apple Shake
54
4.1 Was ist Compositing?
54
4.2 Das Interface von Shake
56
4.3 Grundlagen von Shake
57
4.3.1 Alpha Kanal
57
4.3.2 Over Node
58
4.3.3 Rotoshape Node
60
4.4 Ausgewählte Effekte
61
4.4.1 Lokale dynamische Helligkeitsänderung
62
4.4.2 Änderung des ColorSpace und Erstllung von Glow
63
4.4.3 Warper
68
5. Cinematographic Terminology
71
5.1 Aufnahme-Distanz
72
5.1.1 Distanz-Aufnahme
72
5.1.2 Normal-Aufnahme
73
5.1.3 Nah-Aufnahme
77
5.2 Camera Angles (Aufnahmewinkel)
79
5.3 Continuity
82
5.4 Rule of Thirds
82
6. Genutzte Vorgehensweise für die Erstellung der Videosequenzen
84
7. Schlussteil
85
7.1 Zusammenfassung
85
7.2 Ausblick
86
8. Anhang
87
8.1 DVD – Allgemeine Informationen
87
8.2 Verzeichnisstruktur auf DVD
88
7
A Literaturverzeichnis
89
B Abbildungsverzeichnis
91
8
1. Einleitung
In dieser Arbeit werden mit Hilfe eines externen Programms, Autodesk Maya,
unterschiedliche Möglichkeiten der Bewegungsvisualisierung in einer 3D-Welt durch
Nutzung einer virtuellen Kamera im externen Programm realisiert.
Dabei bildet ein virtueller Nachbau der Stadt New York City die Grundlage für die
virtuellen
Kameraaufnahmen.
In
diesem
3D-Modell
werden
verschiedene
Kamerafahrten realisiert, welche mögliche Bewegungsmuster sowie erstellbare
Effekte einer virtuellen Kamera aufzeigen.
Dabei
soll
erläutert
werden,
welche
Attribute
und
damit
verbundene
Einstellungsmöglichkeiten eine Kamera in Maya besitzt, um entsprechende
Bewegungsmuster zu realisieren.
Die
erstellten
Kamerafahrten
werden
abschließend
im
SGI-Format
als
Einzelbildersequenz gerendert und sind somit für eine Weiterverarbeitung in Shake
vorbereitet.
Der Vorteil bei der Benutzung der Kamera im 3D-Programm Maya besteht in der
vollkommenen Bewegungsfreiheit dieser in einer Szene. Dies bedeutet, dass es
möglich ist, die Kamera an jede Position im 3D-Modell von New York City zu
bewegen. 1 Mit Hilfe des Graph Editors sind darüber hinaus selbst kleinste
Bewegungsänderungen der Kamera erstellbar.
In einem zweiten Teil der Arbeit werden die erstellten Sequenzen in ein zweites
externes Programm, Apple Shake, importiert. Apple Shake ist ein CompositingProgramm,
welches
es
ermöglicht,
voneinander
getrennt
erstellte
bzw.
aufgenommene Inhalte zusammenzufügen.
Die erstellten Kamerafahrten in Maya bedürfen, für das endgültige Resultat, mehrerer
Rendervorgänge. Diese unterschiedlichen Rendervorgänge werden in Shake
importiert und zusammengefügt.
In diesem Zusammenhang soll erläutert werden, auf welche Weise das Node based
Compositing funktioniert.
1
Selbstverständlich können Kamerabewegungen auch in jeder anderen 3D-Szene durchgeführt und
die Kamera in diesen an jede beliebige Position bewegt werden.
9
Des Weiteren werden Funktionen vorgestellt, welche es ermöglichen, ausgewählte
Effekte für eine visuelle Variation zu erstellen. Darüber hinaus werden die dafür in
Shake vorgestellten Nodes ausführlich erläutert und ihre Funktionsweise erklärt.
Als Abschluss wird im letzten Kapitel das Thema Cinematographic Terminology
(etwa „Fachsprache der Filmkunst“) behandelt.
Hier werden u. a. die möglichen Kameraeinstellungen mit Berücksichtigung der
Distanz sowie Aufnahmewinkel erläutert.
Für die in dieser Arbeit erstellten Bewegungsabläufe und Effekte ist ein Ablaufplan
entworfen worden, welcher die einzelnen Bewegungsabläufe der Kamera im 3DModell von New York City aufzeigt und graphisch darstellt. Dieser Ablaufplan soll als
Überblick dienen sowie die einzelnen Bewegungsabläufe und Effekte sequentiell
darstellen.
Zitate, die nach alter Rechtschreibung verfasst worden sind, wurden übernommen,
ohne diese an die gültige Rechtschreibung anzupassen.
10
Abb. 1 Ablaufplan der zu realisierenden Bewegungsabläufe der Kamerafahrt in Maya.
Der lila gekennzeichnete Graph zeigt die Bewegung der Kamera durch das 3DModell von New York City.
Die durch Rot gekennzeichneten Notizen stellen die verschiedenen umgesetzten
Bewegungsabläufe beziehungsweise Effekte der Kamera dar.
11
2. Übersicht über die verwendeten Programme
In dieser Arbeit werden, wie bereits erwähnt, zwei externe Programme verwendet. Im
Folgenden werden diese kurz vorgestellt.
2.1 Autodesk Maya
Maya ist ein 3D-Modellierungs- und Animationsprogramm, welches sehr stark im
professionellen Bereich zum Einsatz kommt. Mit Hilfe dieser Software werden z. B
Inhalte für die Film- und Fernsehindustrie sowie der Videospielindustrie erstellt.
Maya gibt es in drei unterschiedlichen Versionen: Maya PLE (Personal Learning
Edition), Maya Complete und Maya Unlimited, wobei nur die Complete- und
Unlimited-Version für den kommerziellen Bereich eingesetzt werden können. Maya
PLE ist für den privaten und nicht kommerziellen Einsatz gedacht. Die Maya
Unlimited Version enthält im Gegensatz zu Maya Complete einige Extra-Funktionen
(z. B. Fluid, Cloth, Hair).
Alternativen zu Maya sind beispielsweise 3D Studio Max, Cinema4D, Lightwave und
XSI.
Abb. 2 Das Interface von Autodesk Maya
12
In dieser Arbeit werden die verschiedenen Attribute der virtuellen Kamera aus Maya
sowie deren verschiedene Einstellungsmöglichkeiten erläutert. Damit ist es möglich,
Bewegungsmuster und Effekte in Maya durch Nutzung dieser Attribute umzusetzen.
2.1.1 Was ist ein Bewegungsmuster?
„Der Mensch bewegt sich in harmonischen, dreidimensionalen, dynamischen
Abfolgen
von
Muskel-Skelettbewegungen.
Das
sind
seine
natürlichen
Bewegungsmuster.“ 2
Eine
virtuelle
Kamera
in
Maya
bewegt
sich
durch
eine
Abfolge
von
Attributwertveränderungen in Bezug auf die Zeit. Das bedeutet, dass eine Bewegung
einer virtuellen Kamera in Maya ausgeführt wird, wenn eine entsprechende
Veränderung der Attributwerte zwischen mindestens zwei zueinander in Beziehung
stehenden Zeitpunkten stattfindet.
Um eine Kamerabewegung zu realisieren, werden somit mindestens zwei
miteinander in Beziehung stehende Kamerapositionen benötigt. Des Weiteren muss
zwischen diesen ein zeitlicher Bezug bestehen.
Dadurch ist es nun möglich, verschiedene Bewegungen der Kamera in Maya zu
erstellen, in dem z. B. die Kamerapositionen sowie die damit in Bezug stehende Zeit
variiert werden. Die erstellten Bewegungsmuster in Maya sind somit sequentiell
zueinander in Beziehung stehende Kamerapositionen in Abhängigkeit mit der Zeit.
Das Speichern einer Kameraposition zu einem bestimmten Zeitpunkt wird als
Keyframe 3 (genau genommen werden die Attributwerte gespeichert) bezeichnet.
Mindestens zwei unterschiedliche Keyframes einer Kamera können somit eine
Kamerabewegung erstellen.
2
http://www.snaix.com/snaix/glossar/bewegungsmuster.html
(letzter Zugriff am 27.01.2009)
3
In der Channel Box werden Attribute durch die Farbe Rot gekennzeichnet, falls ein Keyframe für
diese gesetzt wurde.
13
Bei der Erstellung der Kamerafahrten sowie beim Rendering der Szene sind in Maya
zwei grundlegende Probleme aufgrund der Größe des vollständigen 3D-Modells
aufgetreten, welche es erforderlich machten, das 3D-Modell von New York City in
mehrere Teilbereiche zu zerlegen.
Das 3D-Modell hat eine Gesamtgröße von 806 MB und besteht aus ca. 20.000
Objekten. Jedem Objekt ist eine Textur zugeordnet, welche eine Auflösung von
1024 x 1024 Pixeln besitzt.
Nach
dem
erfolgreichen
Laden
der
Szene
ist
es
nicht
möglich
eine
Kamerabewegung umzusetzen, da sich das Programm Maya automatisch mit einer
Fehlermeldung beendet.
Deshalb war es zwingend notwendig das gesamte 3D-Modell in Teilbereiche zu
teilen. Durch die Verwendung von Layern 4 wurde die Gesamtszene in 75 Teile
zerlegt. Somit ist es möglich, je nach Bedarf, einen Teil des 3D-Modells
auszublenden oder anzeigen zu lassen. Dies hat jedoch den Nachteil, dass für das
vollständige Fertigstellen einer Kamerafahrt bis zu zwanzig Rendervorgänge nötig
sind, um alle notwendigen Teile für eine Sequenz zu rendern.
Das zweite und weitaus schwierigere Problem trat nach einem erfolgreichen
Rendervorgang auf. Das als Image-Sequenz ausgegebene 3D-Modell bewegte sich
auf und ab. Bei einer Kamerabewegung, welche nah an der Oberfläche des 3DModells stattfindet, tritt eine starke Selbstbewegung der Objekte auf, ähnlich einem
Erdbeben.
Diese
Selbstbewegung
der
Objekte
störte
das
dargestellte
Bewegungsmuster der Kamera sehr stark.
Der Grund für diese ungewollte Selbstbewegung liegt vermutlich an der großen
Anzahl der Objekte.
Für die Lösung des Problems wurden verschiedene Ansätze getestet. In
professionellen Foren, wie beispielsweise von FXPHD 5 , GNOMON 6 und Digital-
4
Ein Layer ermöglicht ein einfaches Ein- und Ausblenden der zum Layer gehörenden Objekte.
http://fxphd.com
(letzter Zugriff am 27.01.2009)
6
http://thegnomonworkshop.com
(letzter Zugriff am 27.01.2009)
5
14
Tutors 7 , wurden hilfreiche Vorschläge gegeben, welche jedoch das Problem nicht
lösen konnten.
Eine Skalierung des 3D-Modells brachte keine Besserung gegenüber der
ungewollten Selbstbewegung, obwohl durch dieses Vorgehen die Anzahl von
Objekten in unmittelbarer Umgebung zur Kamera deutlich verringert wurde.
Das Verwenden von Clip Planes für eine Kamera verringerte das Problem ebenfalls
nicht.
Eine signifikante Besserung trat erst beim Wechsel des Betriebssystems ein. Das
Problem der Selbstbewegung der Objekte konnte nicht vollständig behoben werden,
jedoch konnte durch den Wechsel von OSX 10.5.2 auf Windows XP SP 2 eine
Verbesserung bewirkt werden.
Des Weiteren wurden Objekte des 3D-Modells in Maya durch die Befehle Group und
Parent zusammengefügt, um das Problem zu beheben. Dies brachte jedoch keinen
weiteren Fortschritt.
Durch das Importieren der Image-Sequenz in Shake war es möglich die Funktion
SmoothCam zu nutzen. Dabei wird das Bildmaterial in einem ersten Vorgang
analysiert und kann anschließend stabilisiert werden, um die Selbstbewegung der
Objekte zu vermindern. Durch die Funktion SmoothCam wird allerdings nicht die
Ursache behoben, sondern nur eine Verbesserung bewirkt.
Die Lösung des Problems der Selbstbewegung der Objekte konnte in Maya behoben
werden. Die Befehle Group und Parent fügen jeweils die Objekte in eine Gruppe
zusammen bzw. haben ein „Eltern-Element“. Die Objekte selbst werden durch diese
Funktion nicht verändert.
Der Befehl Combine vereinheitlicht die ausgewählten Objekte jedoch zu einem
Objekt. Dies bedeutet, dass die einzelnen Objekte nicht mehr ausgewählt oder
verändert werden können.
Durch diesen Befehl wurde das Problem der Selbstbewegung der Objekte gelöst.
Jedoch entsteht durch diesen Befehl ein großer Nachteil bezüglich der Renderzeit,
denn diese wurde durchschnittlich um den Faktor acht erhöht.
7
http://www.digitaltutors.com/digital_tutors/index.php
(letzter Zugriff am 27.01.2009)
15
Abb. 3 Der Befehl Combine (rechts) verbindet mehrere Objekte zu einem Objekt.
Als Vergleich ein einzelnes Objekt (links).
16
2.2 Apple Shake
Apple Shake ist ein Compositing-Programm, welches im professionellen Bereich der
Film- und TV-Post-Production (Nachbearbeitung) eingesetzt wird.
Mit Hilfe eines Compositing-Programmes werden voneinander getrennt erstellte bzw.
aufgenommene Inhalte zusammengefügt, so dass der Eindruck entsteht, dass der
Gesamtinhalt zur gleichen Zeit am gleichen Ort mit derselben Kamera aufgenommen
wurde.
Shake besitzt einen „node-basierten“ Aufbau, der sowohl über das User Interface als
auch über die Kommandozeile genutzt werden kann.
Alternativen zu Shake sind The foundry Nuke, eyeon Digital Fusion, Autodesk
Combustion, Autodesk Toxik sowie Adobe After Effects.
Abb. 4 Das Interface von Apple Shake.
17
Aufgrund der Größe des 3D-Modelles von New York City war es notwendig, die
gesamte Szene in kleine Teilbereiche zu zerlegen. Angesichts dieses Schrittes sind
mehrere Rendervorgänge notwendig, um eine Kamerafahrt vollständig darzustellen.
Durch Shake ist es möglich, diese einzelnen Rendervorgänge (einzelne Inhalte) zu
einer vollständigen Sequenz zusammenzufügen.
Des Weiteren werden in diesem Compositing-Programm ausgewählte Effekte erstellt,
welche an einer Sequenz beispielhaft erläutert werden.
Dabei wird es sich um die Effekte bezüglich des Warping, der Farbraumänderung
sowie einer lokalen Helligkeitsänderung handeln.
18
3. Autodesk Maya
3.1 Überblick über die Grundlagen der Maya-Kamera
Ein Panel ist ein Anzeigebereich (Viewport), durch den es möglich ist sich den
Ansichtsbereich einer Kamera oder verschiedener Editoren (z. B. Graph Editor,
Outliner) anzeigen zu lassen.
Der Name des dargestellten Anzeigebereiches befindet sich am unteren Rand des
Panels. Als Default-Panel wird der Ansichtsbereich der Kamera persp dargestellt,
d.h. beim Starten von Maya und Erstellen einer neuen Szene wird automatisch der
Ansichtsbereich der Kamera persp angezeigt.
Abb. 5 Bei dem Öffnen einer neuen Szene in Maya befindet sich die Standard-Kamera persp
im Anzeigebereich des Panels an der Home-Default-Position.
19
3.1.1 Erstellen einer Kamera in Maya
In Maya gibt es zwei Möglichkeiten eine neue Kamera zu erstellen.
Die erste Möglichkeit befindet sich direkt im Panel:
Panels Æ Perspective Æ New
Die damit erzeugte Kamera wird an der Default-Home-Position erstellt. Des Weiteren
ist zu beachten, dass die Kamera im aktiven Panel angezeigt wird, also dass der
Ansichtsbereich der Kamera sofort dargestellt wird.
Die Default-Home-Position ist die Position, die beim Erstellen einer neuen Szene
durch das Default-Panel (Kamera persp) angezeigt wird.
Durch das Hinzufügen einer neuen Perspektive (z. B. persp1) wird eine
entsprechende Kamera generiert.
Die zweite Möglichkeit zur Erstellung einer Kamera in Maya ist das Create-Menu:
Create Æ Cameras Æ Camera
Im Unterschied zu der ersten Möglichkeit erscheint die neue Kamera im
Koordinatenursprung, d. h. die erstellte Kamera wird nicht als Ansichtsbereich im
Panel angezeigt.
Abb. 6 Neu erstellte Kamera „Basic_CAM“, die mit Hilfe des Create Menu erzeugt wurde.
20
3.1.2 Bewegen einer Kamera in Maya
Für eine bessere Übersicht der Kamerabewegung wird in die „Four View“-Ansicht
gewechselt.
Panels Æ Saved Layouts Æ Four View
Das Panel wird in vier Anzeigebereiche geteilt. Die orthographischen Ansichten top,
front und side sowie die Standard-Ansicht persp sind nun verfügbar.
Abb. 7 „Four View“-Ansicht mit den Panels top, front, persp und side (v.l.n.r.).
Um eine Kamera in Maya zu bewegen ist es möglich Gizmos zur Hilfe zu nehmen,
durch die es sehr viel einfacher ist die Kamera an eine bestimmte Position im Raum
zu bewegen bzw. zu rotieren. Die Gizmos in Maya besitzen beispielsweise Pfeile, um
die Steuerung der Kamera zu ermöglichen.
Die beiden Befehle zum Bewegen und Rotieren der Kamera lauten Translate (W)
und Rotate (E). Das Betätigen der entsprechenden Taste lässt den zugehörigen
Gizmo erscheinen, welcher nun genutzt werden kann, um mit der Kamera zu
interagieren.
21
Gizmos zur Bewegung einer Kamera:
Abb. 8 Translate (W) – Bewegen
Abb. 9 Rotate (E) - Rotieren
Eine zweite Möglichkeit, die Kamera in Maya zu bewegen, besteht über das
Eingeben von Werten in der Channel Box, welche sich auf der rechten Seite des
User Interfaces von Maya befindet.
Beispielsweise bewegt ein Wert von 1.5 im Attribut Translate Y die Kamera um 1,5
Grid-Units (Maßeinheit in Maya) in die entsprechende Richtung.
Abb. 10 Rotierte und vom Koordinatenursprung entfernte Kamera.
22
Ein weiteres, sehr hilfreiches, Menu ist der Attribute-Editor. Dieser beinhaltet alle
Einstellungsmöglichkeiten der Channel Box sowie eine Vielzahl mehr von diesen.
Anstatt wie in der Channel Box eine Art Listenansicht zu verwenden, werden hier alle
Attribute übersichtlich geordnet und gruppiert.
Abb. 11 Kamera „Basic_CAM“ mit Attribute-Editor.
3.1.3 Camera Attributes
In dem Menüpunkt Controls der Camera Attributes kann der Kamera-Typ
nachträglich geändert werden, so dass es möglich ist, durch Nutzen des Drop-DownMenüs die Standard-Kamera in eine Three-Node-Camera zu ändern.
Die verschiedenen Typen von Kameras werden im folgenden Kapitel vorgestellt.
23
3.2. Kamera-Typen in Maya
Maya besitzt drei unterschiedliche Typen der Kamera. Jede von Ihnen hat ihre
spezifischen Vor- und Nachteile und kann für bestimmte Einsatzzwecke vorteilhaft
genutzt werden.
3.2.1 Camera (Single-Node-Camera)
Die Single-Node-Camera ist die Standardkamera in Maya. Der große Vorteil dieses
Typs besteht in der leichten Handhabung, denn nur ein einziger Node muss animiert
werden
(die
Kamera
selbst).
Mit
ihr
lassen
sich
die
verschiedensten
Bewegungsabläufe schnell erstellen.
Allerdings besitzt dieser Kamera-Typ einen Nachteil, welcher in der Nutzung von
Motion Paths liegt. Ein Motion Path entspricht einer in Maya erstellten Curve, auf
welcher sich die Kamera entlang bewegt. Auf das bestehende Problem der SingleNode-Camera mit Motion Paths wird in Kapitel 3.2.3 eingegangen.
Abb. 12 Die Single-Node-Camera ist sehr einfach zu bedienen.
24
3.2.2 Camera and Aim (Two-Node-Camera)
Im Gegensatz zu der normalen One-Node-Camera besteht diese Kamera aus zwei
Nodes. Zum einen aus der Kamera selbst und zum anderen aus dem so genannten
Aim.
Die besondere Eigenschaft dieses Kamera-Typs besteht darin, dass sich die Kamera
stets auf das Aim ausrichtet.
Beide Nodes (Kamera sowie Aim) können unabhängig voneinander bewegt und
animiert werden. Dies ist ebenfalls in der Channel-Box erkennbar. Die Attribute
Rotate X, Rotate Y und Rotate Z sowie Center Of Interest sind farblich blau unterlegt.
Das bedeutet, dass diese Attribute zu einem Objekt in Abhängigkeit stehen. In
diesem Fall stehen die Attribute mit dem Node Aim in Beziehung. Der Bewegung des
Aim entsprechend verändern sich die Werte der entsprechenden Attribute der
Kamera.
Das Attribut Center Of Interest gibt die Entfernung zwischen Kamera und Aim an. Die
Attribute Rotate X, Rotate Y und Rotate Z geben die Rotation der Kamera in Bezug
auf das Aim an.
Abb. 13 Camera and Aim (es müssen bis zu zwei Nodes animiert werden)
25
Durch die Abhängigkeit der Kamera und des Aims besteht der Verwendungszweck
im Erfassen von Objekten bei einer möglichen Bewegung der Kamera. Aufgrund des
Ausrichtens ist das gewünschte Objekt stets im Mittelpunkt des Ansichtsbereiches
der Kamera.
Abb. 14 Camera and Aim mit Ausrichtung auf Objekt (Sequenz_02.0_Drehung.mov)
Es besteht die Möglichkeit die Abhängigkeit zwischen den zwei Nodes, der Kamera
und dem Aim, aufzuheben. Bei Verwendung eines Motion Paths bietet dies den
Vorteil, dass das Aim unabhängig von der Kamera (welche sich noch immer auf das
Aim ausrichtet) bewegt werden kann.
Mit der Two-Node-Camera können alle Bewegungen und Einstellungsmöglichkeiten,
welche auch mit der normalen Standard-Kamera in Maya möglich sind,
vorgenommen werden. Jedoch bietet sie große Vorteile gegenüber der StandardKamera in entsprechenden Bewegungsabläufen. Dabei muss jedoch bedacht
werden, dass die Steuerung durch das Vorhandensein eines zweiten Nodes an
Komplexität zunimmt.
26
3.2.3 Camera, Aim and Up (Three-Node-Camera)
Die Camera, Aim and Up ist eine Kamera, welche aus drei Nodes besteht: der
eigentlichen Kamera selbst, einem Aim (wie bei der Two-Node-Camera) sowie einem
zusätzlichen Node namens Up.
Abb. 15 Three-Node-Camera bestehend aus Kamera, Aim und Up (es müssen bis zu drei
Nodes animiert werden).
Rechts: NURBS-Curve (Looping), welcher als Motion Path genutzt werden kann.
Der Vorteil dieses Kamera-Typs aus Maya liegt im 3. Node namens Up. Durch
Nutzen dieses Nodes kann verhindert werden, dass sich die Kamera bei einem
Looping (Motion Path) unerwünscht verdreht. Die Kombination der Nodes Aim und
Up bietet eine sehr gute Möglichkeit, mit Hilfe der Nutzung des Graph Editor, einen
exakten Bewegungsablauf zu steuern.
Bei Benutzung einer Standard-Kamera in Verbindung mit einer NURBS-Curve
(genutzt als Motion Path) ist es nicht möglich, einen Looping erfolgreich zu
animieren. Es kommt zu einer unerwünschten Drehung der Kamera entlang der
NURBS-Curve.
Die
Standard-Kamera
bietet
Kontrollmöglichkeiten, um dieses Problem zu lösen.
27
nicht
die
erforderlichen
Abb. 16 Looping mit der Camera, Aim and Up
Die Three-Node-Camera besitzt, wie die Two-Node-Camera, aufgrund des Aims
Abhängigkeiten für die Attribute Rotate X, Rotate Y und Rotate Z. Folglich ist auch
diese Kamera stets auf das Aim gerichtet.
Das Attribut Center of Interest gibt auch hier die Entfernung zwischen Kamera und
Aim in Grid-Units an.
Der Node Up ist frei beweglich und animierbar. Er stellt einen „Up-Vektor“ dar, mit
dem es möglich ist, die Kamera horizontal auszurichten. 8 Durch diese zusätzliche
Kontrollmöglichkeit ist mit diesem Kamera-Typ auch in Verbindung mit einer NURBSCurve (Motion Path) ein Looping animierbar.
8
Vgl. McGinnis, Cathy: „The Aesthetics of Cameras.” (Video) Alias Learning Tools, 15min 22sec –
20min 49sec.
28
3.3 Kamera-Attribute
3.3.1 Lens Attributes
Die Lens entspricht der optischen Komponente einer realen Kamera. 9 In Maya wird
die gesamte Kamera jedoch nur als eine Art Drahtgittermodell dargestellt, welches
eine genaue Zuordnung der Bestandteile erschwert.
Die zwei wichtigsten und am meisten genutzten Attribute der Kamera sind Angle of
View und Focal Length.
Angle of View sagt aus, wie groß der Sichtwinkel der Kamera ist, d. h. wie viel der
Nutzer von der Szene sehen kann. Dieses Attribut ist mit der Focal Length eng
verbunden, so dass diese sich gegenseitig beeinflussen. Je höher der Wert der
Brennweite, desto niedriger der Sichtwinkel.
Die Focal Length (Brennweite) ist die Distanz in mm von der Mitte der Linse und der
Film Plane. Dieses Attribut wird genutzt, um die Brennweite zu ändern, um so einen
Zoom In oder Zoom Out der Kamera zu erstellen. 10
Abb. 17 Eine Kamera mit einer Focal Length (Brennweite) von 35 mm.
9
Vgl. McGinnis (wie Anm. 8), 20min 45sec – 20min 55sec.
Ebd., 21min 55sec – 22min 15sec
10
29
Es gibt drei unterschiedliche Typen von Objektiven, welche auch in der Realität zur
Verfügung stehen. „Objektive werden allgemein nach ihrer Brennweite eingeteilt:
dem Abstand zwischen der Filmebene und dem Mittelpunkt der Linse.“ 11
Abb. 18 Kameras mit unterschiedlichen Brennweiten
Eine Normal Lens (Normal-Objektiv) besitzt eine Brennweite zwischen 30 und 50
mm. „Diese Objektive werden meist gewählt, weil sie am wenigsten verzerren und
deshalb der Sehweise des menschlichen Auges am nächsten kommen“ 12
beziehungsweise nahezu das Sichtfeld eines Menschen abdecken (das normale
Sichtfeld eines Menschen liegt bei etwa 50 mm). Eine Brennweite von 50 mm
entspricht (lt. Autodesk Maya) einem Sichtwinkel von ca. 40 Grad. 13
Von einer Telephoto Lens (Tele-Objektiv) wird gesprochen, wenn die Brennweite der
Optik über 50 mm liegt. Eine Brennweite von 100 mm besitzt einen Sichtwinkel von
etwa 20 Grad.
Die maximale Brennweite der Kamera in Maya liegt bei 3500 mm (Sichtwinkel 1
Grad), wobei die wirkungsvolle Obergrenze des Tele-Objektivs etwa 1200 mm
beträgt. 14
11
Vgl. Monaco, James: „Film verstehen.“ Reinbeck bei Hamburg 1980, S. 71
Ebd., S. 71
13
Vgl. McGinnis (wie Anm. 8), 22min 30sec – 23min 00sec
14
Ebd., 23min 10sec – 23min 45sec
12
30
„Das Tele-Objektiv wirkt wie ein Teleskop und vergrößert entfernt liegende
Gegenstände. Es verzerrt nicht die lineare Wahrnehmung, besitzt jedoch den
manchmal nützlichen Effekt, die Tiefen-Wahrnehmung zu unterdrücken. Es hat einen
relativ geringen Blickwinkel.“ 15
Das besonders Augenscheinliche bei diesem Objektiv ist, dass „… bei langer
Brennweite (Tele) parallele Linien nahezu parallel aussehen“ 16 .
Das Gegenstück zum Tele-Objektiv stellt das Weitwinkel-Objektiv dar. Dieses besitzt
keinen kleinen, sondern einen weiten Blickwinkel. Von einem Wide Angle
(Weitwinkel) spricht man, wenn die Brennweite des Objektives unter 30 mm liegt.
Das Besondere an diesem Objektiv ist, dass vor allem in beengten Situationen dieser
Typ gewählt werden sollte, denn dadurch ist es möglich einen großen Teil des zu
filmenden Gegenstandes aufzunehmen. 17
„Die Weitwinkel-Optik hat jedoch auch den Effekt, die Tiefen-Wahrnehmung zu
betonen und oftmals auch die lineare Wahrnehmung zu verzerren.“ 18 Bei Nutzung
dieses Objektiv-Typs „[…] sehen Sie viele stürzende Linien, […]“. 19
Durch das Nutzen unterschiedlicher Brennweiten einer Kamera ist es möglich, die
Distanz zwischen Objekten optisch zu variieren (vgl. mit unterer Grafik).
Beim Verwenden einer normalen Brennweite entspricht dies dem Sichtfeld eines
Menschen und die Gebäude im Vorder- und Hintergrund erscheinen optisch korrekt.
Bei Verwendung einer Telephoto Lens wird die Distanz zwischen den Objekten
kompensiert. Dies lässt einen klaustrophobischen Eindruck bzw. gar das Gefühl
gefangen zu sein entstehen. 20
Das Gegenteil geschieht beim Nutzen einer Wide Angle Lens, denn hier erscheint es,
als ob sich die Distanz zwischen den Objekten vergrößert.
Die Nutzung dieser Möglichkeit für eine optische Variation der Distanz kann
beispielsweise genutzt werden, um dem Publikum etwas mitzuteilen.
Da durch das Nutzen einer kleinen Brennweite „mehr Raum vorhanden ist“, entsteht
das Gefühl, Teil eines Gesamten zu sein, da ein Eintauchen in die Szene möglich
15
Vgl. Monaco (wie Anm. 11), S. 72
Vgl. Schönherr, Maximilian: „Maya 7. Die Referenz.“ München 2006, S. 129
17
Vgl. McGinnis (wie Anm. 8), 23min 50sec – 24min 30sec
18
Vgl. Monaco (wie Anm. 11), S. 71f
19
Vgl. Schönherr (wie Anm. 16), S. 129
20
Vgl. McGinnis (wie Anm. 8), 25min 00sec – 25min 45sec
16
31
scheint. Bestimmte Objekte im Mittelpunkt des Geschehens rücken in den
Vordergrund und üben eine sehr starke Personalität aus. 21
Abb. 19 Vergleich der unterschiedlichen Objektiv-Typen - Bild 1
21
Vgl. McGinnis (wie Anm. 8), 25min 00sec – 25min 45sec
32
Abb. 20 Vergleich der unterschiedlichen Objektiv-Typen - Bild 2
Die erstellten Sequenzen für diese Diplomarbeit wurden alle mit einer Brennweite
von 35 mm erstellt. Eine Ausnahme bilden spezielle Kameraeinstellungen, in denen
explizit die Brennweite für die Kamerafahrt geändert wurde (beispielsweise für einen
Zoom).
33
3.3.2 Additional Attributes
Ein weiteres Attribut, welches zu den Camera Attributes gehört, ist Camera Scale.
Dieses erlaubt es, wie der Name schon sagt, die Größe der Kamera in Maya zu
skalieren. Jedoch zieht ein Verändern der Größe eine Veränderung der Brennweite
mit sich. Dies bedeutet, dass, wenn der Wert von Camera Scale halbiert wird, sich
die Brennweite verdoppelt.
Eine weitere Einstellungsmöglichkeit, welche sehr hilfreich sein kann, ist Clip Plane.
„Die Clip Planes sind virtuelle Ebenen, die den Blick der Kamera beim Modellieren
und Animieren und Rendern einschränken, […]. Nur wenn Sie Auto Render Clip
Plane deaktivieren, berücksichtigt Maya beim Rendern die Einschränkung des
Kamerablicks.” 22
Jede Kamera hat ihre eigene Near- und Far Clip Plane, welche einen festen Wert
von -1 und 1 besitzt. Wenn Clip Planes sehr weit auseinander liegen, kann ein
Problem mit der Genauigkeit beim Berechnen der Distanz von Meshes entstehen
(„Depth-Sorting-Problem“). Jedes Objekt hat einen Depth-Value (zwischen -1 und 1),
welcher gerundet wird. Dieses Rundungsproblem ergibt anschließend das „DepthSorting-Problem“.
Abb. 21 Kamera mit der Near- und Far-Clip Plane.
22
Vgl. Schönherr (wie Anm. 16), S. 128
34
3.4 Moving the Camera
Wie bereits erwähnt, gibt es zwei grundlegende Möglichkeiten eine Kamera zu
bewegen. Zum einen kann sie sich von einer Position zu einer anderen Position im
3D-Raum bewegen (Translation) und zum anderen kann sich die Kamera um ihre
drei Achsen drehen. Dieser Vorgang wird auch als Rotation bezeichnet. Beim
Ausführen einer Translation, track oder dolly, bewegt sich die Kamera in der
horizontalen und bzw. oder vertikalen Ebene. Im Gegensatz dazu findet bei einer
Rotation der Kamera keine Bewegung in den physisch visuellen Raum statt, sondern
diese kann dazu genutzt werden, einen sich bewegenden Gegenstand zu verfolgen,
indem ein Schwenken, pan, oder Neigen, tilt, der Kamera stattfindet. Beim Rollen,
roll, rotiert die Kamera um die horizontale Achse, was nur die Lage eines
Gegenstandes im Bild verändert und nicht ihn selbst. 23
„Diese verschiedenen Bewegungsarten und ihre diversen Kombinationen haben
einen starken Einfluß auf das Verhältnis zwischen Gegenstand und Kamera (und
damit auf den Zuschauer) […].“ 24
In diesem Kapitel werden ausgewählte Tools vorgestellt, mit denen es möglich ist,
die Kamera in Maya zu bewegen. Nach dem Vorstellen des Dolly- und Zoom-Tool
wird anschließend der daraus mögliche Vertigo-Effekt erläutert.
Abb. 22 Auflistung aller Camera Tools.
23
24
Vgl. Monaco (wie Anm. 11), S. 89f
Ebd., S. 90
35
3.4.1 Camera Tools
3.4.1.1 Track Tool
Die Aufgabe des Track Tool besteht im Bewegen der Kamera sowohl in horizontaler
als auch vertikaler Richtung (pan und tilt). Es ist weder eine Rotation noch eine
Bewegung in den physisch visuellen Raum möglich.
3.4.1.2 Dolly Tool
Den Gegensatz zum Track-Tool stellt das Dolly Tool dar. Mit diesem Tool ist es
möglich, eine physische Kamerabewegung in den dreidimensionalen Raum von
Maya hinein oder heraus zu erstellen. Das Dolly Tool hat somit nichts mit einer
Änderung der Brennweite des Objektivs zu tun.
3.4.1.3 Zoom Tool
Bei diesem Tool findet keine Bewegung der Kamera statt, sondern es wird die
Brennweite der Linse, Focal Length, verändert.
Durch ein „+“ im Icon wird angezeigt, dass die Brennweite vergrößert wird (Zoom In).
Ein „-“ im Icon zeigt eine Verringerung der Brennweite an (Zoom Out).
„Das Zoom-Objektiv (auch «Transfokator» oder «Gummilinse» genannt) besitzt eine
veränderbare Brennweite, vom Weitwinkel bis zum Tele […]“ 25 , mit dem es möglich
ist, auch während einer Aufnahme die Brennweite beliebig zu verändern und so den
Gegebenheiten anzupassen. Diese Brennweitenänderungen des Objektivs sind in
Maya stets zu jedem Zeitpunkt möglich.
Mit einem normalen Zoom-Objektiv ist es beispielsweise möglich, Brennweiten von
10 bis 100 mm einzustellen. Bei einer Änderung dieser verändert sich die Größe des
Bildausschnitts, da beispielsweise kurze Objektive einen größeren Blickwinkel haben
als lange. Zusätzlich zu diesem Unterschied haben die verschiedenen Optiken auch
Einfluss auf die Tiefenwahrnehmung. 26 „Zusammengefaßt: Je kürzer das Objektiv –
desto weiter der Blickwinkel (und größer das Gesichtsfeld), desto stärker die TiefenWahrnehmung, desto größer die lineare Verzerrung; je länger das Objektiv – desto
enger der Blickwinkel und flacher die Tiefen-Wahrnehmung.“ 27
25
Vgl. Monaco (wie Anm. 11), S. 73
Ebd., S. 73f
27
Ebd., S. 75
26
36
3.4.1.4 Roll Tool
Das Roll Tool ermöglicht es, die Kamera um die horizontale Achse zu rotieren. Dabei
werden nicht die Objekte in der Szene verändert, sondern nur ihre Lage im Bild.
Abb. 23 Horizontal rotierte Kamera in der 3D-Szene in Maya.
Abb. 24 Das Attribut Roll scale dient als Multiplikator für das Rollen der Kamera.
37
3.4.2 Vertigo-Effekt
Der Vertigo-Effekt (auch als Hitchcock- oder Trombone-Effekt bekannt) erhielt seinen
Namen durch den Eindruck, welchen er hervorruft: das Schwindelgefühl (englisch:
„vertigo“). 28
3.4.2.1 Dolly und Zoom
Der Dolly und der Zoom sind zwei verschiedene Möglichkeiten, um sich einem Objekt
zu nähern oder zu entfernen.
Im Grunde genommen wirkt ein Zoom ähnlich einer „Ran-Fahrt“ oder „Rück-Fahrt“.
Abhängig davon, ob die Brennweite des Objektivs vergrößert oder verkleinert wurde,
ändert sich das Geschehen entsprechend, indem es gleichmäßig größer oder kleiner
wird. Da sich bei einem Zoom die Kamera nicht bewegt, verändern sich auch nicht
die Beziehungen zwischen den Objekten auf den verschiedenen Ebenen des
aufgenommenen
Inhaltes.
Dadurch
bleibt
die
Perspektive,
bei
einer
Brennweitenänderung des Objektivs, konstant und es entsteht nicht das Gefühl, sich
in die Szene hineinzubewegen. Ganz im Gegenteil: es entsteht dadurch ein äußerst
statischer Eindruck für die Objekte sowohl im Vorder- als auch im Hintergrund
(ähnlich
dem
eines
Fotos).
Die
Szene
verliert
einen
großen
Teil
der
Dreidimensionalität und erweckt eher das Gefühl, an ein Foto zu zoomen 29 .
Im Gegensatz dazu findet bei einem dolly eine „physische“ Bewegung der Kamera in
die 3D-Szene in Maya statt. Durch diese Bewegung verändern sich die räumlichen
Beziehungen zwischen den vorhandenen Objekten sowie die Perspektive, welche
eine Vergrößerung der Tiefenwahrnehmung unterstützt. Somit ermöglicht es eine
bewegliche Kamera den Zuschauer tiefer mit einzubeziehen, da sich an Objekten
vorbei- bzw. entlangbewegt wird. 30 Dies führt zu einem dramatischeren und besseren
dreidimensionalen Eindruck. Ein Dolly entspricht mehr einer echten realen Kamera. 31
Folglich bedeutet dies, dass, wenn der Eindruck von Räumlichkeit vermittelt werden
soll, ein Dolly die erste Wahl ist. Ein Zoom sollte verwendet werden, wenn ein
zweidimensionaler Eindruck entstehen soll.
28
Vgl. Monaco (wie Anm. 11), S. 75
Vgl. McGinnis (wie Anm. 8), 54min 20sec – 57min 00sec
30
Vgl. Monaco (wie Anm. 11), S. 188f
31
Vgl. McGinnis (wie Anm. 8), 54min 20sec – 57min 00sec
29
38
„Wenn auch der Zoom oft eine billige Alternative zur Fahrt darstellt, so schafft er
doch eine merkwürdige Distanz: Wir scheinen uns in größere Nähe zu begeben,
ohne wirklich näher zu kommen, und das ist verwirrend, da wir im wirklichen Leben
keine solche Erfahrung zum Vergleich haben.“ 32
Eine gleichzeitige Nutzung von Dolly und Zoom kann sowohl mit einer realen Kamera
als auch mit einer Kamera in Maya realisiert werden. Dieser Effekt wird als VertigoEffekt bezeichnet. Es findet dabei eine Distortion (Verzerrung) und Veränderung der
Perspektive statt.
Es entsteht der Eindruck, dass die Realität verzerrt bzw. verändert wird, deshalb wird
dieser Effekt oft genutzt, wenn ein Charakter etwas Bestimmtes sieht oder
realisiert. 33
Den Dolly Zoom gibt es in zwei Variationen. Einmal den Dolly In Zoom Out (dabei
wird die Kamera in die Szene hinein bewegt und die Brennweite verkleinert) sowie
den Dolly Out Zoom In (Herausbewegen der Kamera aus der Szene und
Vergrößerung der Brennweite).
Abb. 25 Entfernung der Kamera vom Objekt: 3 Grid-Units, Brennweite beträgt 35 mm
32
33
Vgl. Monaco (wie Anm. 11), S. 188
Vgl. McGinnis (wie Anm. 8), 57min 00sec – 1h 01min 00sec
39
Abb. 26 Keine Distortion der Aufnahme
3.4.2.2 Dolly In Zoom Out
Durch die Kamerabewegung in den 3D-Raum hinein wird sich an Objekten, welche
sich im Vordergrund befinden, vorbeibewegt. Durch die Änderung der Brennweite
verschieben sich Objekte des Hintergrundes hinter das Hauptobjekt.
Im zweiten Fall des Dolly Zoom scheinen sich die Objekte im Vordergrund vor das
eigentliche Hauptobjekt zu schieben.
Beim Dolly Zoom sollte darauf geachtet werden, dass das Hauptobjekt in seiner
Größe nicht variiert wird, sondern gleich bleibt.
Bei Verwendung dieses Effektes wird der psychologische Eindruck erweckt, dass
etwas bizarres vorgeht. 34
34
Vgl. McGinnis (wie Anm. 8), 59min 00sec – 1h 00min 45sec
40
Abb. 27 Brennweite der Kamera beträgt 9 mm, Entfernung vom Objekt ca. 0,5 Grid-Units
Abb. 28
Dolly In Zoom Out – starke Verzerrung durch Brennweitenänderung und
Kamerafahrt
41
3.4.2.3 Dolly Out Zoom In
Bei dieser Variante des Dolly Zoom wird die Kamera aus der Szene herausbewegt
und gleichzeitig die Brennweite vergrößert, um einen Zoom In zu realisieren.
Abb. 29 Die Entfernung zum Objekt beträgt ca. 15 Grid-Units, die Brennweite 175 mm
Abb. 30 Dolly Out Zoom In – starker zweidimensionaler Eindruck des Bildes
42
3.5 Camera Effects
3.5.1 Motion Blur
Motion Blur ist ein fotographischer Effekt, welcher auch Bewegungsunschärfe
genannt wird.
Um diesen Kamera-Effekt von bestimmten Objekten in Maya zu erstellen, müssen
die jeweiligen Objekte diesen Effekt auch unterstützen.
Dies lässt sich folgendermaßen überprüfen: Objekt auswählen Æ Attribut Editor Æ
Render Stats Æ Motion Blur (als Standardeinstellung ist Motion Blur aktiviert).
Damit dieser Effekt genutzt werden kann, muss dieser in den „Render Settings“ im
Tab „Maya Software“ aktiviert werden.
Es gibt zwei Typen dieses Effektes: 2D- und 3D-Bewegungsunschärfe.
2D-Motion Blur ist der einfachere und schnellere (im Bezug auf die benötigte
Renderzeit) von beiden Typen und wird bei einfachen Objekten genutzt.
3D-Motion Blur benötigt deutlich mehr Renderzeit und wird bei komplexen Objekten
genutzt, welche sich nicht nur zweidimensional bewegen, sondern auch um die
eigene Achse rotieren. Dieser Typ liefert genauere und bessere Ergebnisse als 2DMotion Blur. 35
Abb. 31 Die Einstellungsmöglichkeiten von Motion Blur
35
Vgl. McGinnis (wie Anm. 8), 1h 05min 30sec – 1h 09min 45sec
43
Mit den Einstellungsmöglichkeiten Blur by Frame und Blur Length wird die
dargestellte Menge von Motion Blur beeinflusst. Blur by Frame gibt an, wie viel für
das eigentlich gerenderte Frame vor- und zurückgesprungen wird, um ein möglichst
akkurates Bild zu generieren. In die Berechnung zur Erstellung des Motion Blur wird
demnach für die Standard-Einstellung (Blur by Frame 1) 0,2 Frame nach vorn und
0,2 Frame zurückgesprungen, um die jeweilige Veränderung der Kameraposition zu
berücksichtigen. Blur Length gibt die Länge des Motion Blur an. Durch ein Erhöhen
der Werte dieser beiden Einstellungsmöglichkeiten erhöht sich ebenfalls die Menge
des Motion Blur. 36
Für die Erstellung der Aufnahme „Sequenz_06.0_Motion.Blur.mov“ wurde der
zweidimensionale Typ des Motion Blur gewählt (die Kamerafahrt ist 1250 Frames
lang, wobei das Rendern eines Frames mit 2D-Motion Blur im Durchschnitt vier
Minuten dauerte [für einen von acht Rendervorgängen]).
Abb. 32 2D-Motion Blur mit den Einstellungswerten Blur by Frame 1,5 und Blur Length 5
Dieser Effekt wird oft genutzt, um ein besseres Geschwindigkeitsgefühl zu vermitteln.
Außerdem kann so „Verrücktes“ oder „Chaotisches“ versteckt werden. 37
36
37
Vgl. McGinnis (wie Anm. 8), 1h 05min 30sec – 1h 09min 45sec
Ebd., 1h 05min 30sec – 1h 09min 45sec
44
3.5.2 Depth of Field (Schärfenbereich)
„Der
Ausdruck
«Schärfenbereich»
(Depth
of
Field)
bezeichnet
die
Entfernungsspanne vor dem Objektiv, die im Bild genügend scharf erscheint. Wenn
wir den Schärfenbereich mit wissenschaftlicher Genauigkeit festlegen wollten, so
wäre nur eine einzige Ebene vor der Kamera wirklich scharf, die «Schärfenebene»
(auch Einstellebene oder focus plane genannt).“ 38
Für die psychologische Realität gilt jedoch, dass auch stets der Bereich, welcher vor
und hinter der Schärfenebene liegt, als scharf wahrgenommen wird. Sehr wichtig im
Hinblick auf diesen Schärfenbereich ist die Verwendung von verschiedenen ObjektivTypen, denn diese besitzen stark unterschiedliche Eigenschaften bezüglich des
Depth of Field. Beispielsweise hat ein Weitwinkel-Objektiv einen sehr tiefen
Schärfenbereich, bei einem Tele-Objektiv ist dies das Gegenteil. Hier ist nur ein sehr
flacher Schärfenbereich verfügbar. 39
„Es gibt zwei Achsen für die Bestimmung der Schärfe.“ 40 Die erste Achse beinhaltet
entweder die Schärfentiefe oder die flache Schärfe. Bei Ersterer, welche auch deep
focus genannt wird, werden Objekte vom Vordergrund bis in den Hintergrund scharf
dargestellt. Die flache Schärfe ist das Gegenteil der Schärfentiefe, hier wird nur eine
Ebene hervorgehoben. Dies gibt jedoch die Möglichkeit einer größeren Kontrolle
über das Bild, da bestimmte Objekte des Bildes scharf dargestellt und somit
hervorgehoben werden können. „Die zweite Achse ist das Kontinuum zwischen
harter und weicher Schärfe.“ 41 Letztere von beiden wird sehr oft mit romantischen
Stimmungen in Verbindung gebracht. Ein Weichzeichner verursacht jedoch ebenfalls
eine Glättung des Bildes. Die harte Schärfe entspricht eher der Realität und wird
deshalb eher mit Naturtreue in Verbindung gebracht. 42
Bei Aufnahmen mit einer realen Kamera gibt es unterschiedliche Distanzen im
Aufnahmebereich. Es gibt Objekte, welche scharf dargestellt werden, da sie sich im
Fokus der Kamera befinden, und es gibt Objekte, die weniger scharf dargestellt
38
Vgl. Monaco (wie Anm. 11), S. 78
Ebd., S. 78f
40
Ebd., S. 185
41
Ebd., S. 185
42
Ebd., S. 185
39
45
werden. Diese befinden sich nicht im Fokus der Kamera, sondern sind von diesem
Schärfenbereich entfernt. Diese Objekte erscheinen unscharf.
Die Standard-Einstellungen von Maya sehen keine Tiefenunschärfe vor. Diese muss
durch die Attribute von Depth of Field eingestellt werden. Normalerweise werden in
Maya alle Objekte stets scharf gerendert, dass bedeutet, dass in diesem Programm
ein unendlicher Schärfenbereich vorliegt. 43
Abb. 33 Die Einstellungsmöglichkeiten von Depth of Field
Focus Region Scale gibt den Bereich in Grid-Units an, welcher durch die Focus
Distance scharf dargestellt wird. Dies bedeutet, dass bei einer Focus Distance von
1.5 und einem Focus Region Scale von 5 in einer Entfernung von 1,5 Grid-Units vor
der Kamera der Schärfenbereich dargestellt wird. Durch den Focus Region Scale
wird dieser Schärfenbereich um bis zu 2,5 Grid-Units vor und hinter die
Schärfenebene ausgedehnt. Durch die Einstellungsmöglichkeit von „F Stop“ kann
dieser Schärfenbereich jedoch noch zusätzlich verändert werden.
Mit „F Stop" kann eingestellt werden, wie groß der Bereich des Fokus ist, in dem die
Stärke der Tiefenunschärfe erhöht bzw. verringert wird. Außerhalb des Fokus
liegende Objekte werden unscharf dargestellt. Bei einem höheren Wert von „F Stop“
ist der Bereich des Fokus größer, da die Stärke der Tiefenunschärfe abnimmt. Bei
einem niedrigeren Wert verringert sich der scharf gestellte Bereich. 44
„F Stop“ ist die „Maßangabe der Größe der Blendenöffnung, […]. Je höher die f-Zahl,
desto weniger Licht wird eingelassen“ 45 und gleichzeitig wird ein größerer
Schärfenbereich ermöglicht. Es wird somit kontrolliert, wie viel Licht auf den Film trifft.
43
Vgl. McGinnis (wie Anm. 8), 1h 17min 00sec – 1h 24min 00sec
Ebd., 1h 17min 00sec – 1h 24min 00sec
45
Vgl. Monaco (wie Anm. 11), S. 387
44
46
Abb. 34 Depth of Field mit Focus Distance 1.5 , „F Stop” 30 und Focus Region Scale 5
Depth of Field kann genutzt werden, um ein Objekt in den Mittelpunkt einer Szene zu
rücken. Dabei wird der wichtige Bildausschnitt scharf und der weniger wichtige Teil
des Bildes unscharf dargestellt. Durch Nutzen dieses Effektes kann der Blick auf
bestimmte Objekte gelenkt und somit stark beeinflusst werden. Ebenfalls wird eine
Isolation der Objekte auf der Schärfenebene hervorgerufen. 46
Auf
der
folgenden
Seite
sind,
für
ein
besseres
Verständnis,
Bilder
mit
unterschiedlichen Rendereinstellungen bezüglich Depth of Field erstellt worden. Ein
visueller Vergleich zeigt die unterschiedlichen Einstellungsmöglichkeiten am
deutlichsten.
46
Vgl. McGinnis (wie Anm. 8), 1h 17min 00sec – 1h 24min 00sec
47
Abb. 35
Focus Distance
0.5
F Stop
30
Focus Region Scale
1
Abb. 36
Focus Distance
0.5
F Stop
50
Focus Region Scale
1
Abb. 37
Focus Distance
0.5
F Stop
30
Focus Region Scale
2
Abb. 38
48
Focus Distance
0.5
F Stop
30
Focus Region Scale
7
3.5.3 Rack Focus (Schärfenverlagerung)
Als Rack Focus wird die Verlagerung der Schärfenebene innerhalb einer Einstellung
bezeichnet. Dabei wird die Schärfenebene von einem Objekt, beispielsweise im
Vordergrund, auf ein anderes Objekt, z. B. im Hintergrund, verlagert.
Um diesen Kamera-Effekt in Maya zu erstellen, wird auf das Depth of Field
(Schärfenbereich) zurückgegriffen. Mit dem Attribut Focus Distance ist es möglich,
die Schärfenebene, focus plane, der Kamera in Maya zu verlagern. Nachdem die
Informationen über die Entfernung der Objekte zur Kamera bekannt sind - durch das
Attribut Center of Interest können die Grid-Units ausgewertet werden - müssen diese
nur noch unterschiedlichen Zeitpunkten der Einstellung der Focus Distance
zugeordnet werden, indem man mindestens zwei Keyframes für dieses Attribut
setzt. 47
Abb. 39 Links: Kamera mit zwei Gebäudegruppen, welche jeweils eine Schärfenebene
repräsentieren.
Abb. 40 Rechts: Ansicht durch die Rack Focus Kamera.
Zum Zeitpunkt 1 wird die Entfernung der vorderen Gebäudegruppe zur Kamera als
Wert für die Focus Distance genutzt (Entfernung 1.5 Grid-Units).
Zum Zeitpunkt 2 wird die Entfernung der hinteren Gebäude zur Kamera genutzt, um
der Focus Distance einen korrekten Wert zuzuweisen (Entfernung 15 Grid-Units).
47
Vgl. McGinnis (wie Anm. 8), 1h 24min 00sec – 1h 30min 00sec
49
Abb. 41 Focus Distance: 1.5 - Schärfenebene mit Gebäuden im Vordergrund
Abb. 42 Focus Distance: 15 - Schärfenebene mit Gebäuden im Hintergrund
„Es gibt zwei Hauptarten von Schärfenwechsel innerhalb der Einstellung:
Schärfenmitführung – die Schärfe wird gewechselt, damit die Kamera einen sich
bewegenden Gegenstand scharf behalten kann – und Schärfenverlagerung – die
Schärfe wird verändert, um unsere Aufmerksamkeit von einem Gegenstand weg zu
50
einem anderen zu lenken, zum Beispiel von einem Gegenstand im Hintergrund zu
einem im Vordergrund.“ 48
Bei der Schärfenmitführung ist es im Gegensatz zu der Schärfenverlagerung wichtig,
dass die Aufmerksamkeit durch die Schärfenebene auf dem Objekt ruht. Durch die
Schärfe wird es ermöglicht, die gesamte Konzentration auf eine einzige Ebene zu
verlagern. 49
Aus psychologischer Sicht kann der Regisseur der Aufnahme, durch Verwendung
eines Rack Focus, dem Zuschauer mitteilen, welches Objekt ihm im jeweiligen
Augenblick wichtig ist. 50
3.5.4 Fish Eye Camera
Eine Fish Eye Camera besitzt normalerweise ein sehr großes Sichtfeld. Das
verwendete Weitwinkel-Objektiv besitzt einen Blickwinkel von nahezu 180 Grad und
nimmt damit diese extreme Verzerrung der linearen und Tiefen-Wahrnehmung auf.
Die Fish Eye Camera wird auch einfach als das «Fischauge» bezeichnet. 51
In Autodesk Maya kann dieser Effekt sehr einfach erstellt werden, dafür wird jedoch
zusätzlich zur Kamera eine Halbkugel benötigt, welche am vorderen Teil der Kamera
(Objektiv) angebracht wird. Durch diese Konstruktion ist es nun möglich, die
Reflektion der Umgebung in der Halbkugel zu rendern. So entsteht der typische
Verzerrungseffekt.
48
Vgl. Monaco (wie Anm. 11), S. 185
Ebd., S. 185
50
Vgl. McGinnis (wie Anm. 8), 1h 24min 00sec – 1h 30min 00sec
51
Vgl. Monaco (wie Anm. 11), S. 71f
49
51
Abb. 43 Erstellte Fish Eye Camera in Maya mit Halbkugel für Verzerrung
Abb. 44 Der Fish Eye Effekt mit seiner bekannten Distortion
52
3.6 Graph Editor
Der Graph Editor ist einer der am meisten genutzten Editoren in Maya, wenn eine
Animation nachbearbeitet werden muss. Im Zusammenhang mit dieser Diplomarbeit
wurden alle 20 Bewegungsabläufe der Kamera mit Hilfe dieses Editors angefertigt.
Nachdem der grobe Kameraverlauf sowie sonstige Eigenschaften der Kamera,
beispielsweise Brennweite, durch Setzen von Keyframes erstellt wurde, kann
anschließend mit dem Graph Editor die bestehende Animation verfeinert werden.
Dafür muss das entsprechende Objekt einfach ausgewählt werden. Nun werden in
der linken Übersicht alle zur Verfügung stehenden Attribute aufgelistet. Die
bestehenden Animationen, z. B. Translate X, Translate Y und Translate Z für eine
Bewegung des Objektes, werden durch Graphen dargestellt. Die schwarzen Punkte
auf diesen Graphen stellen Keyframes dar. An diesen Stellen kann durch Nutzen von
Tangenten der Verlauf des Graphs verändert werden. Eine Gewichtung und
Brechung dieser ist ebenfalls möglich, um die gewünschte Animation des Objektes
zu erstellen. Die Keyframes selbst können in ihrem Wert auch verändert werden. Auf
diese Weise sind sehr feine Bewegungen animierbar.
Abb. 45 Der Graph Editor mit Kamera „RenderCAM_07_IV_“. In dieser Übersicht sind alle
zu veränderbaren Attribute aufgelistet.
53
4. Apple Shake
„In der Filmindustrie teilt man den Arbeitsprozeß in drei Phasen: Pre-Production,
Dreharbeiten, Post-Production.“ 52
Die Pre-Production umfasst sämtliche Vorbereitungen, die getroffen werden müssen,
damit der eigentliche Film überhaupt entstehen kann. Es müssen Drehbücher
geschrieben, Schauspieler und Techniker engagiert sowie das Budget veranschlagt
werden.
In der zweiten Phase wird der eigentliche Film gedreht und damit das für die dritte
Phase notwendige Rohmaterial produziert.
Die Post-Production selbst läuft in mehreren unterschiedlichen Arbeitsschritten
gleichzeitig ab: Der Schnitt, die Musik und das Composting. Im letzterem
Arbeitsschritt werden sämtliche Spezialeffekte für den Film erstellt. 53
4.1 Was ist Compositing?
Compositing gibt es schon seit vielen Jahren und fand seinen eigentlichen Ursprung
in der Fotografie. Fotografen kombinierten damals ihre unterschiedlichen Negative im
„Dunkel-Raum“, um ihr fertiges Bild zu erstellen. 54
Abb. 46 Links: Bild 1 ohne Nachbearbeitung.
Abb. 47 Rechts: Bild 2 mit erhöhter Brightness (Helligkeit) gegenüber von Bild 1
52
Vgl. Monaco (wie Anm. 11), S. 116
Ebd., S. 117
54
Jackemuk, Gary: „Visual Effects Compositing Fundamentals. Production Compositing
Techniques with Gary Jackemuk.” (Video) The Gnomon Workshop, Chapter 1, 00min 10sec – 5min
00sec
53
54
Das erste Bild hat einen relativ dunklen Vordergrund, der nicht in das eigentliche
Gesamtbild passt. Durch Erhöhen der Helligkeit wird jedoch nicht nur der
Vordergrund, sondern das gesamte Bild heller. Damit ist der Hintergrund jedoch zu
„stark beleuchtet“, der Vordergrund besitzt nun im Gegensatz dazu sehr angenehme
Farbwerte. Somit würden der Hintergrund von Bild 1 und der Vordergrund von Bild 2
eine passende Komposition ergeben.
Eine Möglichkeit zum Zusammenfügen dieser beiden Inhalte stellen Matte dar.
Matte sind unterschiedlich erstellbare schwarz-weiß Bilder, welche für die Separation
oder Hinzufügung von Inhalten genutzt werden können.
Abb. 48 Matte für Bild 1 (Vordergrund) sowie invertierte Matte für Bild 2 (Hintergrund)
Durch Erstellen und Nutzen einer Matte können anschließend der Vordergrund von
Bild 1 und der Hintergrund von Bild 2 (bei invertierter Matte) separiert werden.
Abb. 49 Diese zwei Composites können anschließend miteinander kombiniert werden und
ergeben zusammen das gewünschte Resultat. Ein Composite (bedeutet soviel wie „Gemisch“)
ist ein durch Compositing erstellter Inhalt.
55
Abb. 50
Bildes.
Das fertige Composite: aufgehellter Vordergrund und originaler Hintergrund des
Dieses einfache Beispiel soll als Einführung in Compositing dienen, durch das es
sehr viel einfacher ist, Änderungen an bereits erstellten Inhalten vorzunehmen.
Beispielsweise können lokale Farb- oder Helligkeitsanpassungen sehr einfach
nachträglich getätigt werden, ohne dass eine komplette Einstellung noch einmal neu
gedreht oder gerendert werden muss.
4.2 Das Interface von Shake
Die Benutzeroberfläche von Shake ist in vier Bereiche unterteilt. Den Viewer zum
Darstellen der Bilder, die Node-View-Area zum Erstellen des Node-Tree sowie die
Tool-Tab-Area, die alle Tools beinhaltet, die benötigt werden, um einen Node-Tree
zu erstellen und somit ein Bild beziehungsweise eine Sequenz optisch zu verändern.
Dabei erscheint der gewählte Node nach dem Anklicken in der Tool-Tab-Area direkt
als Node in der Node-Tree-Area. Den vierten Bereich stellt die Parameter-Area dar,
in der die Einstellungen für die unterschiedlichen Nodes getroffen werden.
56
Abb. 51 Das Interface von Shake mit seinen vier Bereichen: der Viewer, die Node-TreeArea, die Tool-Tab-Area und die Parameter-Area (v.l.o.n.r.u.)
4.3 Grundlagen von Shake
In diesem Abschnitt sollen Grundlagen vermittelt werden, welche für das
Compositing notwendig sind. Das Verstehen und Nutzen des Alpha Kanals, des Over
und Rotoshape Node sind essentiell, um Inhalte sowohl zusammenzuführen als auch
zu trennen.
4.3.1. Alpha Kanal
Der sogenannte Alpha Kanal wird oft auch als Matte Channel bezeichnet. Bis auf den
unterschiedlichen Namen sind diese identisch. Ein Alpha Kanal zeigt an, wo im Rot-,
Grün- und Blau-Kanal eines Bildes Daten vorhanden sind. Darüber hinaus wird nicht
nur die Position der vorhandenen Daten, sondern auch die mögliche Transparenz
anzeigt. Wenn ein Alpha Kanal beispielsweise bei einem Wert von 50 Prozent
(Grauton) liegt, bedeutet dies, dass der eigentliche Farbton der RGB Kanäle, die das
Bild an dieser Position hätte, ebenfalls nur zu 50 Prozent angezeigt wird.
57
Alle 3D-Animations- und Modellierungswerkzeuge (Maya, 3D Studio Max, Cinema
4D, Lightwave, XSI) erstellen beim Rendern für jedes Bild einen optionalen Alpha
Kanal zusätzlich (RGBA für Rot, Grün, Blau, Alpha).
Abb. 52
Auf der linken Seite sind die RGBInformationen des Bildes zu sehen, auf der
rechten Seite ist der Alpha Kanal (weiße
Fläche) des Bildes dargestellt
Nur in Regionen, in denen der Alpha Kanal vorhanden ist, gibt es sichtbare
Informationen. Schwarze Regionen sind vollständig transparent und somit nicht
sichtbar. Grautöne, wie an den Rändern des weißen Bereiches, werden
entsprechend halbtransparent dargestellt.
Es ist möglich, einen Alpha Kanal nachträglich einem Bild in Shake hinzuzufügen.
4.3.2 Over Node
Der Over Node wird auch als das Workhorse of Compositing 55 bezeichnet. Mit
diesem
Node
ist
es
möglich
verschiedenste
Inhalte
-
Images
-
„übereinanderzulegen“. Für dieses Layering ist die Nutzung des Alpha Kanals
prädestiniert, denn es werden dadurch nur die gewünschten Bereiche des
„Vordergrund-Bildes“ angezeigt, an denen der Alpha Kanal vorhanden ist.
Der Over Node kann sowohl mit UnPremultiplied als auch Premultiplied Images
genutzt werden. Letzteres von beiden bedeutet, dass das Bild bereits einen Alpha
Kanal besitzt. Ein UnPremultiplied Image besitzt im Gegensatz dazu keinen, welcher
jedoch mit dem Node MMult (MatteMult) dem Bild hinzugefügt werden kann.
Eine mathematische Formel für den Over Node würde so aussehen:
55
Vgl. Jackemuk (wie Anm. 54), 2h 11min 00sec – 2h 12min 00sec
58
für UnPremultiplied Images (ohne Alpha Kanal) gilt Folgendes:
((A*Aa)+((1-Aa)*B))
Multipliziere Bild 1 (A) mit seinem Alpha Kanal (Aa) – Premultiplication. Bilde die
Inverse des Alpha Kanals von Bild 1 (1-Aa) und multipliziere dies mit Bild 2 (B).
Abschließend lege Bild 1 über Bild 2. 56
für Premultiplied Images (mit Alpha Kanal) gilt folgendes:
(A + ((1-Aa)*B))
Die Schritte entsprechen denen für UnPremultiplied Images. Es fällt nur der Schritt
weg, in dem für Bild 1 ein Alpha Kanal erstellt wird, da dieses schon einen besitzt. 57
Bild 2 benötigt im Gegensatz zu Bild 1 keinen Alpha Kanal. Der Grund dafür ist in der
Formel
ersichtlich.
Bild
1
wird
über
Bild
2
„gelegt“,
dafür
werden
die
Transparenzinformationen von Bild 1 benötigt - wo es sichtbar ist und wo nicht. Bild 2
hingegen wird nur verdeckt und braucht somit keinen Alpha Kanal. 58
Abb. 53 Der Over Node mit zwei Inputs (Bild 1 und Bild 2)
56
Vgl. Jackemuk (wie Anm. 54), 2h 11min 00sec – 2h 14min 00sec
Ebd., 2h 11min 00sec – 2h 14min 00sec
58
Ebd., 2h 14min 00sec – 2h 18min 00sec
57
59
4.3.3 Rotoshape Node
Shake unterstützt Rotoscoping durch den Rotoshape Node. Unter Rotoscoping
versteht man das Freistellen von Bildteilen.
„Nicht selten ist es hierbei oftmals notwendig, einzelbildweise Masken für Objekte zu
ziehen, d.h. die Umrisslinie eines Objekts nachzuziehen, um das Objekt
auszuschneiden. Dies geschieht meist, um ein anderes Objekt in den Hintergrund
einfügen zu können.“ 59 Ein anderer Grund könnte auch das lokale Verändern eines
einzelnen Objektes im Bild sein. Dies ist in der unteren Abbildung der Fall.
Abb. 54 Der Brightness Node besitzt einen Matte Input, dargestellt durch den kleinen roten
Kreis, in den ein Rotoshape Node eingefügt werden kann.
Das oben dargestellte Bild ist folgendermaßen zu verstehen: „N02“ ist eine ImageSequenz, welche mit einem Brightness Node verbunden ist. Da das Ändern der
Helligkeit jedoch nicht auf das vollständige Bild angewendet werden soll, sondern nur
lokal auf ein ausgewähltes Objekt, muss ein Rotoshape Node genutzt werden. In
diesem wird nun das Objekt mit einer Umrisslinie (vgl. Viewer und Rotoshape Node
im obigen Bild) nachgezogen. Durch Einfügen der gezeichneten Maske in den Matte
Input des Brightness Node wird nun die Helligkeitsänderung auf das ausgewählte
59
http://www.idagrove.de/RotoscopingArtist.html
(letzter Zugriff am 27.01.2009)
60
Objekt beschränkt. Der außerhalb der Maske liegende Bildteil wird von der Änderung
nicht betroffen (vgl. mit Abschnitt 4.4.1 lokale dynamische Helligkeitsänderung).
4.4 Ausgewählte Effekte
Einen anderen Ansatz als das Verwenden des Rotoshape Node stellt das untere Bild
dar. Hier wurde, wie im Node Tree ersichtlich ist, für das Separieren des Objektes
(Gebäude) eine eigene Image-Sequenz erstellt. Dazu wurde das entsprechende
Objekt einzeln in Maya gerendert und anschließend als eigene Sequenz in Shake
importiert. Durch Nutzen des Over Node und der eigentlichen Bilderfolge „N02“ ist es
bei der Ausgabe nicht ersichtlich, dass es sich bei einer Ebene um einen
eigenständig anpassbaren Layer handelt.
Abb. 55 Eine Ebene (ein einzelnes Gebäude als Image-Sequenz „layer“) als eigener Layer
im Vordergrund (oberste Ebene)
Dieses Layering wird in Abschnitt 4.4.2 und 4.4.3 verwendet.
61
4.4.1 Lokale dynamische Helligkeitsänderung
Als Grundlage für die Helligkeitsänderung eines einzelnen Gebäudes wird an dieser
Stelle der Node Tree, wie in Abschnitt 4.3.3 Rotoshape Node beschrieben,
verwendet. Durch eine Maske wird das Objekt separiert und kann fortan eigenständig
verändert werden. Der Brightness Node ist ein einfacher Multiplikator der RGB
Kanäle. Falls nur ein Kanal, Rot, Grün oder Blau, in der Helligkeit verändert werden
soll, muss der Mult Node verwendet werden.
Wenn der Brightness value größer als 1 ist, wird der Inhalt aufgehellt. Ein Verringern
des Wertes unter 1 bringt ein abdunkeln des Inhaltes mit sich. Bei einem Wert von 0
erscheint der Inhalt vollständig schwarz.
Abb. 56 Der Brightness value wurde auf einen Wert von 4 erhöht und hellt damit den Inhalt
des Rotoshapes, welches mit dem Brightness Node verbunden ist, auf.
62
Abb. 57 Auf dieser Abbildung wurde der Brightness value auf 0.1 verringert. Damit wird
der entsprechende Bereich abgedunkelt.
4.4.2 Änderung des ColorSpace und Erstellung von Glow
Rot, Grün und Blau sind die Farben, die ein Monitor normalerweise „erwartet“. Es ist
in Shake jedoch möglich, den ColorSpace von RGB in einen Anderen zu ändern und
sich diesen anzeigen zu lassen. Nach der Überführung von RGB in HLS (Hue,
Luminance und Saturation) wird gezeigt, wie ein Glow-Effekt in Shake erstellt werden
kann. An Hand dieses Effektes wird sehr anschaulich erläutert, dass Shake einen
sehr atomar aufgebauten Workflow besitzt. Für die Erstellung des Glow sind
beispielsweise zwei Nodes nötig. Zum einen ein Blur und zum anderen ein
Brightness Node. Durch diesen atomaren Aufbau ist eine bessere Kontrolle des
Node Tree gegeben, jedoch steigt dadurch die Komplexität dessen deutlich an. 60
In diesem Beispiel wird ein Gebäude, an welchem die Änderung des ColorSpace
sowie die Erstellung des Glow gezeigt wird, als eigenständige Ebene namens „layer“
verwendet. Es wird kein Rotoshape Node genutzt.
60
Vgl. Jackemuk (wie Anm. 54), 2h 46min 30sec – 2h 53min 00sec
63
Abb. 58 Eigenständige Ebene „layer“ mit einzelnem Gebäude als Image-Sequenz
Die ColorSpace Funktion ermöglicht es, ein Bild, welches einem Farbraum
entspricht, in einen anderen Farbraum umzuwandeln. Es entstehen durch diese
Änderung sehr originelle Farben, da der Monitor normalerweise einen RGB
Farbraum darstellt.
Insgesamt stehen in Shake sechs verschiedene Farbräume zur Verfügung. Dies sind
unter Anderem RGB (Rot, Grün, Blau), CMY (Cyan, Magenta, Yellow), HLS (Hue,
Luminance, Saturation) und HSV (Hue, Saturation, Value).
An dieser Stelle wird der ColorSpace Node genutzt, um von RGB in HLS zu
wechseln.
Shake geht bei Anwendung dieser Funktion folgendermaßen vor: es wird der Red
Channel mit dem Hue Channel, der Green Channel mit dem Lunminance Channel
und der Blue Channel mit dem Saturation Channel ersetzt.
Nach dem Umwandeln können verschiedenste Farbkorrekturen im neuen Farbraum
getätigt werden, um anschließend durch Nutzen eines weiteren ColorSpace Node in
den eigentlichen Farbraum zurückzuwechseln. 61
61
Apple Computer, Inc.: “Shake 4 User Manual.” Cupertino 2005, S.646ff
64
Abb. 59 Der ColorSpace Node mit seinen Einstellungsmöglichkeiten. inSpace entspricht
dem „Ausgangsfarbraum“ und outSpace dem „Zielfarbraum“.
Der Blur Node wird genutzt, um ein Bild mit Unschärfe zu versehen. Dafür gibt es
unterschiedliche Einstellungsmöglichkeiten. Standardmäßig wird gaussian blur in
sowohl horizontale als auch vertikale Richtung verwendet. Unter dem Parameter
pixels wird die Stärke der Unschärfe in Pixel eingestellt. Ein Wert von 100 bedeutet,
dass 100 Pixel auf beiden Seiten des Bezugpunktes geblurt werden. Dabei ist
standardmäßig die horizontale und vertikale Richtung (xPixels und yPixels)
miteinander verbunden, so dass eine gleichmäßige Unschärfe entsteht. Durch
Trennen der Abhängigkeit voneinander ist es möglich in nur eine Richtung, also in
horizontale oder vertikale Richtung, Unschärfe zu erstellen. 62 Durch Nutzen des Blur
wird das eigentliche Objekt - das Gebäude - sehr unscharf dargestellt. Jedoch wird
dadurch eine Vergrößerung um 100 Pixel in horizontale als auch vertikale Richtung
erzeugt. Diese Ausbreitung wird im Folgenden durch den Brightness Node genutzt.
62
Vgl. Apple (wie Anm. 61), S. 864f
65
Abb. 60 Der Blur Node mit seinen Parametern. Die Unschärfe ist in diesem Fall bis zu 100
Pixel in jede Richtung vom „Bezugpixel“ entfernt.
Der Brightness Node wurde bereits in Kapitel 4.4.1 vorgestellt. In diesem Fall wird
er dazu genutzt, um die zuvor erstellte Unschärfe aufzuhellen.
Abb. 61 Durch das Erhöhen der Helligkeit wird dass durch den Blur ausgeweitete Objekt
aufgehellt.
66
Durch den Over Node werden, bedingt durch die Anzahl der vorhandenen Inputs,
zwei Bilder übereinander gelegt. Es gibt dafür die beiden Parameter Foreground und
Background, wobei der Vordergrund über den Hintergrund gelegt wird.
In diesem Falle sind das zum einen das durch den Node ColorSpace umgewandelte
Bild als Input für den Foreground, und zum Anderen das mit den Node Brightness
aufgehellte Bild für den Background.
Es spielt keine Rolle, dass es sich bei dem Bild um das in seiner Grundform
identische Bild handelt.
Der Vordergrund wird über den Hintergrund gelegt, so dass nun deutlich die durch
den Blur verursachte Ausweitung sichtbar ist. Der Hauptteil des Blur ist nicht sichtbar,
da dies durch das Bild, welches sich im Vordergrund befindet, überlagert wird.
Abb. 62 Die Ausweitung des Blur ist im Viewer sehr gut erkennbar.
Der Fade Node besitzt nur einen Parameter, den fade value. Mit diesem ist es
möglich, ein Bild in seiner Darstellung ein- oder auszublenden.
In diesem Beispiel wird die Ebene „layer“ um 20 Prozent in ihrer „Darstellungsstärke“
reduziert, um anschließend als Vordergrund für den folgenden Over Node zu
fungieren.
67
Abb. 63 Der fade value mit einem Wert von 0.8 bedeutet, dass das Bild mit nur 80 Prozent
seiner normalen „Darstellungsstärke“ angezeigt wird.
4.4.3 Warper
Der Warper Node ermöglicht das Deformieren, das Verzerren, eines Bildes. Dazu
werden unterschiedliche Shapes („Umrisslinien“) benötigt. Diese können zu jedem
Zeitpunkt kontrolliert und durch Keyframes animiert werden, um so eine Verzerrung
hervorzurufen.
Für den Warper Node gibt es insgesamt vier verschiedene „Umrisslinien“, welche
miteinander in Verbindung stehen.
Durch diese Shapes wird beispielsweise definiert, welcher Teil des Bildes um wie viel
verzerrt werden soll. 63
Die folgende Grafik zeigt die verschiedenen zur Verfügung stehenden Shapes.
63
Vgl. Apple (wie Anm. 60), S. 821ff
68
Abb. 64 Die unterschiedlichen Shapes für die Nutzung des Warper Node.
Source Shape:
Dies sind „Umrisslinien“, welche um das zu verzerrende Objekt gezogen werden
müssen. Die Farbe dieser Shapes ist hellblau. 64
Target Shape:
Diese Shapes spiegeln die Form des Objektes wieder, welche nach der Verzerrung
erreicht werden soll. Durch eine dunkelblaue Farbe ist dieser Typ gekennzeichnet. 65
Connection Line:
Um einen Warp Effekt zu erstellen, müssen das Source Shape und das zugehörige
Target Shape miteinander verbunden werden. Wenn dies geschieht, werden
automatisch Connection Lines zwischen den beiden Shapes erstellt. Diese zeigen
die jeweiligen Bezugspunkte, welche zwischen dem Source- und Target Shape auch
nach der Verformung übereinstimmen. Die Farbe dieser Linien ist lila. 66
Boundry Shape:
Dieser Typ von „Umrisslinien“ stellt die Begrenzung für die Deformation dar. Nur
innerhalb dieser orangenen Shapes sind Verzerrungen möglich. 67
64
Vgl. Apple (wie Anm. 61), S. 823
Ebd., S. 823
66
Ebd., S. 823
67
Ebd., S. 823
65
69
Abb. 65
Objektes
Der Warper Node mit Source- und Target Shape jedoch ohne Verformung des
Abb. 66 Bei dieser Verzerrung des Objektes sind sehr schön die unterschiedlichen Shapes
erkennbar
70
5. Cinematographic Terminology
Der Begriff Cinematographic Terminology setzt sich aus den zwei Wörtern
cinematography (zu deutsch: Kinematografie) und terminology zusammen. Ersteres
bedeutet soviel wie Filmkunst 68 , letzteres kann als Fachsprache 69 übersetzt werden.
Diese „Fachsprache der Filmkunst“ behandelt u. a. die verschiedenen Distanzen
zwischen Kamera und Objekt sowie Kamerawinkel, welche bei den Aufnahmen
beachtet werden sollten.
„Der Film ist keine Sprache in dem Sinne, wie Englisch, Französisch oder
Mathematik
Sprachen
sind.
Zunächst
einmal
ist
es
im
Film
unmöglich,
«ungrammatisch» zu sein. Es ist auch nicht nötig, ein Vokabular zu lernen.“ 70 Jedoch
hat ein Film sehr viel mehr mit einer Sprache gemein als zunächst vermutet. Durch
ein Kennen lernen der Quasisprache des Films gibt dies dem Zuschauer die
Möglichkeit, einen Film besser zu deuten. Darüber hinaus kann vorausgesetzt
werden, dass jeder Mensch sowohl ein visuelles Bild wahrnehmen als auch erkennen
kann. Jedoch muss dabei beachtet werden, dass in unterschiedlichen Kulturen auch
die einfachsten visuellen Bilder etwas anderes aussagen können. Dieser Umstand
sollte stets Beachtung finden. Es kann aber daraus geschlussfolgert werden, dass
Bilder von einem Menschen gelesen werden müssen. 71
Anhand eines kleinen Beispiels soll an dieser Stelle kurz verdeutlicht werden, welche
Entscheidungen für die Aufnahme eines Bildes getroffen werden können:
„Die Rose ist aus einem bestimmten Winkel gefilmt, die Kamera bewegt sich oder
bewegt sich nicht, die Farbe ist leuchtend oder stumpf, die Rose frisch oder welk, die
Dornen sichtbar oder versteckt, der Hintergrund klar (so daß die Rose im
Zusammenhang gesehen wird) oder verwischt (so daß sie isoliert erscheint), die
Aufnahmedauer ist lang oder kurz […].“ 72
68
http://www.medialine.de/deutsch/wissen/enzyklopaedisches-woerterbuch.php?ext_pfad=bkb&snr=3
036
(letzter Zugriff am 27.01.2009)
69
http://www.medialine.de/deutsch/wissen/enzyklopaedisches-woerterbuch.php?ext_pfad=bkb&stichw
ort=terminology&x=0&y=0
(letzter Zugriff am 27.01.2009)
70
Vgl. Monaco (wie Anm. 11), S. 134
71
Ebd., S. 134
72
Ebd., S. 145
71
5.1 Aufnahme-Distanz
„Filmemacher benutzen eine Fülle von Begriffen in bezug auf die Einstellung. Die
Faktoren […] schließen die Entfernung ein, die Bildschärfe, den Winkel, die
Bewegung und den Standpunkt.“ 73
5.1.1 Distanz-Aufnahme
Bei einer Distanz-Aufnahme ist die Kamera, wie es der Name schon erahnen lässt,
vom Geschehen entfernt. Das bedeutet, es wird die Einstellung aus einer gewissen
Entfernung aufgenommen.
Die
Totale
sowie
die
Panorama-Einstellung
sind
Distanz-Aufnahmen.
Der
Establishing Shot ist eine besondere Form der Totalen. Diese Kameraeinstellung
wird auch als „(d)ie einführende Einstellung“ bezeichnet. Der Name kommt daher,
weil sie am Anfang eines Films eingesetzt wird, um einen Überblick über den
Schauplatz zu geben, und so mitzuteilen, wo sich das Geschehen gerade abspielt.
Dazu wird sehr oft eine erhöhte Kameraposition mit einem etwas dem Boden
zugeneigten Kamerawinkel gewählt. 74 Zusätzlich soll der Establishing Shot oft die
Zeit und andere wichtige Informationen wiedergeben. 75
„[…] (E)in Film, der hauptsächlich aus Totalen besteht […], (betont) den Kontext vor
dem Drama und die Dialektik vor der Persönlichkeit.“ 76
Keine dieser Distanz-Aufnahmen hat einen Bezug zu der Verwendung der
Brennweite des Objektivs. Bei diesen Einstellungen spielt die Brennweite keine Rolle,
sondern nur die Entfernung zwischen Kamera und dem aufgenommen Geschehen.
Es werden aber auch Einstellungen nach den Objektiven benannt, „[…] zusätzlich zu
ihrer Definition durch Begriffe, die auch aus der Entfernung zum Objekt ableiten.“ 77
73
Vgl. Monaco (wie Anm. 11), S. 182
Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec
75
Vgl. Monaco (wie Anm. 11), S. 197
76
Ebd., S. 182ff
77
Ebd., S. 183
74
72
Abb. 67 Establishing Shot mit erhöhter Kameraposition und geneigtem Kamerawinkel
5.1.2 Normal-Aufnahme
Die so genannten Normal-Einstellungen schließen folgende Einstellungen ein: den
Over-the-Shoulder Shot (Kopf-und-Schulter-Einstellung), Two Shot, Medium Shot,
die Halbnah Einstellung, die «amerikanische» Einstellung und den Full Shot
(Halbtotale). 78 Diese werden dadurch definiert, was in der Aufnahme vom
entsprechenden Objekt zu sehen ist. 79
„Es ist […] festzuhalten, daß diese Begriffe in der Praxis recht unterschiedlich
verwendet werden. Die Nahaufnahme des einen ist für den anderen eine
«Großaufnahme», […].“ 80
In den vom Autor dieser Diplomarbeit verwendeten Quellen gibt es unterschiedliche
Auffassungen über verschiedene Einstellungen (Halbnah Einstellung und Medium
Shot).
Im Folgenden werden die unterschiedlichen Normal-Aufnahmen vorgestellt:
78
Vgl. McGinnis (wie Anm. 8), 1h 44min 00sec – 1h 49min 00sec
Ebd., S. 182
80
Ebd., S. 183
79
73
Abb. 68
Der Full Shot (Halbtotale) zeigt den
größten Bildausschnitt für eine NormalEinstellung. Es werden etwa ein oder
mehrere Objekte samt ihrem Umfeld
dargestellt. 81
Abb. 69
Der Medium Shot zeigt etwa ein Objekt,
hier beispielhaft eine Person, in seiner
vollen
Größe. 82
Außerdem
ist
normalerweise auch der Hintergrund gut
erkennbar.
Abb. 70
„In der halbnahen Einstellung wird ein(e)
Person vom Kopf bis zur Hüfte gezeigt.
Dadurch sind Mimik und Gestik gut
erkennbar. Dieser Ausschnitt entspricht
auch der natürlichen Sehsituation und
wird daher in Dial(o)gszenen oft
verwendet.“ 83
81
Vgl. Monaco (wie Anm. 11), S. 395
Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec
83
http://www.cd-agent.de/Film/Lexikon/Halbnahe-Einstellung.htm
(letzter Zugriff am 27.01.2009)
82
74
Abb. 71
Die Amerikanische Einstellung zeigt einen
Bildausschnitt, der sich zwischen einer
Nah- und Halbnah-Einstellung bewegt.
(Vgl. McGinnis (wie Anm. 8), 1h 40min
50sec – Audiospur, Bild: Kath)
Das bedeutet, es wird bei einer Person, welche sich auf der mittleren Bildebene
befindet, etwa der Kopf bis Knie dargestellt.
Abb. 72
Ein Two Shot, auch als ZweierEinstellung bekannt, ist eine Einstellung,
in der zwei Charaktere zu sehen sind. 84
Diese Einstellung wird normalerweise zum Beginn eines Over-the-Shoulder Shots
genutzt, um die beiden Charaktere einzuführen. Anschließend folgt eine EinerEinstellung, bei welcher stets einer der Teilnehmer abwechselnd zuhört und spricht.
Diese Montage von Einstellungen wird auch „Hollywood-Dialogstil“ genannt. 85
84
85
Vgl. Monaco (wie Anm. 11), S. 409
Ebd., S. 197f
75
Abb. 73
Der Over-The-Shoulder Shot, auch EinerEinstellung genannt, wird bei Gesprächen
zwischen zwei Charakteren verwendet.
Die Reaktion und Gestiken werden meist nur von dem zur Kamera zeigenden
Charakter sichtbar. Wenn der andere Charakter spricht, kann ein Schnitt hinter die
Schulter des nun nicht sprechenden Charakters erfolgen. 86
In der Filmsprache wird ein „Gegenschuß“ als dramaturgisches Mittel zur bildlichen
Auflösung einer Unterhaltung genutzt. Dabei werden beide Partner abwechselnd
sprechend und reagierend gezeigt. 87 Das besondere an dieser Aufnahme ist, dass
der Blickpunkt des Sprechers dem Zuschauer angedeutet wird, er jedoch physisch
von der Person getrennt ist. Durch die Schuß-Gegenschuß-Technik nimmt der
Zuschauer an beiden Blickpunkten der Personen teil und besitzt dadurch eine ideale
Perspektive, um das Gespräch vollständig mit zu verfolgen.
88
Im Laufe der Jahre wurden, geprägt durch Hollywood, eine Anzahl von Regeln
erstellt. Diese sagen beispielsweise aus, dass stets mit einer Einführungseinstellung
- Establishing Shot - begonnen wird, um anschließend vom dargestellten
Allgemeinen auf die Details zu schwenken. Darüber hinaus gibt es die Regel, dass
Dialogszenen durch Over-the-Shoulder Shots realisiert werden sollten und bei
Übergängen zwischen den Einstellungen möglichst wenig Aufmerksamkeit erweckt
werden sollte, damit die Handlung besser verfolgt werden kann. 89
86
Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec
Vgl. Monaco (wie Anm. 11), S. 394
88
Ebd., S. 198
89
Ebd., S. 203
87
76
5.1.3 Nah-Aufnahme
Nah-Aufnahmen oder so genannte Close-Ups werden entweder zum Darstellen von
Details oder zum Isolieren von Objekten genutzt. Das bedeutet, es soll auf bestimmte
Sachverhalte im Geschehen aufmerksam gemacht werden. 90
„Ein Film, der hauptsächlich aus Nahaufnahmen besteht, […] beraubt uns des
umgebenden Raumes und ist daher verwirrend, klaustrophobisch. Die Wirkung kann
äußerst ungewöhnlich sein.“ 91
Im Folgenden werden unterschiedliche Nah-Aufnahmen vorgestellt:
Abb. 74
Medium Close-Up: zeigt den Brustbereich
bis zum Kopf
Abb. 75
Head and Shoulder Close-Up
90
91
Vgl. McGinnis (wie Anm. 8), 1h 39min 00sec – 1h 44min 00sec
Vgl. Monaco (wie Anm. 11), S. 183
77
Abb. 76
Head Close-Up
Abb. 77
Choker – diese Einstellung zeigt nur einen
Teil des Kopfes: unterhalb des Mundes und
knapp über den Augenbrauen
Abb. 78
Ein Extreme Close-Up zeigt einen Bereich
des Gesichtes, z. B. Augen oder Mund
(Vgl. McGinnis (wie Anm. 8), 1h 42 min
35sec – Audiospur; Bild: Kath)
Nur ein einzelnes Auge in einer Einstellung sollte als Extreme Close-Up vermieden
werden, da es dadurch nicht möglich ist einzuschätzen, in welche Richtung der
Charakter gerade schaut. Des Weiteren sollten Close-Ups überhaupt vermieden
werden, wenn es einen sehr belebten Hintergrund gibt. 92 Dies kann zu Störungen
des eigentlich gezeigten Inhaltes führen.
92
Vgl. McGinnis (wie Anm. 8), 1h 42min 00sec – 1h 44min 00sec
78
5.2 Camera Angles (Aufnahmewinkel)
Bei jeder Einstellung besteht eine gewisse Beziehung zwischen der filmenden
Kamera und dem Objekt im dreidimensionalen Raum, denn es gibt drei verschiedene
Blickwinkel für die Kamera, welche eine Aufnahme bestimmen. 93
„Um die Beziehung zwischen den drei verschiedenen Blickwinkeln zu verstehen,
könnte es nützlich sein, sich die drei imaginären Achsen, die durch die Kamera
laufen, vor Augen zu führen […].“ 94
Die Erste dieser drei Achsen ist die Schwenk-Achse, welche vertikal verläuft. Diese
Achse wird oft genutzt, um bei einer Totalen einen leichten Schwenk von
beispielsweise links nach rechts zu realisieren, um so einen größeren Ausschnitt der
Szene zu zeigen. Dabei ist die Schwenk-Achse entweder rechtwinklig oder schräg
angeordnet.
Die Neigungs-Achse ist die Zweite der imaginären Achsen einer Kamera. Diese
verläuft horizontal von links nach rechts und bestimmt damit, von welcher Höhe aus
die Kamera das Geschehen aufnimmt. Als Beispiele für besondere Perspektiven
wären hier der Low-Angled Shot (Untersicht), High-Angled Shot (Obersicht) und die
„Augenhöhe“ hervorzuheben. 95 „Es ist selbstverständlich, dass die Obersicht die
Wichtigkeit des Gegenstandes verringert, während die Untersicht seine Bedeutung
betont. Interessanterweise lässt sich die Aufnahme in Augenhöhe, die unauffälligste
von allen, meistens am schlechtesten definieren.“ 96
Die letzte der drei Achsen ist die Horizontal-Achse, welche sich parallel zur Achse
des Objektivs befindet. Diese Achse wird jedoch nur sehr selten genutzt. In Autodesk
Maya gibt es das bereits vorgestellte Roll-Tool (vgl. S. 37), um diese HorizontalAchse zu nutzen. Das Tilt Angle (oder auch Dutch Angle genannt) ist eine
Kameraperspektive, welche die Horizontal-Achse nutzen. 97
93
Vgl. Monaco (wie Anm. 11), S. 187
Ebd., S. 187
95
Ebd., S. 187
96
Ebd., S. 187
97
Ebd., S. 187
94
79
Im Folgenden werden einige Kameraperspektiven vorgestellt. Es ist sehr wichtig, sich
Gedanken darüber zu machen, was für einen Eindruck die Aufnahme auf das
Publikum haben soll. Denn es ist möglich, durch den Aufnahmewinkel der Kamera
die Empfindung des Geschehens zu untermalen. 98
Abb. 79
Low-Angled Shot – auch Untersicht
genannt
Wenn eine Kameraaufnahme aus dieser Perspektive, Low-Angled Shot, eine Person
aufnimmt, so verstärkt dies die Position des Charakters in der Geschichte. Das
bedeutet, er ist sehr wichtig und dominant. Dem Zuschauer wird durch das
Hinaufschauen zu dem Charakter das Gefühl der Wichtigkeit untermauert. 99
Abb. 80
High-Angled Shot – auch Obersicht
genannt
Der High-Angled Shot stellt das Gegenteil zum Low-Angled Shot dar. Durch das
Nutzen der Neigungs-Achse für diese Kameraperspektive wird auch hier dem
Zuschauer etwas mitgeteilt. Psychologisch wird durch diese Kameraführung
98
99
Vgl. McGinnis (wie Anm. 8), 1h 44min 00sec – 1h 46min 00sec
Ebd., 1h 44min 00sec – 1h 46min 00sec
80
ausgedrückt, dass der Charakter schwach ist und das Publikum auf ihn
herabschauen soll. 100
Ein abschließendes Beispiel für den Low- und High-Angled Shot ist folgendes: „Eine
von unten aufgenommene Rose vermittelt zum Beispiel, daß die Blume aus
irgendeinem Grund beherrschend, überwältigend ist, da wir sie bewußt oder
unbewußt mit zum Beispiel einer von oben aufgenommenen Rose vergleichen
würden, deren Bedeutung vermindert würde.“ 101
Abb. 81
Tilt Angle (oder Dutch Angle)
Durch das Drehen der vertikalen Achse der Kamera erscheint das Objekt schräg. Es
wird ein unstabiler und bizarrer Eindruck durch diese Kameraposition hervorgerufen.
Diese Einstellung wird genutzt, um dem Zuschauer mitzuteilen, dass in der Szene
etwas Komisches vorgeht oder aus Sicht des Charakters sein Denken untermauert
wird. 102
100
Vgl. McGinnis (wie Anm. 8), 1h 46min 00sec – 1h 49min 00sec
Vgl. Monaco (wie Anm. 11), S. 145
102
Vgl. McGinnis (wie Anm. 8), 1h 46min 00sec – 1h 49min 00sec
101
81
5.3 Continuity
Continuity, etwa Anschluss, sind u. a. Regeln, auf welche geachtet werden sollte,
wenn unterschiedliche Einstellungen aneinandergereiht werden. „Das SCRIPT-GIRL
ist dafür verantwortlich, daß die Anschlüsse zwischen verschiedenen Aufnahmen
stimmen, auch wenn Tage oder Wochen dazwischen liegen. Das betrifft vor allem die
Kostüme, Dekorationen, Positionen von Schauspielern etc.“ 103
Des Weiteren sollten sich alle Objekte, die sich in einer Aufnahme bewegen, dies
auch in der anschließenden Einstellung tun.
Auch die Bewegungsrichtung von Objekten sollte die Gleiche sein, es sei denn, es
wurde gezeigt, dass das Objekt die Richtung wechselt. Beim Betreten der Szene in
eine bestimmte Richtung muss beim Verlassen der Szene die entgegengesetzte
Richtung benutzt werden. 104
5.4 Rule of Thirds
Abb. 82
Hilfslinien, welche durch die Regel Rule
of Thirds erstellt wurden.
Bei Rule of Thirds geht es um die Verteilung von Objekten für den Aufbau einer
Szene. Dazu wird das Sichtfeld horizontal und vertikal gedrittelt. Die dadurch
entstehenden Hilfslinien können genutzt werden, um Objekte anzuordnen. Diese
Hilfslinien sollen dabei helfen, die Objekte nicht zu zentrieren und es soll ebenfalls
vermieden werden, das Bild durch den Horizont zu halbieren. 105
103
Vgl. Monaco (wie Anm. 11), S. 385
Ebd., 1h 47min 10sec – 1h 48min 30sec
105
Ebd., 1h 49min 00sec – 1h 49min 55sec
104
82
Abb. 83
Eingefügtes Objekt durch Nutzung der
Hilfslinien
83
6. Genutzte Vorgehensweise für Erstellung der Videosequenzen
Für das Erstellen der Kamerafahrten in Autodesk Maya sowie das Zusammenfügen
der gerenderten Inhalte in Apple Shake wurde eine bestimmte Vorgehensweise
genutzt, welche an dieser Stelle erläutert werden soll.
Der Aufbau dieser Diplomarbeit folgt in gewisser Weise dem vom Verfasser
angewandten Vorgehen.
Um eine Kamerafahrt überhaupt zu bewerkstelligen wird selbstverständlich eine
Kamera benötigt. Nachdem diese unter Berücksichtigung des geeigneten Typs
erstellt wurde, kann durch Setzen von Keyframes die Kamera in Bewegung versetzt
sowie Effekte eingestellt werden. Als Grundvoraussetzung wird eine vorhandene 3DSzene angenommen, in der sich die Kamera frei bewegen kann (3D-Modell von New
York City). Nachdem der grobe Kameraverlauf erstellt wurde, kann durch Nutzen des
Graph Editors eine sehr feine Bewegung ausgearbeitet und unerwünschte Abläufe
beseitigt werden. Nach Vollendung der Animation der Kamera kann nun der
gewünschte Teil der 3D-Szene gerendert werden.
An dieser Stelle ist es sehr wichtig zu entscheiden, welche Objekte mit welchem
Rendervorgang ausgegeben werden sollen. Dies hat einen sehr einfachen Grund:
falls in der Post-Production nur vereinzelte Objekte nachbearbeitet werden müssen,
ist es angebracht, diese einzeln in Rendervorgängen auszugeben, um eine
Bearbeitung zu erleichtern. In den Kapiteln von Shake wurde dieser Unterschied
erläutert („layer“ und Rotoshape Node).
Das Importieren und korrekte Bearbeiten der aus Maya gerenderten ImageSequenzen wird durch den vorhandenen Alpha Kanal sehr vereinfacht. In Shake
können nun beliebige Effekte hinzugefügt oder Objekte aufbereitet werden. Nachdem
alle Veränderungen getätigt worden sind, kann die Ausgabe aus Shake erfolgen.
Dies wurde für die erstellten Sequenzen in Form von mov-Dateien durchgeführt.
Diese Vorgehensweise kann für beliebige Inhalte aus einem 3D-Animations- und
Modellierungsprogramm und nachfolgender Verwendung in einem CompositingProgramm genutzt werden. Es besteht eine sehr enge Verbindung zwischen diesen
beiden Programm-Typen.
84
7. Schlussteil
7.1 Zusammenfassung
Zusammenfassend lässt sich feststellen, dass sich durch eine virtuelle Kamera in
Maya Bewegungsabläufe in einer dreidimensionalen Umgebung umsetzen lassen.
Durch Nutzen der zur Verfügung stehenden Kamera-Typen ist es möglich, jede
Bewegung umzusetzen. Die vollkommene Freiheit, die Kamera an jede Position
innerhalb einer Szene zu bewegen, vergrößert zusätzlich den Raum für animierbare
Bewegungen. Mit einer realen Kamera ist dies mitunter nur sehr aufwendig möglich.
Es wurden insgesamt 23 Sequenzen für diese Diplomarbeit erstellt. 18 von diesen
entsprechen Bewegungsabläufen, welche nach dem Ablaufplan erstellt wurden. Zwei
zusätzliche Aufnahmen sind auf diesen nicht eingezeichnet, während drei
Sequenzen dazu dienen, Effekte in Shake zu erstellen. Alle Aufnahmen wurden mit
Autodesk Maya realisiert.
Nach dem praktischen Entwerfen der Bewegung oder des Effektes wurden die
zugrunde liegenden Einstellungsmöglichkeiten erklärt. Das bedeutet, dass sämtliche
genutzten Attribute auf ihre Funktion hin untersucht wurden. Daraus lässt sich
schließen, in wie weit welche Attribute für die Erstellung eines Effektes verantwortlich
sind.
Die in Autodesk Maya zur Verfügung stehenden Camera Tools, wie beispielsweise
das Roll Tool, ermöglichen spezielle Aufnahmen. Das Attribut Roll scale dreht die
horizontale Achse der Kamera und lässt dadurch das Bild schräg erscheinen. Diese
Kameraposition ruft etwa einen bizarren und unstabilen Eindruck hervor. Die
Aufnahme versucht somit durch ihre entstehende Wirkung etwas mitzuteilen.
In dieser wissenschaftlichen Arbeit wurde demzufolge an einzelnen Stellen eine
Beziehung zwischen der Cinematographic Terminology und den in Autodesk Maya
angefertigten Bewegungen der Kamera erstellt.
Für den praktischen Teil dieser Diplomarbeit wurde eine spezielle Vorgehensweise
genutzt. Anhand des Aufbaus dieses schriftlichen Teiles lassen sich sehr einfach die
einzelnen Schritte, die dazu nötig waren, nachvollziehen. Durch Aufzeigen dieser
Vorgehensweise kann verdeutlicht werden, wie eng das Erstellen von Inhalten in 3D-
85
Modellierungs- und Animationsprogrammen sowie dem Compositing dieser in der
Post-Production miteinander in Verbindung stehen.
Als Grundvoraussetzung für diese Vorgehensweise muss eine 3D-Szene vorhanden
sein. Durch Hinzufügen einer Kamera eines beliebigen Typs in Maya und erstellen
von Bewegungsabläufen sowie Effekten für diese kann anschließend ein Rendern
sämtlicher Objekte für die gewünschte Kameraeinstellung getätigt werden. Das
Importieren und Zusammenfügen der Rendervorgänge geschieht in Shake. Darüber
hinaus ist eine Bearbeitung dieser importierten Inhalte möglich.
Diese Vorgehensweise kann somit für beliebig erstellte Inhalte in einem 3DAnimations- und Modellierungsprogramm und der Weiterverarbeitung in einem
Compositing-Programm genutzt werden.
7.2 Ausblick
Einen möglichen Grundgedanken, um dieses Themengebiet weiter zu untersuchen,
könnte Cinematographic Terminology darstellen. Unter Beachtung dieser Regeln
(ebenfalls Continuity und Rule of Thirds) sollten sämtliche Kamerabewegungen
aufgebaut werden. Dabei sollte jedoch keine Stadt als dreidimensionale Szene
genutzt werden, sondern nur einige wenige Objekte samt unmittelbarer Umgebung.
Durch Erzählen einer Story könnten die verschiedenen Aufnahme-Distanzen und
Winkel genutzt werden, um eine gewünschte Wirkung auf den Betrachter auszuüben.
Anschließend wird die gleiche Story jedoch ohne Beachtung der Cinematographic
Terminology erstellt.
Somit kann untersucht werden, wie viel und was für eine Wirkung die Nutzung dieser
Regeln besitzt.
86
8. Anhang
8.1 DVD – Allgemeine Informationen
Die DVD befindet sich in einer Hülle auf der hinteren Umschlagseite dieser Arbeit.
Zum Betrachten der erstellten Videosequenzen wird Apple Quicktime empfohlen.
Das verwendete Format zur Erstellung dieser Videos ist das MOV-Format. Die
Auflösung der Videosequenzen beträgt 1280 x 720 Pixel. Ein Abspielen mit dem
VLC-Player ist ebenfalls möglich (liegt dieser DVD bei).
Die erstellten Videosequenzen liegen in unterschiedlicher Form dieser DVD bei. Zum
einen sind alle Videos sequentiell zu einer großen Sequenz zusammengefasst (mit
und ohne Untertitel) und zum anderen liegen dieser DVD sämtliche Kamerafahrten
einzeln bei. Ebenfalls einmal mit und ohne Untertitel.
Es wird hiermit ausdrücklich erlaubt sämtliche vom Autor erstellten Videos zu
bearbeiten. Aus diesem Grund liegt dieser DVD die vom Verfasser verwendete Final
Cut Datei zum Ändern der eingeblendeten Titel bei.
87
8.2 Verzeichnisstruktur auf DVD
Um ein Durchsuchen der DVD zu erleichtern, ist an dieser Stelle ein
Inhaltsverzeichnis abgedruckt.
2850506.Diplomarbeit.NYC-DVD
+
Diplomarbeit
+
Final Cut
+
Sequenzen
|
/-
MIT Untertitel
|
|
/--
Einzeln
|
|
/--
Zusammenhängend
|
/-
OHNE Untertitel
|
/--
Einzeln
|
/--
Zusammenhängend
+
VLC-Player
|
/-
MAC
|
/-
WIN
+
Zusatz
88
A Literaturverzeichnis
Bücher:
[Monaco 1980]
Monaco,
James: „Film
verstehen.
Kunst,
Technik,
Sprache, Geschichte und Theorie des Films.“ Rowohlt
Taschenbuch Verlag: Reinbeck bei Hamburg, 1980.
[Schönherr 2000]
Schönherr, Maximilian: „Maya 3. Technik und Ästhetik
von
High-End-Animationen.“
Addison-Wesley
Verlag:
München, 2000.
[Schönherr 2001]
Schönherr, Maximilian: „Maya 4 Sketches. 30 Tutorials
in 3D.“ Addison-Wesley Verlag: München, 2001.
[Schönherr 2006]
Schönherr,
Maximilian:
„Maya
7.
Die
Referenz.“
Addison-Wesley Verlag: München, 2006.
[SHK Manual 2005]
Apple Computer, Inc.: “Shake 4 User Manual” Cupertino,
2005.
Videos:
[Jackemuk 2005]
Jackemuk,
Gary:
„Visual
Effects
Compositing
Fundamentals. Production Compositing Techniques with
Gary Jackemuk.” The Gnomon Workshop: Hollywood,
2005
[McGinnis 2005]
McGinnis, Cathy: „The Aesthetics of Cameras” Alias
Systems Corp.: Toronto und Ontario, 2005
89
Internetquellen
Bewegungsmuster
http://www.snaix.com/snaix/glossar/bewegungsmuster.html
(letzter Zugriff am 27.01.2009)
cinematography
http://www.medialine.de/deutsch/wissen/enzyklopaedischeswoerterbuch.php?ext_pfad=bkb&snr=3036
(letzter Zugriff am 27.01.2009)
Digital Tutors
http://www.digitaltutors.com/digital_tutors/index.php
(letzter Zugriff am 27.01.2009)
FXPHD
http://fxphd.com
(letzter Zugriff am 27.01.2009)
Halbnah Einstellung
http://www.cd-agent.de/Film/Lexikon/Halbnahe-Einstellung.htm
(letzter Zugriff am 27.01.2009)
Rotoshape
http://www.idagrove.de/RotoscopingArtist.html
(letzter Zugriff am 27.01.2009)
terminology
http://www.medialine.de/deutsch/wissen/enzyklopaedischeswoerterbuch.php?ext_pfad=bkb&stichwort=terminology&x=0&y=0
(letzter Zugriff am 27.01.2009)
90
The Gnomon Workshop
http://thegnomonworkshop.com
(letzter Zugriff am 27.01.2009)
Weiterführende Literatur
[Brinkmann 2008]
Brinkmann, Ron: „The Art and Science of Digital
Compositing. Techniques for Visual Effects, Animation
and Motion Graphics.“ Elsevier: Burlington, 20082.
[Wright 2006]
Wright, Steve: „Digital Compositing for Film and Video.“
Elsevier: Burlington, 20062.
B Abbildungsverzeichnis
Nr.
Seite
Titel
Quelle
1
11
Ablaufplan
[Kath 2008, Seite 11]
2
12
Interface Maya
[Kath 2008, Seite 12]
3
16
Befehl „Combine“
[Kath 2008, Seite 16]
4
17
Interface Shake
[Kath 2008, Seite 17]
5
19
Default-Home-Position
[Kath 2008, Seite 19]
6
20
Kameraerstellung
[Kath 2008, Seite 20]
7
21
„Four-View“-Ansicht
[Kath 2008, Seite 21]
8
22
Translate
[Kath 2008, Seite 22]
9
22
Rotate
[Kath 2008, Seite 22]
10
22
Kamerabewegung
[Kath 2008, Seite 22]
11
23
Attribut Editor
[Kath 2008, Seite 23]
12
24
Single-Node-Camera
[Kath 2008, Seite 24]
13
25
Camera and Aim
[Kath 2008, Seite 25]
14
26
Two-Node-Camera
[Kath 2008, Seite 26]
91
Nr.
Seite
Titel
Quelle
15
27
Three-Node-Camera
[Kath 2008, Seite 27]
16
28
Camera, Aim and Up
[Kath 2008, Seite 28]
17
29
Focal Length (Brennweite)
[Kath 2008, Seite 29]
18
30
Unterschied Brennweite
[McGinnis 2005, 22min 30sec]
19
32
Vergleich Objektiv-Typen 1
[McGinnis 2005, 25min 10sec]
20
33
Vergleich Objektiv-Typen 2
[McGinnis 2005, 25min 45sec]
21
34
Clip Planes
[Kath 2008, Seite 34]
22
35
Auflistung Camera Tools
[Kath 2008, Seite 35]
23
37
Roll Tool 1
[Kath 2008, Seite 37]
24
37
Roll Tool 2
[Kath 2008, Seite 37]
25
39
Dolly Zoom Normal 1
[Kath 2008, Seite 39]
26
40
Dolly Zoom Normal 2
[Kath 2008, Seite 40]
27
41
Dolly In Zoom Out 1
[Kath 2008, Seite 41]
28
41
Dolly In Zoom Out 2
[Kath 2008, Seite 41]
29
42
Dolly Out Zoom In 1
[Kath 2008, Seite 42]
30
42
Dolly Out Zoom In 2
[Kath 2008, Seite 42]
31
43
Motion Blur Attriubte
[Kath 2008, Seite 43]
32
44
Motion Blur Bewegung
[Kath 2008, Seite 44]
33
46
Depth of Field Attribute
[Kath 2008, Seite 46]
34
47
Depth of Field Beispiel
[Kath 2008, Seite 47]
35
48
Depth of Field Unterschied 1 [Kath 2008, Seite 48]
36
48
Depth of Field Unterschied 2 [Kath 2008, Seite 48]
37
48
Depth of Field Unterschied 3 [Kath 2008, Seite 48]
38
48
Depth of Field Unterschied 4 [Kath 2008, Seite 48]
39
49
Rack Focus top
[Kath 2008, Seite 49]
40
49
Rack Focus persp
[Kath 2008, Seite 49]
41
50
Rack Focus Vordergrund
[Kath 2008, Seite 50]
42
50
Rack Focus Hintergrund
[Kath 2008, Seite 50]
43
52
Fish Eye Kamera Maya
[Kath 2008, Seite 52]
44
52
Fish Eye Effekt
[Kath 2008, Seite 52]
45
53
Graph Editor
[Kath 2008, Seite 53]
46
54
Brightness Normal
[Jackemuk 2005, 01min 20sec]
47
54
Brightness Erhöht
[Jackemuk 2005, 01min 20sec]
92
Nr.
Seite
Titel
Quelle
48
55
Matte 1 und 2
[Jackemuk 2005, 01min 50sec]
49
55
Bild mit Matte 1 und 2
[Jackemuk 2005, 02min 10sec]
50
56
Composite Komplett
[Jackemuk 2005, 03min 00sec]
51
57
Shake GUI
[Kath 2008, Seite 57]
52
58
Alpha-Kanal
[Jackemuk 2005, 2h 14min 26sec]
53
59
Over Node
[Kath 2008, Seite 59]
54
60
Rotoshape Node
[Kath 2008, Seite 60]
55
61
Gebäude als Layer
[Kath 2008, Seite 61]
56
62
Helligkeitsänderung 1
[Kath 2008, Seite 62]
57
63
Helligkeitsänderung 2
[Kath 2008, Seite 63]
58
64
Farbänderung – Layer
[Kath 2008, Seite 64]
59
65
Farbänderung – ColorSpace
[Kath 2008, Seite 65]
60
66
Farbänderung – Blur
[Kath 2008, Seite 66]
61
66
Farbänderung – Brightness
[Kath 2008, Seite 66]
62
67
Farbänderung – Over
[Kath 2008, Seite 67]
63
68
Farbänderung – Fade
[Kath 2008, Seite 68]
64
69
Warper Shapes
[SHK Manual 2005, S. 822]
65
70
Warper ohne Verformung
[Kath 2008, Seite 70]
66
70
Warper mit Verformung
[Kath 2008, Seite 70]
67
73
Establishing Shot
[McGinnis 2006, 1h 40min 00sec]
68
74
Full Shot
[McGinnis 2006, 1h 40min 10sec]
69
74
Medium Shot
[McGinnis 2006, 1h 40min 30sec]
70
74
Halbnahe Einstellung
[McGinnis 2006, 1h 40min 40sec]
71
75
amerikanische Einstellung
[Kath 2008, Seite 75]
72
75
Two Shot
[McGinnis 2006, 1h 41min 00sec]
73
76
Over the Shoulder Shot
[McGinnis 2006, 1h 41min 15sec]
74
77
Medium Close Up
[McGinnis 2006, 1h 41min 55sec]
75
77
Head and Shoulder Close Up [McGinnis 2006, 1h 42min 05sec]
76
78
Head Close Up
[McGinnis 2006, 1h 42min 15sec]
77
78
Choker
[McGinnis 2006, 1h 42min 24sec]
78
78
Extreme Close Up
[Kath 2008, Seite 78]
79
80
Low Angled Shot
[McGinnis 2006, 1h 44min 45sec]
80
80
High Angled Shot
[McGinnis 2006, 1h 45min 30sec]
93
Nr.
Seite
Titel
Quelle
81
81
Tilt Angle
[McGinnis 2006, 1h 46min 45sec]
82
82
Rule of Thirds 1
[McGinnis 2006, 1h 49min 25sec]
83
83
Rule of Thirds 2
[McGinnis 2006, 1h 49min 45sec]
84
87
DVD Cover
[Kath 2008, Seite 87]
94