Studienarbeit

Transcrição

Studienarbeit
Universität Karlsruhe (TH)
Fakultät für Informatik
Institut für Theoretische Informatik
Studienarbeit
Phasen, Formate und Techniken zur
Videoproduktion
Betreuer:
em. Prof. Dr. Peter Deussen
Dr. habil. Hartmut Barthelmess
Beginn:
14.11.2006
Abgabe:
01.02.2007
vorgelegt von:
Fabrizio Branca
Matrikelnummer: 1103955
E-Mail: [email protected]
Erklärung
Ich versichere, dass ich diese Studienarbeit selbstständig und nur unter Verwendung der
angegebenen Hilfsmittel angefertigt habe und die aus benutzten Quellen wörtlich oder
inhaltlich entnommenen Stellen als solche kenntlich gemacht habe.
Karlsruhe, am 1. Februar 2007
Fabrizio Branca
c
Copyright 2007
Fabrizio Branca.
Zusammenfassung:
Thema dieser Studienarbeit ist die Aufzeichnungstechnik, die nötig ist, um einen Vortrag
auf Video festzuhalten und nach der Veranstaltung den Hörern und anderen interessierten
Personen zur Verfügung zu stellen.
Hier sollen Vor- und Nachteile verschiedener Techniken und Verfahren zur Erfassung, Verarbeitung und Ausgabe erarbeitet werden und Vorschläge zu verschiedenen Szenarien gemacht
werden, die sich im Rahmen der vorhandenen Möglichkeiten des Zentrums für Multimedia
realisieren lassen.
Inhaltsverzeichnis
Inhaltsverzeichnis
vi
1 Einleitung
1.1 Gesamtbild/Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Aufzeichnungsszenarien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
2
2 Erfassung
2.1 Audio
2.2 Video
2.2.1
2.2.2
2.2.3
2.2.4
2.2.5
2.2.6
. . . . . . . . . . . . .
. . . . . . . . . . . . .
Gestaltung der Szene .
Videokameras . . . . .
Abfilmen . . . . . . .
Screencapture . . . . .
Scanconverter . . . . .
Sony Anycast Station
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Verarbeitung
3.1 Kenngrößen . . . . . . . . . . . . . .
3.1.1 Digitales Video . . . . . . . .
3.1.2 Digitales Audio . . . . . . . .
3.2 Formate . . . . . . . . . . . . . . . .
3.2.1 Container . . . . . . . . . . .
3.2.2 Video . . . . . . . . . . . . .
3.2.3 Audio . . . . . . . . . . . . .
3.3 Software . . . . . . . . . . . . . . . .
3.3.1 ffmpeg . . . . . . . . . . . . .
3.3.2 Final Cut / Adobe Premiere
4 Ausgabe
4.1 Datenträger . . .
4.1.1 CD . . . .
4.1.2 DVD . . .
4.2 Internet . . . . .
4.2.1 Download
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
4
4
5
6
7
9
10
.
.
.
.
.
.
.
.
.
.
12
12
12
13
13
14
15
18
18
18
19
.
.
.
.
.
21
21
21
21
22
22
v
Inhaltsverzeichnis
.
.
.
.
.
.
23
23
24
24
24
25
5 Ergebnis/Zusammenfassung
5.1 Flash . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
26
27
29
Literaturverzeichnis
30
Glossar
33
4.3
vi
4.2.2 Progressive Download . . . .
4.2.3 Streaming . . . . . . . . . . .
Wiedergabe . . . . . . . . . . . . . .
4.3.1 Benötigte Codecs . . . . . . .
4.3.2 Software für die Wiedergabe
4.3.3 Flash Client . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Einleitung
Bis vor einigen Jahren war die Nutzung von Videos noch auf den analogen Bereich beschränkt.
Digitale Videos waren kaum nutzbar, da die Prozessoren zu langsam, die Dateien viel zu groß
und die Bandbreiten für die Übertragung für Videomaterial zu gering waren.
Inzwischen hat sich einiges geändert: Eine Reihe von Verfahren sind ausgereift, um Videos
effizient zu komprimieren und gleichzeitig ist die Hardwareleistung und die verfügbare Bandbreite gewachsen. Analoges Video wird kaum mehr beachtet, da sogar schon die Videokameras
selbst das Bild digitalisiert ausgeben können.
Mit diesen Fortschritten macht es nun erstmals Sinn, Vorträge mitzuschneiden, zu archivieren und Personen nach oder sogar noch während der Veranstaltung zur Verfügung zu stellen,
auch wenn sie nicht am Ort des Geschehenes mit dabei sein können.
In dieser Studienarbeit sollen Vor- und Nachteile verschiedener Techniken und Verfahren
zur Erfassung, Verarbeitung und Ausgabe erarbeitet werden und dann Vorschläge zu verschiedenen Szenarien gemacht werden, die sich im Rahmen der vorhandenen Möglichkeiten
des Zentrums für Multimedia realisieren lassen.
Da diese Arbeit auch eine praktische Hilfe zur Realisierung darstellen soll und die Erfahrungen von vergangenen Aufzeichnungsszenarien festhalten soll, wird sie lösungsorientiert
aufgebaut sein.
Das Gebiet der Videotechnik ist mittlerweile zu groß, um es im Rahmen einer Studienarbeit
komplett zu erfassen. Daher können hier nicht alle Facetten betrachtet werden. Der Schwerpunkt hierbei darauf, eine elegante Lösung zu finden, anstatt alle Möglichkeiten aufzuzählen.
1.1 Gesamtbild/Workflow
Das in der elektronischen Datenverarbeitung grundlegende EVA1 -Prinzip findet sich auch
hier wieder. Nach der Erfassung der Szene wird das entstehende Video für die entsprechende
Ausgabe aufbereitet und gegebenenfalls neu codiert2 .
1
2
steht für Eingabe, Verarbeitung, Ausgabe“
”
das neu codieren von Videomaterial nennt man transcodieren“
”
1
1 Einleitung
Analog zu diesen drei Stufen sind auch die folgenden Kapitel aufgebaut, in denen dann die
wesentlichen Arbeitsschritte und Auswahlmöglichkeiten dargestellt werden.
1.2 Aufzeichnungsszenarien
Das Vorgehen in dieser Arbeit konzentriert sich auf Szenarien, in denen eine Person einen
Vortrag hält, der gegebenenfalls mit Hilfe eines Computers und eines Videoprojektors visualisiert wird. Außerdem soll es auch möglich sein, Rückfragen und Diskussionen aus dem Raum
zu erfassen und mit aufzuzeichnen. Das Video soll nach der Veranstaltung auf einem Datenträger oder im Internet zur Verfügung stehen. Bei der Übertragung der Videos in Echtzeit
kommen zwar teilweise ähnliche oder sogar die gleichen Probleme und Anforderungen vor,
diese werden allerdings in dieser Arbeit nicht betrachtet.
2
2 Erfassung
Frei nach dem GIGO1 -Prinzip ist es besonders wichtig, schon bei der Aufnahme darauf zu
achten, ein möglichst sauberes Signal aufzuzeichnen. Durch das Nachbearbeiten des Videound Audiomaterials lassen sich zwar noch kleinere Korrekturen machen, ist das Ausgangsmaterial von Anfang allerdings zum Beispiel zu dunkel oder mit Störgeräuschen versehen, ist
es kaum möglich daraus eine gute Videoaufzeichnung zu produzieren. Wenn hier ein Einfluss
auf die Szene möglich ist, sollte zum Beispiel auf ausreichende Beleuchtung und sinnvolle
Anordnung von Rednerpult und Projektion geachtet werden.
Technisch gesehen geht es bei der Erfassung darum, sowohl Audio als auch Video von einem
analogen Signal in ein digitales zu konvertieren2 , das dann informationstechnisch weiterverarbeitet werden kann. Ebenfalls ist es möglich, dass das Signal schon digital vorliegt, wie es
zum Beispiel bei dem Ausgabebild eines Computers der Fall ist.
2.1 Audio
Die Wahl des richtigen Mikrofons ist eine zentrale Entscheidung. Hier sollte nicht gespart
werden, da ein klares Audiosignal wesentlich zur Gesamtqualität der fertigen Aufzeichnung
beiträgt.
Bei einem Vortrag empfiehlt es sich, ein drahtloses Mikrofon einzusetzen, um dem Redner
etwas Bewegungsspielraum zu geben. In den meisten Fällen ist es notwendig, dass das Mikrofon am Körper des Redners befestigt werden kann, so dass dieser die Hände frei hat. Als
besonders praktisch haben sich Mikrofone herausgestellt, die mit Hilfe eines Clips am Hemd
festgemacht werden können, oder Mikrofone, die mit einem feinen Drahtbügel am Kopf des
Redners getragen werden. Letztere haben in der Regel eine sehr gute Audioqualität, sind aber
meistens etwas teuerer.
Anschlüsse
Chinch Der Chinch-Stecker3 ist ein Monoanschluss für Audio und für Video. In der Regel
sind immer zwei Leitungen (rot und weiß beziehungsweise rot und schwarz) zu einem
Kabel zusammengefasst, um ein Stereosignal übertragen zu können. Durch eine dritte
Leitung (gelb) kann auch ein Videosignal über eine Chinchleitung übertragen werden.
1
steht für Garbage In, Garbage Out“. Siehe http://en.wikipedia.org/wiki/Garbage_in,_garbage_out.
”
Das geschieht durch einen Analog-Digital-Umsetzer, der das Signal zuerst quantisiert und die daraus entstandenen diskreten, aber analogen Werte digitalisiert.
3
im engl. auch phono“ oder RCA“ genannt.
”
”
2
3
2 Erfassung
Abb. 2.1: Cinch
Abb. 2.2: Klinke
Abb. 2.3: XLR
Klinke Den Klinkenstecker gibt es in Mono und in Stereo und in verschiedenen Größen. Die
gängigsten Größen sind 3,5 mm und 6,35 mm.
XLR XLR-Stecker werden unter anderem bei professionellen Beschallungsanlagen ( PA4“)
”
und in Studios verwenden.
Für alle Stecker existieren Adapter beziehungsweise Verbindungen, um die Signale von
einem Steckerformat in ein anderes zu konvertieren.
Weitere Eingänge
Neben dem Sprachsignal des Redners müssen oft auch weitere Audioquellen, wie der Audioausgang des Laptops, eine externe Audioquelle oder ein CD-Player, aufgezeichnet werden. In
diesem Fall empfiehlt es sich, ein Mischpult zu verwenden und dort alle Audiosignale zusammenzuführen und aufeinander abzustimmen. Das Ausgabesignal des Mischpultes wird dann
aufgezeichnet.
2.2 Video
Das Ziel bei der Videoaufzeichnung ist es, die Szene möglichst originalgetreu abzubilden. Hier
muss zwischen dem Bild des Redners und dem Ausgabebild des Computers unterschieden
werden. Mehrmaliges Konvertieren zwischen einem analogen und einem digitalen Signal oder
Wechseln des Mediums sollte vermieden werden, um eine möglichst gute Qualität zu erhalten.
2.2.1 Gestaltung der Szene
Falls es möglich ist, Einfluss auf die Anordnung von Redner, Leinwand, Kameras und Zuhörer
auszuüben, sollte ein Konzept ausgearbeitet werden, dass möglichst gute Ergebnisse liefert.
Wird zum Beispiel Bild im Bild (siehe Abb. 2.5) verwendet ist es sinnvoll, den Redner
rechts von der Leinwand zu platzieren, wenn des zweite Fenster zum Beispiel rechts unten
eingebettet wird.5
Wichtig ist außerdem die Beachtung der Bildaufteilung. Soll das Videobild später auf einem
Fernseher betrachtet werden, ist zu beachten, dass der Fernseher nur einen Bildausschnitt
zeigt, indem er einen Rahmen abschneidet. Text auf Folien sowie der Redner sollten deswegen
nicht zu nahe am Rand des Videofensters stehen (vgl. Abb. 2.6 und 2.7).
4
5
4
steht für Public Address.
Siehe Abb. 2.4.
2.2 Video
Abb. 2.4: Skizze des Aufbaus
Abb. 2.6: Darstellung Monitor
Abb. 2.5: Bild im Bild
Abb. 2.7: Darstellung Fernseher
2.2.2 Videokameras
Für die Videoaufzeichnung von Vorträgen und die Ausgabe im Internet oder auf DVDs reichen
analoge Kameras vollkommen aus. Diese Kameras können das Videosignal meistens direkt als
Composite bzw. S-Video ausgeben, so dass das Aufzeichnen auf Videokassette direkt in der
Kamera nicht nötig ist6 .
Falls die Videokamera einen Firewire-Ausgang hat und die weitere Hardware ebenfalls
Firewire unterstützt, kann auch dieses Format verwendet werden um direkt an dieser Stelle
schon digital aufzuzeichnen, wodurch eine bessere Qualität erhalten bleibt, aber auch teurere
Hardware benötigt wird. Dazu kommt, dass das Digitale Video (DV) sehr viel Speicherplatz
6
ggf. ist es aber trotzdem, nötig eine Kassette mitlaufen zu lassen, um zu verhindern, dass sich die Kamera
nach ein paar Minuten abschaltet. Dieses Verfahren hat außerdem den Vorteil, dass ein Backup vorhanden
ist, falls die weitere Aufzeichnung Probleme bereiten sollte.
5
2 Erfassung
einnimmt (siehe Kapitel 3.2.2.).
Anschlüsse
Auf den Bildern in Abbildung 2.8 bis 2.11 sind die gängigsten Anschlüsse für die Videoübertragung abgebildet. Composite, BNC und S-Video sind analoge Signale, wobei die
Bandbreite und damit die Qualität von S-Video dem Signal, dass über Composite übertragen
werden kann, überlegen ist. Über Firewire werden digitale Videodaten übertragen.
Abb. 2.8: Composite
Abb. 2.9: BNC
Abb. 2.10: S-Video
Abb. 2.11: Firewire
2.2.3 Abfilmen
Die einfachste Variante einen Vortrag aufzuzeichnen ist, eine Videokamera zu verwenden. Mit
dieser Kamera kann der Redner oder das Beamerbild erfasst werden und durch geeignete
Kameraeinstellungen auch der Redner und seine Präsentation.
Diese Methode liefert die schlechtesten Ergebnisse, da die Auflösung der Videokamera so
gering ist, dass das Beamerbild, welches üblicherweise eine wesentlich höhere Auflösung7 besitzt, nur schlecht dargestellt wird. Durch die Beleuchtungseinflüsse des Raumes kommt es
beim Abfilmen zu einem weiteren Qualitätsverlust.
Wenn nur eine Kamera verwendet wird um den Redner und das Beamerbild aufzuzeichnen
kommen oft unter- und überbelichtete Abschnitte im Video dazu, da das Beamerbild deutlich
mehr Licht abstrahlt als der Redner. Die Kameras müssen ständig ihre Belichtungsparameter
anpassen, was im Extremfall jedes Mal einige Sekunden dauern kann.
Für das reine Abfilmen des Redner sind Videokameras natürlich geeignet und sogar die
einzige Wahl. In diesem Fall kann das Beamerbild, das gegebenenfalls auf einem anderen Weg
aufgezeichnet wird, live oder bei der Nachbearbeitung dazu gemischt werden. Hierbei muss
darauf geachtet werden, dass der Redner sich nicht zuviel bewegt und die Kamera auf einem
leicht beweglichen Stativ angebracht ist.
6
2.2 Video
Abb. 2.12: Dazzle Video Creator 150
Analoges Signal mit Dazzle digitalisieren
Der Dazzle Video Creator 150“ 8 (siehe Abb. ) ist ein MPEG2-Encoder9 . Er kann ein Videosi”
gnal im Composite- oder S-Video-Format und ein Stereo Signal in Echtzeit10 in das MPEG2Format konvertieren. Der Dazzle wird über USB an einen Computer angeschlossen. Dort
übernimmt zum Beispiel das mitgelieferte Programm Pinnacle Studio 8 die Kommunikation
mit dem Dazzle, das Schreiben der Video-Datei auf die Festplatte und die Nachbearbeitung,
wenn erwünscht.
2.2.4 Screencapture
Camtasia ist ein Screencapture Programm, das den Bildschirminhalt in ein Video schreiben kann. Die resultierenden Videos sind durch den verwendeten TSCC11 -Codec ohne Qualitätsverlust komprimiert.
Lokal - am Computer des Vortragenden
Camtasia kann direkt auf dem Computer des Vortragenden installiert werden. Für kleine
Tutorials ist dies der einfachste weg. In den meisten Fällen möchte man allerdings umgehen,
Software bei dem Redner installieren zu müssen. Dazu kommt, dass Camtasia nur für Windows
verfügbar ist. Softwarealternativen gibt es allerdings auch für andere Betriebssysteme.
7
Üblicherweise haben Beamer eine Auflösung von 1024x768 Pixel. Die Auflösung eines analogen Videosignals
im PAL-Standard entspricht allerdings nur 768x576 Pixeln.
8
wird im folgenden nur Dazzle“ gennant.
”
9
weitere Informationen zum MPEG2-Format im Kapitel 3.2.2.
10
mit einigen Millisekunden Verzögerung.
11
TechScreen Capture Codec, Decoder ist frei erhältlich unter [Tec].
7
2 Erfassung
Abb. 2.13: Pinnacle Studio 8
Abb. 2.14: Camtasia
8
2.2 Video
Remoteverbindung - über ein Netzwerk
Die zweite Variante ist eine Remoteverbindung zwischen dem PC des Redners und einem
Aufnahmerechner über ein Netzwerk aufzubauen. Auch in diesem Fall ist die Installation
von zusätzlicher Software auf dem Rechner des Redners notwendig. VNC12 ist allerdings für
die gängigen Betriebssysteme verfügbar. Außerdem wird der Rechner des Redners mit dieser
Lösung nicht mit Camtasia belastet. Der Aufnahmerechner zeigt nun den Bildschirm des
Computers des Redners. Hier wird nun über Camtasia das Fenster aufgezeichnet so als würde
alles lokal stattfinden. Eine Skizze des Aufbaus ist in Abbildung 2.15 zu sehen.
Abb. 2.15: Aufbau: Screencapture mit Remoteverbindung (VNC)
2.2.5 Scanconverter
Abb. 2.16: Scanconverter
Ein Scanconverter konvertiert ein VGA Signal in ein analoges Videosignal. Dieses kann
dann zum Beispiel mit dem Dazzle in eine Videodatei geschrieben werden. Allerdings entsteht hier ein hoher Qualitätsverlust, da das Bild erst einmal in ein analoges Signal konvertiert
werden muss. Die Auflösung eines modernen Computers beträgt mindestens 1024x786 Pixel
12
VNC steht für Virtual Network Computing“ und ist ein betriebssystemunabhängiges Open Source-Produkt
”
und ist in vielen Derivaten verfügbar. Zwei davon sind zum Beispiel RealVNC [reab] und TightVNC [tig].
9
2 Erfassung
während die Auflösung des analogen Videosignals einer Auflösung von 768x576 Pixeln entspricht. Zwangsweise müssen hier mehrere Pixel aus dem Quellbild zusammengefasst werden,
wodurch das neue Bild unscharf und kleiner Text unlesbar wird. Dieses Verfahren bringt also
ähnlich Probleme wie das Abfilmen mit einer Videokamera mit sich. Der Vorteil hierbei ist,
dass das Bild eine höhere Qualität hat, da Beamer, Leinwand und Beleuchtung keine Rolle
spielen.
Der Scanconverter hat den weitern Vorteil, dass er einfach zwischen den Computer des
Laptops und den Beamer geschaltet werden kann und somit zu allen Computern kompatibel
ist, ohne dass zusätzliche Software zu installieren ist. Auch bei dem Wechsel von mehreren
Rednern muss nur das Verbindungskabel zwischen dem Scanconverter und dem Computer
des Redners umgesteckt werden.
Abb. 2.17: Aufzeichnung mit Scanconverter und Dazzle
2.2.6 Sony Anycast Station
Die Sony Anycast Station ist das Wunderkind und kann fast alles ohne weitere Geräte. Sie
verarbeitet mehrere Audio- und Videoeingänge, sowohl analoge Videosignale als auch direkt VGA-Signale und ersetzt damit einen Scanconverter. Durch die Verwendung einer Anycast können auch problemlos Untertitel, Wasserzeichen oder Logos eingeblendet werden. Ein
großer Vorteil ist auch, dass die Nachbearbeitung entfällt, da die Eingänge direkt während
des Vortrags gemischt werden können. Die Anycast Station gibt das gemischte Videosignal
als S-Video (welches dann mit Hilfe des Dazzles digitalisiert werden kann) oder digital über
Firewire wieder aus.
10
2.2 Video
Abb. 2.18: Sony Anycast Station
11
3 Verarbeitung
In diesem Kapitel geht es um die Verarbeitung der Videorohdaten, die sogenannte Post”
Produktion“. Spätestens jetzt muss entschieden werden, wie das Material verbreitet werden soll. Für eine DVD-Produktion sind zum Beispiel ganz andere Formate und Qualitätsanforderungen notwendig als für eine Verbreitung über das Internet.
An dieser Stelle wird angenommen, dass ein digitales Video schon vorliegt. Üblicherweise
liegt das Video im MPEG2-Format vor. Je nachdem welche Methode zur Erfassung der Videodaten gewählt wurde, kann das Video auch im DV-Format oder direkt im Zielformat
vorliegen.
Die typischen Schritte bei der Videonachbearbeitung lassen sich mit allen gängigen Videoprogrammen erledigen. Das Schneiden von Szenen, das Mischen verschiedener Videospuren
und das Anpassen der Helligkeit, des Kontrastes oder anderer Eigenschaften des Videosignals
sind schnell angepasst. Die zentrale Frage in diesem Kapitel ist die nach dem geeignetesten
Videoformat und der dafür passenden Software.
Faktoren
Zu den wichtigsten Faktoren bei der Auswahl eines Formates gehören die resultierende Dateigröße, die Verfügbarkeit von Encoder- und Decodersoftware1 und Möglichkeiten, das Video
zu verbreiten, wie etwa durch Streaming. Die Rechenzeit zur Komprimierung der Videos ist
nicht von großer Bedeutung, da in dieser Arbeit davon ausgegangen wird, dass die Videos
nicht live zur Verfügung stehen sollen. Durch die steigende Leistung der Computer fällt auch
die Rechenzeit und die Belastung beim Abspielen nicht mehr ins Gewicht.
3.1 Kenngrößen
Beim Umgang mit digitalem Videomaterial wird man einigen Kenngrößen begegnen, die sich
auf die Qualität des Videos auswirken. Je nach Anwendungsgebiet müssen diese Daten optimiert werden, um ein möglichst sauberes Videosignal zu erhalten.
3.1.1 Digitales Video
Framerate Die Framerate ist die Anzahl der Bilder pro Sekunde und wird in fps2 angegeben.
Ab etwa 15 Einzelbildern werde diese vom menschlichen Auge als kontinuierlicher Film
1
2
also Abspielsoftware/Player
Frames per second“.
”
12
3.2 Formate
wahrgenommen. Auch in der analogen Videotechnik gibt es Frameraten3 . Weltweit haben sich mehrere Videostandards durchgesetzt, die auch verschiedene Frameraten mit
sich bringen. So sind beim NTSC-Standard etwa 30 Bilder pro Sekunde zu sehen4 und
beim PAL-Standard nur 25 fps. Der klassische Film hat sogar nur etwa 24 fps.
Bitrate Die Bitrate ist das Maß der Kompression. Je nach Kompressionsverfahren wird hier
zwischen konstanter Datenrate (CBR) und variabler Datenrate (VBR) unterschieden.
Auflösung Wo bei analogen Videostandards nur die Zeilenzahl definiert ist (z.B. 576 Zeilen)
und die Spalten analog übertragen werden, spielt bei digitalen Videoformaten auch die
Spaltenanzahl eine Rolle. Geht man dabei davon aus dass die Pixel quadratisch sind
erhält man eine Standard-Auflösung von 768x576 Pixel5 . Aus der Auflösung ergibt sich
außerdem das Seitenverhältnis ( aspect ratio“). Die Standard-Seitenverhältnisse sind
”
4:3 und 16:9.
3.1.2 Digitales Audio
Sampling-Rate Die Sampling-Rate eines Audiosignals wird in Hertz gemessen und beschreibt
die Anzahl der Abtastungen pro Sekunde. Der Standard einer Audio-CD liegt bei 44.1
kHz. Für eine reine Sprachübertragung reicht eine deutlich kleinere Abtastrate aus.
Channels Die Anzahl der Kanäle ist für die Qualität des Audiosignals auch von Bedeutung.
Für Sprache reicht ein Monosignal (1 Kanal) aus. Für Musik werden in der Regel 2
Kanäle verwendet (Stereo) und für eine realistische Darstellung einer Szene greifen verschiedene Systeme6 auch zu noch mehr Kanälen.
Bitrate Ähnlich wie beim Videosignal gibt auch beim Audio die Bitrate, wie stark das Ausgangssignal komprimiert wurde und wie viel Speicherplatz (bzw. Bandbreite) das Signal
in Anspruch nimmt. Sowohl die Audio- als auch die Video-Bitrate werden in Bit pro
Sekunde (bps) angegeben. Bei einer Bitrate von 128 kbps und einer Sampling-Rate von
44.1 kHz ist beim MP3-Kompressionsverfahren der Unterschied zur Audio-CD kaum
mehr zu hören.
3.2 Formate
Die verschiedenen Videoformate zeichnen sich durch verschiedene Anwendungsgebiete aus.
Jedes hat seine Vor- und Nachteile und verwendet verschiedene Techniken. Im Folgenden sollen
die wichtigsten Formate, die für die Aufzeichnung und Verbreitung von Vortragsszenarien in
Frage kommen, vorgestellt werden.
3
Hier wird allerdings oft mit sogenannten Halbbildern gearbeitet, bei denen nur die geraden oder die ungeraden Zeilen dargestellt werden, was zu einer Verdopplung der Framerate führt
4
29,97
5
bei einem Bildverhältnis von 4:3
6
z.B. Dolby Surround oder Dolby Digital
13
3 Verarbeitung
Die Formate unterscheiden sich in den verwendeten Methoden das Video- und Audiosignal
zu komprimieren und abzuspeichern. Das Programm bzw. Verfahren, das dies erfüllt nennt
man Codec7 .
3.2.1 Container
Abb. 3.1: Container
Video- und Audiospuren sind meistens in sogenannten Containern“ untergebracht. Oft
”
unterstützen Container eine Vielzahl verschiedener Formate, manchmal sind es allerdings
auch proprietäre Container, die auf ein ganz bestimmtes Format zugeschnitten sind. Die
Container beinhalten Tracks“. Tracks können Audio oder Videospuren sein. Meistens enthält
”
ein Container eine Audio- und eine Videospur. Es können aber auch wesentlich mehr Spuren
enthalten sein, wie es zum Beispiel bei der DVD der Fall ist, wo mehrere Videospuren und
Audiospuren enthalten sein können.
AVI
Das gängigste Containerformat ist AVI. Dieses Format wurde von Microsoft geschaffen und
ist mittlerweile sehr verbreitet, um Videos am Computer abzuspielen. Der am vielseitigsten
einsetzbare Container kann mehrere Audio-, Video- und sogar Textdaten-Spuren beinhalten.
Der AVI-Container ist allerdings nicht für das Streamen entwickelt worden.
Weitere Container
Neben AVI gibt es noch zahlreiche weitere Containerformate, die allerdings weit weniger
flexibel einsetzbar sind. Viele unterstützen auch nur wenige oder im Extremfall nur ein einziges spezielles Format oder sind für einen ganz bestimmten Zweck konzipiert worden. Der
VOB-Container beinhaltet zum Bespiel die Video- und Audiodaten für eine DVD und kann
7
Zusammengesetzt aus coder“ und decoder“
”
”
14
3.2 Formate
außerdem mit Untertiteln umgehen. Weitere Container wie das SMIL-Format können sogar
kleine Skripte enthalten, um die Videos interaktiv zu gestalten.
Erwähnenswert sind noch die Containerformate Matroska und OGG, die es sich zum
Ziel gemacht haben, eine freie und von Softwarepatenten unbeschränkte Alternative zu proprietäteren Formaten wie zum Beispiel AVI zu sein.
3.2.2 Video
DV
DV steht für Digital Video“ und ist das Format in dem digitale Videokameras das Filmmate”
rial auf verschiedene Kassettenformate, wie MiniDV oder Digital8 aufzeichnen. Über Firewire
lassen sich die Daten auf den PC übertragen8 . Bei einer Datenrate von 25 MBit/s9 kommen hier allerdings riesige Dateien zustande10 . Die Bilder sind einzeln mit Hilfe der diskreten
Kosinustransformation (DCT) codiert.11
DivX
Einer der beliebtesten Codecs ist sicher der DivX-Codec [div], der zum MPEG-4 Standard
kompatibel ist. Mit Hilfe dieses Codecs können große Videos bei guter Qualität stark komprimiert werden. Kinofilme lassen sich mit dem DivX-Codec codiert problemlos auf ein bis zwei
CDs unterbringen. Ein weiterer großer Vorteil des Codecs ist, dass immer mehr HardwareDVD-Player neben DVDs und SVCDs jetzt auch DivX-Filme abspielen können. Ein DivXFilm ist üblicherweise im AVI-Container eingebettet.
Xvid
XviD12 [xvi] ist eine Open Source-Variante des DivX-Codecs. Auch er basiert auf dem MPEG4-Standard und erzielt ähnliche Leistung wie sein Vorbild.
WMV
WMV steht für Windows Media Video“ und ist - wie der Name schon erkennen lässt ”
ein proprietäres Videoformat von Microsoft für Windows. Inzwischen können WMV-Videos
auch auf anderen Betriebssystemen abgespielt werden. Die Typische Verwendung von WMVVideos ist das Streaming. Durch WMV können Videos bei relativ guter Qualität recht stark
8
Je nach Software findet an dieser Stelle direkt eine Encodierung in ein anderes Format (z.B. MPEG-2) statt,
um Speicherplatz zu sparen.
9
1 Stunde Video im DV-Format braucht etwa 12 GB Speicherplatz.
10
Hier ist darauf zu achten, ob das Dateisystem diese Größen unterstützt. Die maximale Dateigröße bei den
Dateisystemen FAT15 und FAT32 liegt bei 2 bzw. 4 GB.
11
ähnlich wie MJPEG, wo die Bilder einzeln mit dem JPEG Verfahren komprimiert sind, aber der Zusammenhang zwischen zwei Bildern nicht berücksichtigt wird.
12
DivX“ - rückwärts.
”
15
3 Verarbeitung
komprimiert werden. Als Streams sind sie in den ASF13 -Container eingebettet. Um WMVDateien zu streamen ist der kostenpflichtige Windows Media Server [wms] notwendig.
Realmedia
Ein weiteres Format, das für das Streaming konzipiert worden ist, ist das Realmedia-Format
von RealNetworks [reaa]. Auch hier war ein kostenpflichtiger Server notwendig: der RealServer. Mittlerweile wurde der Helix DNA Server [hel] von RealNetworks veröffentlicht,
der eine Open Source-Variante des Real-Servers darstellt. Zum Abspielen von RealmediaStreams benötigt der Betrachter den Realplayer, der auf der Seite von RealNetworks kostenlos
erhältlich ist.
MPEG-2
MPEG steht für Moving Picture Experts Group“ und ist eine Reihe von Standards für die
”
Audio- und Videokomprimierung. MPEG-2 bietet dabei Fernsehqualität. Dieser Standard
wird verwendet, um Videos für SVCDs oder für DVDs zu speichern. Das Verfahren, das bei
MPEG-2 angewendet wird, beruht auf drei verschiedenen Arten von Frames: den Intrafra”
mes“, den Predicted Frames“ und den Bidirectionally Predicted Frames“. Nur die Intrafra”
”
mes14 enthalten die vollständige Bildinformation. Die anderen beiden Frametypen enthalten
nur Teilinformationen wie zum Beispiel die Differenz zwischen den Bildern und ermöglichen
die fehlenden Bilder zu rekonstruieren.
MPEG-4
Der MPEG-4-Standard ist in vielen Ausprägungen zu finden. Das offizielle Containerformat
dieses Standards ist MP4, wesentlich häufiger ist er allerdings im AVI-Container anzutreffen. AVC15 , H.264 und DivX bzw. XviD sind Beispiele für Codecs, die auf diesem Standard
basieren. Die Anwendungsszenarien dieses Verfahrens sind sehr vielfältig. So ist MPEG-4 im
HDTV16 genauso gut einsetzbar wie für schmalbandrigere portable Wiedergabe von Videos.
Apple Quicktime
Auch Apple [app] hat mit Quicktime eine proprietäre Multimedia-Lösung entwickelt. Neben
den zahlreichen Medientypen setzt auch Apple bei seinen Videos auf den MPEG-4-Standard.
Quicktime-Dateien lassen sich auch streamen. Hierfür wird der Quicktime Streaming Server“
”
[qts] oder die Open Source-Variante Darwin Streaming Server“ [dar] verwendet.
”
13
Advanced Streaming Format.
werden in anderem Zusammenhang oft auch Keyframes“ genannt
”
15
Advanced Video Coding.
16
High Definition Television.
14
16
3.2 Formate
FLV
Seitdem die Bandbreiten gestiegen sind und mehr Internetbenutzer mit DSL-Geschwindigkeit
im Internet surfen sind Videoportale immer beliebter geworden. Google Video [goo], Youtube
[you] und zahlreiche andere Webseiten hosten Videos, die für alle kostenlos zu sehen sind. Die
Technik dahinter bietet Macromedias17 [ado] Flash Video Format FLV“. Um Flash Videos
”
betrachten zu können, braucht man nur das Flash-Plugin, das laut Adobe schon auf über
95 Prozent der Internet-PCs installiert ist [fla] und außerdem für die meisten Plattformen
kostenlos verfügbar ist. Die Codecs zum Abspielen der Videodaten sind im Player enthalten.
Das Audiosignal wird in diesem Fall mit Hilfe des MP3-Codecs komprimiert und kann auch
ohne zusätzlich Software abgespielt werden.
Hierbei werden einer der beiden Codecs Sorenson Spark“ oder On2 VP6“ verwendet,
”
”
wobei letzterer erst ab dem Flash Player 8 decodiert werden kann.
Ausgabemodi
Auch bei der Verwendung der Videos gibt es verschiedene Möglichkeiten:
• Die einfachste Weg ist es, das Video direkt in die SWF-Datei18 einzubetten. Das Video
wird direkt mit der Datei mitgeladen. Dadurch ist diese Methode nur bei sehr kurzen
Videos empfehlenswert.
• Als Variante kann man innerhalb der SWF-Dateien auf Flash-Videos verweisen. Die
SWF-Datei stellt somit nur den Player dar und ist nur einige Kilobyte groß. Dieses
Verfahren bezeichnet man als Progressive Download“ und wird fälschlicherweise oft
”
als Streaming bezeichnet. Der Vorteil davon ist, dass das Video auf einem normalen
Webserver liegen kann und sogar schon abgespielt werden kann, bevor es komplett heruntergeladen ist.
• Echtes Streaming hat im Gegensatz zum Progressive Download den Vorteil, dass wahlfreies Springen zu jeder beliebigen Stelle des Filmes möglich ist, auch wenn sie nicht
schon geladen ist und dass der Server und die verfügbare Bandbreite nur so wenig wie
möglich belastet werden, da immer nur eine vordefinierte Menge an Videomaterial in
einen Puffer geladen wird19 . Das Streaming erfolgt dann über RTSP20 . Hierfür ist ein
spezieller Server notwendig. Von Macromedia gibt es den Flash Media Server21 [fms]
und eine Reihe von Entwicklern arbeitet gerade an einer auf Java basierenden Open
Source-Alternative mit Namen Red5“ [red].
”
• Die letzte Möglichkeit ist es, die Dateien als FLV-Dateien zu verteilen (über das Internet
oder auf einem Datenträger). Genau wie bei anderen Formaten gibt es hier zahlreiche
17
inzwischen Adobe.
Die SWF-Datei ist eine kompilierte Flash-Datei.
19
wird in Sekunden gemessen.
20
Real-Time Streaming Protocol.
21
früher: Flash Communication Server.
18
17
3 Verarbeitung
gute Software für die meisten Betriebssysteme, mit denen Flash Videos auch lokal abgespielt werden können.
3.2.3 Audio
MP3
Auch im Audiobereich gibt es Codecs“, die für verschiedene Zwecke geeignet sind. Den
”
Durchbruch bei der Audiokomprimierung hat der Codec MP322 geschafft, der durch geschicktes Auslassen von Details, die vom menschlichen Gehör nicht wahrgenommen werden, die
Dateigröße einer Audiodatei selbst in CD-Qualität problemlos auf ein Zehntel reduzieren
kann23 .
AAC
AAC24 ist ebenfalls Teil des MPEG-Standards und wird oft als Nachfolger von MP3 bezeichnet. Das Filtern nicht wahrnehmbarer Elemente ist hier noch effizienter.
Dolby Digital
Dolby Digital - auch AC-3 genannt - wird unter anderem auf DVDs eingesetzt. Der Vorteil dieses Codecs ist, dass bis zu sechs Kanäle statt nur zwei verwendet werden können. Ähnlich wie
bei MP3 und bei AAC werden hier psychoakustische Effekte ausgenutzt um die Datenmenge
zu reduzieren.
Vorbis
Vorbis oder häufig auch Ogg Vorbis“ 25 ist eine Alternative zum MP3-Format, die ähnliche
”
Qualität und Kompression schafft. Der Schwerpunkt bei der Entwicklung dieses Codecs besteht darin, ihn patentfrei zu halten. Da das Vorbis-Format wesentlich weniger verbreitet ist
als MP3 gibt es auch deutlich weniger Hardware, die Vorbis direkt abspielen kann.
3.3 Software
3.3.1 ffmpeg
FFMPEG ist ein sehr leistungsfähiges Programm für den Umgang mit Videodateien. Der
Quellcode liegt unter einer Open Source-Lizenz vor und für alle gängigen Betriebssysteme gibt
es ausführbare Dateien. Das Programm selbst ist ein Kommandozeilen-Programm, allerdings
existieren zahlreiche gute graphische Oberflächen dafür. Als Kommandozeilen-Tool eröffnet
22
Kurzform für MPEG-1 Layer 3“.
”
etwa 1 MB pro Minute.
24
Advanced Audio Codec.
25
da er im OGG-Container enthalten ist.
23
18
3.3 Software
sich hier allerdings auch die Möglichkeit mit einfachen Mitteln kleine Skripte zu schreiben, die
eine große Anzahl von Videos verarbeiten. FFMPEG kann Videos aufnehmen und abspielen
und Videos von zahlreichen Videoformaten in andere Videoformate transcodieren26 .
Kommandozeile
1
ffmpeg − i k e y n o t e . a v i −s s 1174 −t 2992 −t a r g e t pal−dvd −a c o d e c ac3 −a r 48000 −
ab 32 −ac 1 −b 1000 − d e i n t e r l a c e k e y n o t e . mpg
Listing 3.1: Transcodieren mit ffmpeg
Mit diesem Befehl wird zum Beispiel ein Video im AVI-Container zurechtgeschnitten (2992
Sekunden ab Sekunde 1174), dann in eine MPEG-2-Datei nach dem PAL-DV-Standard konvertiert (dadurch ist keine Angabe von Seitenverhältnis, Auflösung und Framerate nötig). Das
Videosignal wird deinterlaced und auf eine Bitrate von 1000 kbit/s beschränkt. Das Audiosignal wird in ein Mono AC3-Signal mit einer Sampling-Rate von 48 kHz und einer Bitrate von
32 kbit/s konvertiert. Eine vollständige Liste aller Parameter und Funktionen von FFMPEG
erhält man mit dem Befehl ffmpeg -h“.
”
SUPER
SUPER27 [sup] ist ein Programm zum Transcodieren von Videos. Die kostenlos erhältliche
Software basiert unter Anderem auf FFMPEG und kann auch automatisch mehrere Videos
hintereinander bearbeiten.
Riva FLV Encoder
Auch der Riva FLV Encoder [riv] basiert auf FFMPEG. Dieses Programm kann Videos allerdings nur in das FLV-Format konvertieren, kümmert sich dafür aber auch um das Schreiben
von Metadaten, die für das Streaming der Videos wichtig sind.
3.3.2 Final Cut / Adobe Premiere
Zum Schneiden von Videos oder um weitere Effekte wie zum Beispiel Bild-Im-Bild hinzuzufügen wird üblicherweise eine Schnittsoftware verwendet. Meistens sind diese Programme sehr teuer. Adobe bietet mit Premiere“[pre] und Apple mit Final Cut“ [fin] zwei leis”
”
tungsfähige Produkte an, die diese Aufgabe erfüllen, aber allerdings auch ihren Preis haben.
26
27
mit ffmpeg -formats“ erhält man eine Liste aller Formate, die FFMPEG unterstützt.
”
steht für Simplified Universal Player Encoder and Renderer“.
”
19
3 Verarbeitung
Abb. 3.3: Riva FLV Encoder
Abb. 3.2: SUPER
Abb. 3.5: Final Cut
Abb. 3.4: Adobe Premiere
20
4 Ausgabe
In diesem Kapitel geht es darum, wie das Videosignal zum Betrachter gelangt. Dabei werden
als CDs beziehungsweise DVDs oder das Internet als Medium gewählt. Zuletzt werden auch
noch einige Player vorgestellt, die das Abspielen der Videos erst ermöglichen.
4.1 Datenträger
4.1.1 CD
CDs können etwa700 MB Daten aufnehmen. Je nach Codec und Qualitätsanforderungen reicht
diese oder die doppelte Menge aus, um einen Film von Kinofilmlänge in akzeptabler Qualität
zu speichern. In diesem Fall gibt es zwei Möglichkeiten: soll die CD nur auf Computern
abgespielt werden, hängt es davon ab, welche Codecs bzw. welche Player auf diesem Computer
installiert sind. Auf DVD-Hardware-Playern lassen sich CDs in der Regel auch abspielen, wenn
die Formate unterstützt werden. Einige kommen sogar mit MPEG-4-kompatiblen Formaten,
wie zum Beispiel DivX, aus. Das Super Video-CD Format (SVCD) wird allerdings von allen
gängigen DVD-Playern abgespielt. Dieses Format beinhaltet eine Videospur, die mit dem
MPEG-2 codiert worden ist.
4.1.2 DVD
Die CD hat sich allerdings nie richtig als Medium für Videos durchgesetzt. Viel beliebter sind
die DVDs geworden. Nicht zuletzt weil auch dann erst die DVD-Hardware-Player erschienen
sind. DVDs gibt es in verschiedenen Varianten, die bis zu 17 GB Daten speichern können.
Das Video wird wie bei der SVCD im MPEG-2 Format codiert. Für das Audiosignal stehen
die Formate AC3 oder MP2 zur Verfügung, wobei AC3 dem Standard entspricht. Der Vorteil
gegenüber der zur SVCD ist neben der wesentlich größeren Speicherkapazität, die eine höhere
Auflösung und eine bessere Qualität zulässt, auch die Fähigkeit gleich mehrere Videospuren,
mehrere Audiospuren1 und Untertitel zu verwenden.
DVD Authoring
DVDs können auch mit Menüs versehen werden, die relativ viel Spielraum für die Organisation der Videodaten auf der DVD zulassen. Das Erstellen der Menüstruktur nennt sich DVD
”
Authoring“ und kann zum Beispiel mit dem kostenlosen Programm Gui for dvdauthor“[dvd]
”
1
wird für die verschiedenen Sprachen verwendet.
21
4 Ausgabe
sehr gut erledigt werden. Zu beachten ist, dass auf einem Fernseher Teile des Randes abgeschnitten werden2 .
Abb. 4.1: Gui for dvdauthor
4.2 Internet
Im Internet kommt es nicht in erster Linie auf den Speicherplatz an. Dieser ist dann erst
einmal nur durch die Bereitschaft der Betrachter, sich ein großes Video herunterzuladen,
beschränkt. Viel wichtiger ist in diesem Zusammenhang die Bandbreite. Gerade wenn das
Video gestreamt werden soll, muss die Bandbreite des Videos kleiner sein als die zur Verfügung
stehende Datenbandbreite des Betrachters.
4.2.1 Download
Download“ bedeutet, dass der Film zuerst komplett heruntergeladen werden muss, bevor er
”
abgespielt werden kann. Die Nachteile liegen auf der Hand: Auch wenn nur Ausschnitte des
Videos angeschaut werden sollen, muss der gesamte Film heruntergeladen werden. Sowohl für
den Server als auch für den Betrachter bedeutet dies einen erheblichen Aufwand an Datenverkehr. Der Betrachter erkennt erst, wenn der komplette Film auf seinem Computer ist, ob
ihn diese Datei interessiert.
2
siehe Abb. 2.6 und 2.7.
22
4.2 Internet
4.2.2 Progressive Download
Dieses Problem kann durch das sogenannte progressive Download“ 3 umgangen werden. In
”
diesem Fall kann mit des Abspielens des Filmes schon begonnen werden, wenn die ersten Daten
beim Betrachter angekommen sind. Während dem Abspielen wird der Film weitergeladen.
Wenn die Bandbreite der Datenübertragung größer ist als die Bandbreite des Films, kann
dieser problemlos angeschaut werden. Um Unregelmäßigkeiten im Datenstrom auszugleichen,
werden hier Puffer verwendet, die je nach Einstellung einige Sekunden Film speichern, bevor
mit dem Abspielen begonnen wird.
Mit dieser Technik kann allerdings nicht zu einer beliebige Stelle im Film gesprungen werden, wenn diese noch nicht geladen ist. Ein weiterer Nachteil ist, dass der Film komplett im
Cache der Betrachter-PCs gespeichert wird, was je nach Dateigröße eine Belastung darstellen
kann.
4.2.3 Streaming
Streaming bezeichnet das gleichzeitig Empfangen und Abspielen eines Mediums über das Internet. Es werden nur die benötigten Daten für einen bestimmten Zeitraum, der Länge des
Puffers, übertragen. Die bekanntesten Vertreter der Streamingtechnik sind Realmedia, WMV
und inzwischen auch Flash Video. Auch das digitale Fernsehen nutzt die Streamingtechnologie. Hier werden die Videodaten im MPEG-2-Format übertragen. Das Streamen von Medien
erfordert in allen Fällen einen speziellen Server. Ein normaler Webserver, wie zum Beispiel
der Apache Webserver, kann dies nicht. Viele Server sind auf spezielle Formate ausgerichtet,
während andere eine größere Vielfalt an Formaten unterstützen.
Im folgenden eine Tabelle mit den verbreitesten Streaming-Servern:
Format
Server
Vertrieb
Anmerkung
rm
rm
Quicktime
Quicktime
Flash/FLV
Flash/FLV
WMV/WMA
Realserver
Helix DNA Server
Quicktime Streaming Server
Darwin Streaming Server
Flash Media Server
Red5
Windows Media Server
Real Networks
Real Networks
Apple
Apple
Adobe
Microsoft
Lizenzgebühren
Open Source
Lizenzgebühren
Open Source
Lizenzgebühren
Open Source
Lizenzgebühren
Tabelle 4.1: Übersicht über einige Streamingserver
3
engl. progressives Herunterladen“.
”
23
4 Ausgabe
4.3 Wiedergabe
4.3.1 Benötigte Codecs
Für das Abspielen von Videos ist immer der entsprechende Codec notwendig. Dieser kann in
der Regel kostenfrei heruntergeladen werden. In einigen Fällen ist der Codec auch direkt in
die Anwendungssoftware integriert. So braucht man zum Beispiel für Quicktime, Realmedia
und Flash keine weiteren Codecs zu installieren, wenn die entsprechenden Player schon auf
dem System vorhanden sind. Auf einigen Webseiten gibt es sogenannte Codec-Packs, die die
gängigsten Codecs beinhalten und angenehm gemeinsam installiert werden können.
4.3.2 Software für die Wiedergabe
Abb. 4.2: Media
Classic
Player
Abb. 4.3: Videolan Client
Abb. 4.4: FLV Player
Mediaplayer Classic
Der Mediaplayer Classic [mpc] ist eine gute Alternative zum Windows Media Player. Er
besteht aus einer einzigen ausführbaren Datei und muss daher nicht installiert werden. Der
schlanke Player spielt alle Formate ab, für die die Codecs installiert sind. Wurde auf dem
System vorher Quicktime und Realmedia installiert, kann man sogar diese Medien problemlos
im Mediaplayer Classic ansehen. Auch das Abspielen von DVDs bereitet dem Programm keine
Probleme.
VideoLAN Client (VLC)
Der VideoLAN Client [vid] ist ebenfalls ein ausgereifter Player. Im Gegensatz zu anderer
Software greift dieser Player nicht auf die im System installierten Codecs zurück, sondern
bringt selbst alles mit, was er zum dekodieren der gängigsten Videoformate benötigt. Auch
proprietäre Formate wie FLV, Quicktime und Realmedia sind in diesem Player abspielbar. Neben der Abspielfunktion erlaubt der Player es auch, als lokaler Streaming-Server Videodaten
live zu streamen.
24
4.3 Wiedergabe
FLV Player
Der FLV Player [flvb] ist selbst in Flash geschrieben und ist ein eleganter Player, um Flash
Videos abzuspielen. Inzwischen gibt es auch eine Alternative dieses Players namens Flv”
Player S“ [flvc], der die Videos auch im Vollbild-Modus abspielen kann. Mit diesen Playern
können nicht nur lokale Videos abgespielt werden, sondern durch Angabe einer URL können
gestreamte Videos eines Flash Streaming Servers direkt empfangen und dargestellt werden.
4.3.3 Flash Client
Um Videos, egal ob als Stream oder progressive Download, auf von Webseiten anschauen
zu können wird ein Flash Client benötigt. Teil dieser Studienarbeit war es, einen solchen
Client zu entwickeln. Dabei ist eine Extension für das Content Management System TYPO3
entstanden, die ganze Playlisten abspielen kann. Die Videos müssen dabei nicht unbedingt
auf dem gleichen Server untergebracht sein, wie die Webseite selbst. Ein großer Vorteil des
Players ist, dass er in der Größe skalierbar ist und durch Verwendung von Flash auf den
meisten Systemen benutzbar ist, ohne dass weitere Software installiert werden muss.
Abb. 4.5: TYPO3-Extension fbstreamflv
25
5 Ergebnis/Zusammenfassung
5.1 Flash
Die Auswahl eines Dateityps kann nicht generell beantwortet werden, da der Einsatzzweck
einen großen Einfluss auf die Anforderungen hat. Sollen die Daten in möglichst guter Qualität verbreitet werden, muss auf das direkte Abrufen aus dem Internet verzichtet werden.
Die Verbreitung auf einer DVD ist hier der beste Einsatzzweck. Hat der schnelle und unkomplizierte Zugriff auf das Videomaterial im Internet allerdings Vorrang, so steht eine Vielzahl
von Codecs zur Auswahl. Die großen Videoportale, die in den letzten Jahren entstanden sind
haben sich offensichtlich schon auf eine Methode festgelegt und auch für die Wiedergabe von
Vortragsszenarien scheint diese Methode eindeutig die beste Wahl zu sein. Das Flash Video
Format bietet hier die meisten Vorteile, bei fast keinen Nachteilen und ist für jede beteiligte
Personengruppe zudem unkompliziert zu Handhaben.
Im Folgenden soll das Flash-Video Format unter verschiedenen Gesichtspunkten beurteilt
werden.
Möglichkeiten der Wiedergabe Das Flash Video Format ist sehr vielfältig, was die Wiedergabe betrifft: Es kann in Flash-Animationen direkt eingebettet werden, als Progressive
”
Download“ angeboten werden und sogar als richtiger Stream angeboten werden. Somit
stehen alle Möglichkeiten offen.
Verfügbarkeit des Decoders Der Decoder zum Abspielen von Flash Videos ist im FlashPlugin enthalten. Das Plugin selbst ist laut Adobe auf 95 Prozent [fla] der mit dem
Internetverbundenen Anwendungscomputern installiert.
Verfügbarkeit des Encoders FLV-Dateien können mit Adobe Flash 8 oder mit Quicktime
Pro erstellt werden. Das Open Source-Tool FFMPEG ist kostenlos verfügbar und kann
auch FLV-Dateien erzeugen. Für FFMPEG gibt es zahlreiche graphische Oberflächen,
die das Encodieren leicht machen. Außerdem lassen sich einfache Skripte erstellen, mit
denen auch die Verarbeitung großer Datenmengen leicht bewältigt werden kann.
Qualität Verglichen mit anderen Codecs bieten die Codecs, die im Flash Video Format verwendet werden ein sehr gutes Qualität-Kompressions-Verhältnis. Somit ist es sogar
möglich, über Leitungen mit geringer Bandbreite, wie zum Beispiel ISDN, Videos mit
akzeptabler Qualität anzuschauen.
Streaming Das Streamen von FLV-Daten ist möglich, benötigt allerdings einen speziellen
Streaming-Server dafür. Der Flash Media Server ist unter anderem dafür entwickelt
26
5.2 Prozess
worden, kostet allerdings hohe Lizenzgebühren. Das Open Source-Projekt Red5 erfüllt
den gleichen Zweck und ist kostenlos erhältlich.
Interaktivität Durch die nahtlose Einbindung in Flash-Dateien und weiteren Features wie
zum Beispiel Cue Points ist es möglich, das Videomaterial in einer interaktiven Umgebung einzubetten. Hier könnten zum Beispiel die Vortragsfolien erscheinen und mit
einer Navigation zwischen einzelnen Abschnitten gesprungen werden.
5.2 Prozess
In diesem Abschnitt wird exemplarisch gezeigt, welche Schritte von der Erfassung bis hin zur
Ausgabe durchlaufen werden müssen. Als Beispiel-Szenario wird hier ein Vortrag gewählt, der
mit einer Videokamera aufgezeichnet werden soll. Das Videomaterial soll nach der Veranstaltung über das Internet zur Verfügung stehen. Zu diesem Zweck wird das Flash Video Format
verwendet.
1. Schritt: Gestaltung der Szene
Vor der Veranstaltung muss der Raum hergerichtet werden. Wichtig für gutes Ausgangsmaterial sind eine gute Beleuchtung und eine ungestörte Kameraposition. Die Position von
Projektionsfläche, Redner, Publikum, Kameras und Aufnahmepult sollten aufeinander abgestimmt sein.
2. Schritt: Die Erfassung
Das Audiosignal sollte möglichst mit einem guten Funkmikrofon erfasst werden. Das Mikrofon
wird durch ein Mischpult geregelt. An dieser Stelle können noch andere Audioquellen, wie zum
Beispiel der Ton des Vortragsrechners eingespeist werden. Das Ausgabesignal des Mischpultes
und das der Kamera werden nun mit Hilfe eines Dazzles in Echtzeit in einen MPEG-2 Stream
encodiert und von dem Aufzeichnungscomputer auf einer Festplatte gespeichert. Hat man
noch andere Hardware, wie zum Beispiel eine Anycast Station, um weitere Videoquellen zu
mischen, kann das Ausgabesignal dieses Gerätes als Eingangssignal des Dazzles verwendet
werden.
3. Schritt: Transcodierung
Das Video liegt nun als MPEG-Datei vor. Mit Hilfe des Riva FLV Encoders wird das Video
nun in das FLV-Format konvertiert. Je nach Dauer des Vortrags kann dieser Schritt einige
Zeit in Anspruch nehmen.
4. Schritt: Einrichten des Servers
Dieser Schritt muss nur einmal erledigt werden. Zur Bereitstellung der Videodaten muss der
Streaming-Server eingerichtet werden. Der Flash Media Server ist vielseitig einsetzbar. Um
27
5 Ergebnis/Zusammenfassung
Videos damit zu streamen muss ein Skript geladen werden.
Das Einrichten des Servers wird in der Dokumentation zu Flash wie folgt erklärt: [fcs]
Wenn Sie einen FCS verwenden, um FLV-Dateien in die FLVPlayback-Komponente zu strea”
men, müssen Sie Ihrer Flash Communication Server-FLV-Anwendung die Datei main.asc hinzufügen. Die Datei main.asc finden Sie im Flash 8-Anwendungsordner unter Flash 8/Samples
and Tutorials/Samples/Components/FLVPlayback/main.asc. So richten Sie Ihren FCS für
das Streaming von FLV-Dateien ein:
1. Erstellen Sie in Ihrem FCS-Anwendungsordner einen Ordner, und benennen Sie ihn z.
B. myapplication.
¯
2. Kopieren Sie die Datei main.asc in den Ordner my application.
¯
3. Erstellen Sie im Ordner my application den Ordner streams.
¯
4. Erstellen Sie im Ordner streams den Ordner definst .
¯
¯
5. Legen Sie Ihre FLV-Dateien im Ordner definst ab.
¯
¯
Verwenden Sie eine URL, z. B. rtmp://my servername/my application/stream.flv, um auf
¯
¯
Ihre FLV-Dateien auf dem Flash Communication Server zuzugreifen.“
Schritt 5: Einrichten des Clients
Abb. 5.1: Installation der TYPO3-Extension fb streamflv
¯
1. Loggen Sie sich im Backend der TYPO3-Installation ein, auf der Sie die Videos zur
Verfügung stellen wollen.
2. Laden sie die Extension fb streamflv aus dem TYPO3 Extension Repository herunter.
¯
Klicken Sie dazu auf den Extension Manager.
28
5.3 Ausblick
3. Nun klicken Sie wieder auf die Seitenansicht und klicken im Seitenbaum auf die Seite, auf
der Sie den Player platzieren wollen. Richten Sie hierfür gegebenenfalls eine neue Seite
ein. Im rechten Frame können Sie nun auf Seiteninhalt anlegen“ klicken und auf der
”
nächsten Seite Allgemeines Plugin auswählen“. Nun wählen Sie unter Erweiterung“
”
”
die Extension StreamFLV aus.
4. An dieser Stelle müssen Sie eine Playlist hochladen, die alle nötigen Informationen über
die Videos enthält, die der Player abspielen können soll. Die XML-Datei ist folgendermaßen aufgebaut:
1
2
3
4
5
6
7
8
<p l a y l i s t >
<stream>
< t i t l e >CAMPUS T3 − A L e a r n i n g Management System Based on TYPO3</
title >
<author>F a b r i z i o Branca </author>
<u r l >rtmp : //mms7 . i r a . uka . de / v i d s t r e a m / d e f i n s t / t 3 c o n 0 6 / f r a 1 </
url>
</stream>
<!−− h i e r können b e l i e b i g v i e l e w e i t e r e Stream−Tags angegeben werden −−>
</ p l a y l i s t >
Listing 5.1: Beispiel einer XML-Darstellung von Metadaten
5.3 Ausblick
Das Thema Videoaufzeichnung ist kein leichtes Thema. Durch die ständig wachsende Anzahl
an Codecs, Formaten und Bearbeitungssoftware ist dieser Bereich immer in Bewegung und
schwer überschaubar. Durch höhere Bandbreiten werden immer bessere Qualitätsstufen bei
der Übertragung möglich. High Definition Video mit wesentlich höherer Auflösung ist auch
schon für das Streaming im Gespräch.
Eine weitere Möglichkeit ist die Verwendung mehrerer Kanäle. Auch dafür wird dann ein
Vielfaches der Bandbreite benötigt, es erlaubt allerdings neue Möglichkeiten. Bei Videokonferenzen wird die Übertragung von mehreren Videokanälen schon lange erfolgreich eingesetzt.
Durch den Einsatz von Flash kann ein Präsentationssystem entwickelt werden, in denen
zusätzlich Folien und Logik abgelegt werden kann. Durch eine interaktive Gestaltung des
Videomaterials und durch ein Aufbereiten mit zusätzlichen Bilder, Animationen und anderen
Medien kann aus einen reinen passiven Informationsaufnahme eine multimediale Lehrsituation
werden, die sehr schön in ein bestehendes Learning Management System eingebettet werden
könnte.
29
Literaturverzeichnis
[ado]
Adobe. – http://www.adobe.de
[app]
Apple. – http://www.apple.com
[dar]
Darwin Streaming Server. –
http://developer.apple.com/opensource/
server/streaming/index.html
[div]
DivX. – http://www.divx.com/?lang=de
[dvd]
Gui for dvdauthor. – http://download.videohelp.com/gfd/GUI_DVDauthor_
01.html
[fcs]
FLV-Dateien von einem FCS streamen. – http://livedocs.macromedia.com/
flash/8_de/main/00003494.html
[fin]
Final Cut. – http://www.apple.com/de/finalcutstudio/finalcutpro/
[fla]
Flash Player Statistics. – http://www.adobe.com/products/player_census/
flashplayer/
[flva]
Flash Video Lernhandbuch. –
articles/video_guide.html
[flvb]
FLV Player. –
flv-player-updated
[flvc]
FLV
Player
S.
–
html(supportsfullscreen)
[fms]
Flash
Media
Server.
flashmediaserver/
[goo]
Google Video. – http://video.google.de
[hel]
Helix DNA Server. – https://helix-server.helixcommunity.org/
[Hen03]
Henning, Peter A.: Taschenbuch Multimedia. 3., bearb. Aufl. Fachbuchverl.
Leipzig im Carl Hanser Verl., 2003. – ISBN 3–446–22308–8
30
http://www.adobe.com/de/devnet/flash/
http://www.martijndevisser.com/blog/article/
http://sweb.cityu.edu.hk/50689882/flv.
–
http://www.adobe.com/de/products/
Literaturverzeichnis
[Hoc]
Hock, Christian: Delivering Flash Video: Understanding the Difference Between
Progressive Download and Streaming Video. – http://www.adobe.com/devnet/
flash/articles/flv_download.html
[imp]
Importing Video: Files and Encoding Guidelines. – http://www.adobe.com/
cfusion/knowledgebase/index.cfm?id=tn_18990
[mat]
Matroska. – http://www.matroska.org/
[Mic]
Microsoft:
AVI RIFF File Reference. –
http://msdn.microsoft.
com/library/default.asp?url=/library/en-us/directshow/htm/
avirifffilereference.asp
[mpc]
Mediaplayer Classic. – http://sourceforge.net/projects/guliverkli/
[ogga]
Ogg Documentation. – http://www.xiph.org/ogg/doc/
[oggb]
Ogg Vorbis Documentation. – http://xiph.org/vorbis/doc/
[Pau05]
Paul, Joshua: Digital Video Hacks. O’Reilly, 2005. – ISBN 0–596–00946–1
[pre]
Adobe Premiere. – http://www.adobe.com/de/products/premiere/
[qts]
Quicktime Streaming Server. –
streamingserver/
[reaa]
RealNetworks. – http://www.realnetworks.com/
[reab]
TightVNC. – http://www.tightvnc.com/
[red]
Red5. – http://osflash.org/red5
[riv]
Riva FLV Encoder. – http://www.rivavx.com/index.php?id=483&L=0
[RN]
Rohkrämer, Mario ; Noé, Alex: Mythen über AVI. – http://forum.gleitz.
info/showthread.php?t=12764
http://www.apple.com/de/quicktime/
[RSFRWH] Richardson, Tristan ; Stafford-Fraser, Quentin ; R. Wood, Kenneth ;
Hopper, Andy: Virtual Network Computing. – http://www.cl.cam.ac.uk/
Research/DTG/attarchive/pub/docs/att/tr.98.1.pdf
[sup]
SUPER. – http://www.erightsoft.net/SUPER.html
[Tec]
TechSmith:
default.asp
[tig]
RealVNC. – http://realvnc.com/
TSCC Codec. –
http://de.techsmith.com/codecs/tscc/
31
Literaturverzeichnis
[Tow]
Towes, Kevin: Encoding Best Practices for Prerecorded Flash Video. – http:
//www.adobe.com/devnet/flash/articles/flv_encoding.html
[vid]
VideoLAN Client (VLC). – http://www.videolan.org/vlc/
[wik]
Wikipedia. – http://www.wikipedia.org/
[wms]
Windows Media Server. –
http://www.microsoft.com/windows/
windowsmedia/de/9series/server.aspx
[xvi]
XviD. – http://www.xvid.org/
[you]
Youtube. – http://www.youtube.com
32
Glossar
AAC
Advanced Audio Codec. Codec zur Komprimierung von Audio.
AC-3
Auch Dolby Digital genannt. Codec zur Komprimierung von Audio. Wird
unter anderem auf DVDs verwendet.
ASF
Advanced Streaming Format. Containerformat für Streaming von Microsoft.
Aspect Ratio
Seitenverhältnis eines (Video-)bildes. Üblich sind die Verhältnisse 4:3 und
16:9.
AVC
Advanced Video Coding. Videocodec auf der Basis von MPEG-4.
AVI
Audio Video Interleaved. Containerformat von Microsoft.
Bitrate
Maß für die Kompression von Audio- oder Videodaten; Wird z.B. in Bit pro
Sekunde angegeben.
CBR
Constant bit rate. Konstante Bitrate.
CD
Compact Disc. Digitales Speichermedium.
Codec
Coder, Decoder. Verfahren zur Komprimierung und Dekomprimierung von
Video- oder Audiodaten.
DivX
Videocodec basierend auf MPEG-4.
DV
Digital Video. Digitale Videorohdaten aus Videokameras.
DVD
Digital Versatile Disc. Digitales Speichermedium mit hoher Kapazität.
EVA
Eingabe, Verarbeitung, Ausgabe. Grundlegendes Prinzip der elektronischen
Datenverarbeitung. Im Fall der Videoaufzeichnung ist die Eingabe die Erfassung des Videosignals.
FLV
Flash Video. Videocodec von Macromedia bzw. inzwischen Adobe.
fps
Frames Per Second. Bilder pro Sekunde; Maß für die Framerate.
GIGO
Garbage In, Garbage Out. Will man ein qualitativ hochwertiges Endprodukt
haben, muss die Qualität des Rohmaterials schon gut sein.
33
Literaturverzeichnis
MP3
MPEG-1 Layer 3. Codec zur Komprimierung von Audio.
MPEG
Moving Picture Experts Group. Reihe von Standards für die Audio- und Videokomprimierung.
NTSC
National Television Systems Committee. Standard für analoges Video; wird
hauptsächlich in Nordamerika verwendet.
PA
Public Address. Öffentliche Beschallungsanlage.
PAL
Phase Alternating Line. Standard für analoges Video; Wird unter anderem
in Europa verwendet.
RTSP
Real-Time Streaming Protocol. Protokoll, um Videos zu streamen.
SUPER
Simplified Universal Player Encoder and Renderer. Software zum transcodieren von Videos. Basiert unter anderem auf FFMPEG.
SVCD
Super Video CD. Auf MPEG-2 basierendes Format, um Filme auf einer CD
zu speichern.
SWF
ShockWave Flash. Containerformat für Flash.
TSCC
TechSmith Screen Capture Codec. Videocodec für verlustfreie Komprimierung. Gut geeignet für eine Aufnahme des Bildschirms mit einem
Screencapture-Tool.
VBR
Varibale bit rate. Variable Bitrate.
VNC
Virtual Network Computing. Mit Hilfe von VNC können Videoaufzeichnungen
von Bidschirmen über das Netzwerk an einem entfernten Aufnahmerechner
gemacht werden.
WMV
Windows Media Video. Videocodec von Microsoft.
XviD
Open Source Videocodec basierend auf MPEG-4.
34