Studienarbeit
Transcrição
Studienarbeit
Universität Karlsruhe (TH) Fakultät für Informatik Institut für Theoretische Informatik Studienarbeit Phasen, Formate und Techniken zur Videoproduktion Betreuer: em. Prof. Dr. Peter Deussen Dr. habil. Hartmut Barthelmess Beginn: 14.11.2006 Abgabe: 01.02.2007 vorgelegt von: Fabrizio Branca Matrikelnummer: 1103955 E-Mail: [email protected] Erklärung Ich versichere, dass ich diese Studienarbeit selbstständig und nur unter Verwendung der angegebenen Hilfsmittel angefertigt habe und die aus benutzten Quellen wörtlich oder inhaltlich entnommenen Stellen als solche kenntlich gemacht habe. Karlsruhe, am 1. Februar 2007 Fabrizio Branca c Copyright 2007 Fabrizio Branca. Zusammenfassung: Thema dieser Studienarbeit ist die Aufzeichnungstechnik, die nötig ist, um einen Vortrag auf Video festzuhalten und nach der Veranstaltung den Hörern und anderen interessierten Personen zur Verfügung zu stellen. Hier sollen Vor- und Nachteile verschiedener Techniken und Verfahren zur Erfassung, Verarbeitung und Ausgabe erarbeitet werden und Vorschläge zu verschiedenen Szenarien gemacht werden, die sich im Rahmen der vorhandenen Möglichkeiten des Zentrums für Multimedia realisieren lassen. Inhaltsverzeichnis Inhaltsverzeichnis vi 1 Einleitung 1.1 Gesamtbild/Workflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Aufzeichnungsszenarien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 Erfassung 2.1 Audio 2.2 Video 2.2.1 2.2.2 2.2.3 2.2.4 2.2.5 2.2.6 . . . . . . . . . . . . . . . . . . . . . . . . . . Gestaltung der Szene . Videokameras . . . . . Abfilmen . . . . . . . Screencapture . . . . . Scanconverter . . . . . Sony Anycast Station . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Verarbeitung 3.1 Kenngrößen . . . . . . . . . . . . . . 3.1.1 Digitales Video . . . . . . . . 3.1.2 Digitales Audio . . . . . . . . 3.2 Formate . . . . . . . . . . . . . . . . 3.2.1 Container . . . . . . . . . . . 3.2.2 Video . . . . . . . . . . . . . 3.2.3 Audio . . . . . . . . . . . . . 3.3 Software . . . . . . . . . . . . . . . . 3.3.1 ffmpeg . . . . . . . . . . . . . 3.3.2 Final Cut / Adobe Premiere 4 Ausgabe 4.1 Datenträger . . . 4.1.1 CD . . . . 4.1.2 DVD . . . 4.2 Internet . . . . . 4.2.1 Download . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 4 5 6 7 9 10 . . . . . . . . . . 12 12 12 13 13 14 15 18 18 18 19 . . . . . 21 21 21 21 22 22 v Inhaltsverzeichnis . . . . . . 23 23 24 24 24 25 5 Ergebnis/Zusammenfassung 5.1 Flash . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 26 27 29 Literaturverzeichnis 30 Glossar 33 4.3 vi 4.2.2 Progressive Download . . . . 4.2.3 Streaming . . . . . . . . . . . Wiedergabe . . . . . . . . . . . . . . 4.3.1 Benötigte Codecs . . . . . . . 4.3.2 Software für die Wiedergabe 4.3.3 Flash Client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Einleitung Bis vor einigen Jahren war die Nutzung von Videos noch auf den analogen Bereich beschränkt. Digitale Videos waren kaum nutzbar, da die Prozessoren zu langsam, die Dateien viel zu groß und die Bandbreiten für die Übertragung für Videomaterial zu gering waren. Inzwischen hat sich einiges geändert: Eine Reihe von Verfahren sind ausgereift, um Videos effizient zu komprimieren und gleichzeitig ist die Hardwareleistung und die verfügbare Bandbreite gewachsen. Analoges Video wird kaum mehr beachtet, da sogar schon die Videokameras selbst das Bild digitalisiert ausgeben können. Mit diesen Fortschritten macht es nun erstmals Sinn, Vorträge mitzuschneiden, zu archivieren und Personen nach oder sogar noch während der Veranstaltung zur Verfügung zu stellen, auch wenn sie nicht am Ort des Geschehenes mit dabei sein können. In dieser Studienarbeit sollen Vor- und Nachteile verschiedener Techniken und Verfahren zur Erfassung, Verarbeitung und Ausgabe erarbeitet werden und dann Vorschläge zu verschiedenen Szenarien gemacht werden, die sich im Rahmen der vorhandenen Möglichkeiten des Zentrums für Multimedia realisieren lassen. Da diese Arbeit auch eine praktische Hilfe zur Realisierung darstellen soll und die Erfahrungen von vergangenen Aufzeichnungsszenarien festhalten soll, wird sie lösungsorientiert aufgebaut sein. Das Gebiet der Videotechnik ist mittlerweile zu groß, um es im Rahmen einer Studienarbeit komplett zu erfassen. Daher können hier nicht alle Facetten betrachtet werden. Der Schwerpunkt hierbei darauf, eine elegante Lösung zu finden, anstatt alle Möglichkeiten aufzuzählen. 1.1 Gesamtbild/Workflow Das in der elektronischen Datenverarbeitung grundlegende EVA1 -Prinzip findet sich auch hier wieder. Nach der Erfassung der Szene wird das entstehende Video für die entsprechende Ausgabe aufbereitet und gegebenenfalls neu codiert2 . 1 2 steht für Eingabe, Verarbeitung, Ausgabe“ ” das neu codieren von Videomaterial nennt man transcodieren“ ” 1 1 Einleitung Analog zu diesen drei Stufen sind auch die folgenden Kapitel aufgebaut, in denen dann die wesentlichen Arbeitsschritte und Auswahlmöglichkeiten dargestellt werden. 1.2 Aufzeichnungsszenarien Das Vorgehen in dieser Arbeit konzentriert sich auf Szenarien, in denen eine Person einen Vortrag hält, der gegebenenfalls mit Hilfe eines Computers und eines Videoprojektors visualisiert wird. Außerdem soll es auch möglich sein, Rückfragen und Diskussionen aus dem Raum zu erfassen und mit aufzuzeichnen. Das Video soll nach der Veranstaltung auf einem Datenträger oder im Internet zur Verfügung stehen. Bei der Übertragung der Videos in Echtzeit kommen zwar teilweise ähnliche oder sogar die gleichen Probleme und Anforderungen vor, diese werden allerdings in dieser Arbeit nicht betrachtet. 2 2 Erfassung Frei nach dem GIGO1 -Prinzip ist es besonders wichtig, schon bei der Aufnahme darauf zu achten, ein möglichst sauberes Signal aufzuzeichnen. Durch das Nachbearbeiten des Videound Audiomaterials lassen sich zwar noch kleinere Korrekturen machen, ist das Ausgangsmaterial von Anfang allerdings zum Beispiel zu dunkel oder mit Störgeräuschen versehen, ist es kaum möglich daraus eine gute Videoaufzeichnung zu produzieren. Wenn hier ein Einfluss auf die Szene möglich ist, sollte zum Beispiel auf ausreichende Beleuchtung und sinnvolle Anordnung von Rednerpult und Projektion geachtet werden. Technisch gesehen geht es bei der Erfassung darum, sowohl Audio als auch Video von einem analogen Signal in ein digitales zu konvertieren2 , das dann informationstechnisch weiterverarbeitet werden kann. Ebenfalls ist es möglich, dass das Signal schon digital vorliegt, wie es zum Beispiel bei dem Ausgabebild eines Computers der Fall ist. 2.1 Audio Die Wahl des richtigen Mikrofons ist eine zentrale Entscheidung. Hier sollte nicht gespart werden, da ein klares Audiosignal wesentlich zur Gesamtqualität der fertigen Aufzeichnung beiträgt. Bei einem Vortrag empfiehlt es sich, ein drahtloses Mikrofon einzusetzen, um dem Redner etwas Bewegungsspielraum zu geben. In den meisten Fällen ist es notwendig, dass das Mikrofon am Körper des Redners befestigt werden kann, so dass dieser die Hände frei hat. Als besonders praktisch haben sich Mikrofone herausgestellt, die mit Hilfe eines Clips am Hemd festgemacht werden können, oder Mikrofone, die mit einem feinen Drahtbügel am Kopf des Redners getragen werden. Letztere haben in der Regel eine sehr gute Audioqualität, sind aber meistens etwas teuerer. Anschlüsse Chinch Der Chinch-Stecker3 ist ein Monoanschluss für Audio und für Video. In der Regel sind immer zwei Leitungen (rot und weiß beziehungsweise rot und schwarz) zu einem Kabel zusammengefasst, um ein Stereosignal übertragen zu können. Durch eine dritte Leitung (gelb) kann auch ein Videosignal über eine Chinchleitung übertragen werden. 1 steht für Garbage In, Garbage Out“. Siehe http://en.wikipedia.org/wiki/Garbage_in,_garbage_out. ” Das geschieht durch einen Analog-Digital-Umsetzer, der das Signal zuerst quantisiert und die daraus entstandenen diskreten, aber analogen Werte digitalisiert. 3 im engl. auch phono“ oder RCA“ genannt. ” ” 2 3 2 Erfassung Abb. 2.1: Cinch Abb. 2.2: Klinke Abb. 2.3: XLR Klinke Den Klinkenstecker gibt es in Mono und in Stereo und in verschiedenen Größen. Die gängigsten Größen sind 3,5 mm und 6,35 mm. XLR XLR-Stecker werden unter anderem bei professionellen Beschallungsanlagen ( PA4“) ” und in Studios verwenden. Für alle Stecker existieren Adapter beziehungsweise Verbindungen, um die Signale von einem Steckerformat in ein anderes zu konvertieren. Weitere Eingänge Neben dem Sprachsignal des Redners müssen oft auch weitere Audioquellen, wie der Audioausgang des Laptops, eine externe Audioquelle oder ein CD-Player, aufgezeichnet werden. In diesem Fall empfiehlt es sich, ein Mischpult zu verwenden und dort alle Audiosignale zusammenzuführen und aufeinander abzustimmen. Das Ausgabesignal des Mischpultes wird dann aufgezeichnet. 2.2 Video Das Ziel bei der Videoaufzeichnung ist es, die Szene möglichst originalgetreu abzubilden. Hier muss zwischen dem Bild des Redners und dem Ausgabebild des Computers unterschieden werden. Mehrmaliges Konvertieren zwischen einem analogen und einem digitalen Signal oder Wechseln des Mediums sollte vermieden werden, um eine möglichst gute Qualität zu erhalten. 2.2.1 Gestaltung der Szene Falls es möglich ist, Einfluss auf die Anordnung von Redner, Leinwand, Kameras und Zuhörer auszuüben, sollte ein Konzept ausgearbeitet werden, dass möglichst gute Ergebnisse liefert. Wird zum Beispiel Bild im Bild (siehe Abb. 2.5) verwendet ist es sinnvoll, den Redner rechts von der Leinwand zu platzieren, wenn des zweite Fenster zum Beispiel rechts unten eingebettet wird.5 Wichtig ist außerdem die Beachtung der Bildaufteilung. Soll das Videobild später auf einem Fernseher betrachtet werden, ist zu beachten, dass der Fernseher nur einen Bildausschnitt zeigt, indem er einen Rahmen abschneidet. Text auf Folien sowie der Redner sollten deswegen nicht zu nahe am Rand des Videofensters stehen (vgl. Abb. 2.6 und 2.7). 4 5 4 steht für Public Address. Siehe Abb. 2.4. 2.2 Video Abb. 2.4: Skizze des Aufbaus Abb. 2.6: Darstellung Monitor Abb. 2.5: Bild im Bild Abb. 2.7: Darstellung Fernseher 2.2.2 Videokameras Für die Videoaufzeichnung von Vorträgen und die Ausgabe im Internet oder auf DVDs reichen analoge Kameras vollkommen aus. Diese Kameras können das Videosignal meistens direkt als Composite bzw. S-Video ausgeben, so dass das Aufzeichnen auf Videokassette direkt in der Kamera nicht nötig ist6 . Falls die Videokamera einen Firewire-Ausgang hat und die weitere Hardware ebenfalls Firewire unterstützt, kann auch dieses Format verwendet werden um direkt an dieser Stelle schon digital aufzuzeichnen, wodurch eine bessere Qualität erhalten bleibt, aber auch teurere Hardware benötigt wird. Dazu kommt, dass das Digitale Video (DV) sehr viel Speicherplatz 6 ggf. ist es aber trotzdem, nötig eine Kassette mitlaufen zu lassen, um zu verhindern, dass sich die Kamera nach ein paar Minuten abschaltet. Dieses Verfahren hat außerdem den Vorteil, dass ein Backup vorhanden ist, falls die weitere Aufzeichnung Probleme bereiten sollte. 5 2 Erfassung einnimmt (siehe Kapitel 3.2.2.). Anschlüsse Auf den Bildern in Abbildung 2.8 bis 2.11 sind die gängigsten Anschlüsse für die Videoübertragung abgebildet. Composite, BNC und S-Video sind analoge Signale, wobei die Bandbreite und damit die Qualität von S-Video dem Signal, dass über Composite übertragen werden kann, überlegen ist. Über Firewire werden digitale Videodaten übertragen. Abb. 2.8: Composite Abb. 2.9: BNC Abb. 2.10: S-Video Abb. 2.11: Firewire 2.2.3 Abfilmen Die einfachste Variante einen Vortrag aufzuzeichnen ist, eine Videokamera zu verwenden. Mit dieser Kamera kann der Redner oder das Beamerbild erfasst werden und durch geeignete Kameraeinstellungen auch der Redner und seine Präsentation. Diese Methode liefert die schlechtesten Ergebnisse, da die Auflösung der Videokamera so gering ist, dass das Beamerbild, welches üblicherweise eine wesentlich höhere Auflösung7 besitzt, nur schlecht dargestellt wird. Durch die Beleuchtungseinflüsse des Raumes kommt es beim Abfilmen zu einem weiteren Qualitätsverlust. Wenn nur eine Kamera verwendet wird um den Redner und das Beamerbild aufzuzeichnen kommen oft unter- und überbelichtete Abschnitte im Video dazu, da das Beamerbild deutlich mehr Licht abstrahlt als der Redner. Die Kameras müssen ständig ihre Belichtungsparameter anpassen, was im Extremfall jedes Mal einige Sekunden dauern kann. Für das reine Abfilmen des Redner sind Videokameras natürlich geeignet und sogar die einzige Wahl. In diesem Fall kann das Beamerbild, das gegebenenfalls auf einem anderen Weg aufgezeichnet wird, live oder bei der Nachbearbeitung dazu gemischt werden. Hierbei muss darauf geachtet werden, dass der Redner sich nicht zuviel bewegt und die Kamera auf einem leicht beweglichen Stativ angebracht ist. 6 2.2 Video Abb. 2.12: Dazzle Video Creator 150 Analoges Signal mit Dazzle digitalisieren Der Dazzle Video Creator 150“ 8 (siehe Abb. ) ist ein MPEG2-Encoder9 . Er kann ein Videosi” gnal im Composite- oder S-Video-Format und ein Stereo Signal in Echtzeit10 in das MPEG2Format konvertieren. Der Dazzle wird über USB an einen Computer angeschlossen. Dort übernimmt zum Beispiel das mitgelieferte Programm Pinnacle Studio 8 die Kommunikation mit dem Dazzle, das Schreiben der Video-Datei auf die Festplatte und die Nachbearbeitung, wenn erwünscht. 2.2.4 Screencapture Camtasia ist ein Screencapture Programm, das den Bildschirminhalt in ein Video schreiben kann. Die resultierenden Videos sind durch den verwendeten TSCC11 -Codec ohne Qualitätsverlust komprimiert. Lokal - am Computer des Vortragenden Camtasia kann direkt auf dem Computer des Vortragenden installiert werden. Für kleine Tutorials ist dies der einfachste weg. In den meisten Fällen möchte man allerdings umgehen, Software bei dem Redner installieren zu müssen. Dazu kommt, dass Camtasia nur für Windows verfügbar ist. Softwarealternativen gibt es allerdings auch für andere Betriebssysteme. 7 Üblicherweise haben Beamer eine Auflösung von 1024x768 Pixel. Die Auflösung eines analogen Videosignals im PAL-Standard entspricht allerdings nur 768x576 Pixeln. 8 wird im folgenden nur Dazzle“ gennant. ” 9 weitere Informationen zum MPEG2-Format im Kapitel 3.2.2. 10 mit einigen Millisekunden Verzögerung. 11 TechScreen Capture Codec, Decoder ist frei erhältlich unter [Tec]. 7 2 Erfassung Abb. 2.13: Pinnacle Studio 8 Abb. 2.14: Camtasia 8 2.2 Video Remoteverbindung - über ein Netzwerk Die zweite Variante ist eine Remoteverbindung zwischen dem PC des Redners und einem Aufnahmerechner über ein Netzwerk aufzubauen. Auch in diesem Fall ist die Installation von zusätzlicher Software auf dem Rechner des Redners notwendig. VNC12 ist allerdings für die gängigen Betriebssysteme verfügbar. Außerdem wird der Rechner des Redners mit dieser Lösung nicht mit Camtasia belastet. Der Aufnahmerechner zeigt nun den Bildschirm des Computers des Redners. Hier wird nun über Camtasia das Fenster aufgezeichnet so als würde alles lokal stattfinden. Eine Skizze des Aufbaus ist in Abbildung 2.15 zu sehen. Abb. 2.15: Aufbau: Screencapture mit Remoteverbindung (VNC) 2.2.5 Scanconverter Abb. 2.16: Scanconverter Ein Scanconverter konvertiert ein VGA Signal in ein analoges Videosignal. Dieses kann dann zum Beispiel mit dem Dazzle in eine Videodatei geschrieben werden. Allerdings entsteht hier ein hoher Qualitätsverlust, da das Bild erst einmal in ein analoges Signal konvertiert werden muss. Die Auflösung eines modernen Computers beträgt mindestens 1024x786 Pixel 12 VNC steht für Virtual Network Computing“ und ist ein betriebssystemunabhängiges Open Source-Produkt ” und ist in vielen Derivaten verfügbar. Zwei davon sind zum Beispiel RealVNC [reab] und TightVNC [tig]. 9 2 Erfassung während die Auflösung des analogen Videosignals einer Auflösung von 768x576 Pixeln entspricht. Zwangsweise müssen hier mehrere Pixel aus dem Quellbild zusammengefasst werden, wodurch das neue Bild unscharf und kleiner Text unlesbar wird. Dieses Verfahren bringt also ähnlich Probleme wie das Abfilmen mit einer Videokamera mit sich. Der Vorteil hierbei ist, dass das Bild eine höhere Qualität hat, da Beamer, Leinwand und Beleuchtung keine Rolle spielen. Der Scanconverter hat den weitern Vorteil, dass er einfach zwischen den Computer des Laptops und den Beamer geschaltet werden kann und somit zu allen Computern kompatibel ist, ohne dass zusätzliche Software zu installieren ist. Auch bei dem Wechsel von mehreren Rednern muss nur das Verbindungskabel zwischen dem Scanconverter und dem Computer des Redners umgesteckt werden. Abb. 2.17: Aufzeichnung mit Scanconverter und Dazzle 2.2.6 Sony Anycast Station Die Sony Anycast Station ist das Wunderkind und kann fast alles ohne weitere Geräte. Sie verarbeitet mehrere Audio- und Videoeingänge, sowohl analoge Videosignale als auch direkt VGA-Signale und ersetzt damit einen Scanconverter. Durch die Verwendung einer Anycast können auch problemlos Untertitel, Wasserzeichen oder Logos eingeblendet werden. Ein großer Vorteil ist auch, dass die Nachbearbeitung entfällt, da die Eingänge direkt während des Vortrags gemischt werden können. Die Anycast Station gibt das gemischte Videosignal als S-Video (welches dann mit Hilfe des Dazzles digitalisiert werden kann) oder digital über Firewire wieder aus. 10 2.2 Video Abb. 2.18: Sony Anycast Station 11 3 Verarbeitung In diesem Kapitel geht es um die Verarbeitung der Videorohdaten, die sogenannte Post” Produktion“. Spätestens jetzt muss entschieden werden, wie das Material verbreitet werden soll. Für eine DVD-Produktion sind zum Beispiel ganz andere Formate und Qualitätsanforderungen notwendig als für eine Verbreitung über das Internet. An dieser Stelle wird angenommen, dass ein digitales Video schon vorliegt. Üblicherweise liegt das Video im MPEG2-Format vor. Je nachdem welche Methode zur Erfassung der Videodaten gewählt wurde, kann das Video auch im DV-Format oder direkt im Zielformat vorliegen. Die typischen Schritte bei der Videonachbearbeitung lassen sich mit allen gängigen Videoprogrammen erledigen. Das Schneiden von Szenen, das Mischen verschiedener Videospuren und das Anpassen der Helligkeit, des Kontrastes oder anderer Eigenschaften des Videosignals sind schnell angepasst. Die zentrale Frage in diesem Kapitel ist die nach dem geeignetesten Videoformat und der dafür passenden Software. Faktoren Zu den wichtigsten Faktoren bei der Auswahl eines Formates gehören die resultierende Dateigröße, die Verfügbarkeit von Encoder- und Decodersoftware1 und Möglichkeiten, das Video zu verbreiten, wie etwa durch Streaming. Die Rechenzeit zur Komprimierung der Videos ist nicht von großer Bedeutung, da in dieser Arbeit davon ausgegangen wird, dass die Videos nicht live zur Verfügung stehen sollen. Durch die steigende Leistung der Computer fällt auch die Rechenzeit und die Belastung beim Abspielen nicht mehr ins Gewicht. 3.1 Kenngrößen Beim Umgang mit digitalem Videomaterial wird man einigen Kenngrößen begegnen, die sich auf die Qualität des Videos auswirken. Je nach Anwendungsgebiet müssen diese Daten optimiert werden, um ein möglichst sauberes Videosignal zu erhalten. 3.1.1 Digitales Video Framerate Die Framerate ist die Anzahl der Bilder pro Sekunde und wird in fps2 angegeben. Ab etwa 15 Einzelbildern werde diese vom menschlichen Auge als kontinuierlicher Film 1 2 also Abspielsoftware/Player Frames per second“. ” 12 3.2 Formate wahrgenommen. Auch in der analogen Videotechnik gibt es Frameraten3 . Weltweit haben sich mehrere Videostandards durchgesetzt, die auch verschiedene Frameraten mit sich bringen. So sind beim NTSC-Standard etwa 30 Bilder pro Sekunde zu sehen4 und beim PAL-Standard nur 25 fps. Der klassische Film hat sogar nur etwa 24 fps. Bitrate Die Bitrate ist das Maß der Kompression. Je nach Kompressionsverfahren wird hier zwischen konstanter Datenrate (CBR) und variabler Datenrate (VBR) unterschieden. Auflösung Wo bei analogen Videostandards nur die Zeilenzahl definiert ist (z.B. 576 Zeilen) und die Spalten analog übertragen werden, spielt bei digitalen Videoformaten auch die Spaltenanzahl eine Rolle. Geht man dabei davon aus dass die Pixel quadratisch sind erhält man eine Standard-Auflösung von 768x576 Pixel5 . Aus der Auflösung ergibt sich außerdem das Seitenverhältnis ( aspect ratio“). Die Standard-Seitenverhältnisse sind ” 4:3 und 16:9. 3.1.2 Digitales Audio Sampling-Rate Die Sampling-Rate eines Audiosignals wird in Hertz gemessen und beschreibt die Anzahl der Abtastungen pro Sekunde. Der Standard einer Audio-CD liegt bei 44.1 kHz. Für eine reine Sprachübertragung reicht eine deutlich kleinere Abtastrate aus. Channels Die Anzahl der Kanäle ist für die Qualität des Audiosignals auch von Bedeutung. Für Sprache reicht ein Monosignal (1 Kanal) aus. Für Musik werden in der Regel 2 Kanäle verwendet (Stereo) und für eine realistische Darstellung einer Szene greifen verschiedene Systeme6 auch zu noch mehr Kanälen. Bitrate Ähnlich wie beim Videosignal gibt auch beim Audio die Bitrate, wie stark das Ausgangssignal komprimiert wurde und wie viel Speicherplatz (bzw. Bandbreite) das Signal in Anspruch nimmt. Sowohl die Audio- als auch die Video-Bitrate werden in Bit pro Sekunde (bps) angegeben. Bei einer Bitrate von 128 kbps und einer Sampling-Rate von 44.1 kHz ist beim MP3-Kompressionsverfahren der Unterschied zur Audio-CD kaum mehr zu hören. 3.2 Formate Die verschiedenen Videoformate zeichnen sich durch verschiedene Anwendungsgebiete aus. Jedes hat seine Vor- und Nachteile und verwendet verschiedene Techniken. Im Folgenden sollen die wichtigsten Formate, die für die Aufzeichnung und Verbreitung von Vortragsszenarien in Frage kommen, vorgestellt werden. 3 Hier wird allerdings oft mit sogenannten Halbbildern gearbeitet, bei denen nur die geraden oder die ungeraden Zeilen dargestellt werden, was zu einer Verdopplung der Framerate führt 4 29,97 5 bei einem Bildverhältnis von 4:3 6 z.B. Dolby Surround oder Dolby Digital 13 3 Verarbeitung Die Formate unterscheiden sich in den verwendeten Methoden das Video- und Audiosignal zu komprimieren und abzuspeichern. Das Programm bzw. Verfahren, das dies erfüllt nennt man Codec7 . 3.2.1 Container Abb. 3.1: Container Video- und Audiospuren sind meistens in sogenannten Containern“ untergebracht. Oft ” unterstützen Container eine Vielzahl verschiedener Formate, manchmal sind es allerdings auch proprietäre Container, die auf ein ganz bestimmtes Format zugeschnitten sind. Die Container beinhalten Tracks“. Tracks können Audio oder Videospuren sein. Meistens enthält ” ein Container eine Audio- und eine Videospur. Es können aber auch wesentlich mehr Spuren enthalten sein, wie es zum Beispiel bei der DVD der Fall ist, wo mehrere Videospuren und Audiospuren enthalten sein können. AVI Das gängigste Containerformat ist AVI. Dieses Format wurde von Microsoft geschaffen und ist mittlerweile sehr verbreitet, um Videos am Computer abzuspielen. Der am vielseitigsten einsetzbare Container kann mehrere Audio-, Video- und sogar Textdaten-Spuren beinhalten. Der AVI-Container ist allerdings nicht für das Streamen entwickelt worden. Weitere Container Neben AVI gibt es noch zahlreiche weitere Containerformate, die allerdings weit weniger flexibel einsetzbar sind. Viele unterstützen auch nur wenige oder im Extremfall nur ein einziges spezielles Format oder sind für einen ganz bestimmten Zweck konzipiert worden. Der VOB-Container beinhaltet zum Bespiel die Video- und Audiodaten für eine DVD und kann 7 Zusammengesetzt aus coder“ und decoder“ ” ” 14 3.2 Formate außerdem mit Untertiteln umgehen. Weitere Container wie das SMIL-Format können sogar kleine Skripte enthalten, um die Videos interaktiv zu gestalten. Erwähnenswert sind noch die Containerformate Matroska und OGG, die es sich zum Ziel gemacht haben, eine freie und von Softwarepatenten unbeschränkte Alternative zu proprietäteren Formaten wie zum Beispiel AVI zu sein. 3.2.2 Video DV DV steht für Digital Video“ und ist das Format in dem digitale Videokameras das Filmmate” rial auf verschiedene Kassettenformate, wie MiniDV oder Digital8 aufzeichnen. Über Firewire lassen sich die Daten auf den PC übertragen8 . Bei einer Datenrate von 25 MBit/s9 kommen hier allerdings riesige Dateien zustande10 . Die Bilder sind einzeln mit Hilfe der diskreten Kosinustransformation (DCT) codiert.11 DivX Einer der beliebtesten Codecs ist sicher der DivX-Codec [div], der zum MPEG-4 Standard kompatibel ist. Mit Hilfe dieses Codecs können große Videos bei guter Qualität stark komprimiert werden. Kinofilme lassen sich mit dem DivX-Codec codiert problemlos auf ein bis zwei CDs unterbringen. Ein weiterer großer Vorteil des Codecs ist, dass immer mehr HardwareDVD-Player neben DVDs und SVCDs jetzt auch DivX-Filme abspielen können. Ein DivXFilm ist üblicherweise im AVI-Container eingebettet. Xvid XviD12 [xvi] ist eine Open Source-Variante des DivX-Codecs. Auch er basiert auf dem MPEG4-Standard und erzielt ähnliche Leistung wie sein Vorbild. WMV WMV steht für Windows Media Video“ und ist - wie der Name schon erkennen lässt ” ein proprietäres Videoformat von Microsoft für Windows. Inzwischen können WMV-Videos auch auf anderen Betriebssystemen abgespielt werden. Die Typische Verwendung von WMVVideos ist das Streaming. Durch WMV können Videos bei relativ guter Qualität recht stark 8 Je nach Software findet an dieser Stelle direkt eine Encodierung in ein anderes Format (z.B. MPEG-2) statt, um Speicherplatz zu sparen. 9 1 Stunde Video im DV-Format braucht etwa 12 GB Speicherplatz. 10 Hier ist darauf zu achten, ob das Dateisystem diese Größen unterstützt. Die maximale Dateigröße bei den Dateisystemen FAT15 und FAT32 liegt bei 2 bzw. 4 GB. 11 ähnlich wie MJPEG, wo die Bilder einzeln mit dem JPEG Verfahren komprimiert sind, aber der Zusammenhang zwischen zwei Bildern nicht berücksichtigt wird. 12 DivX“ - rückwärts. ” 15 3 Verarbeitung komprimiert werden. Als Streams sind sie in den ASF13 -Container eingebettet. Um WMVDateien zu streamen ist der kostenpflichtige Windows Media Server [wms] notwendig. Realmedia Ein weiteres Format, das für das Streaming konzipiert worden ist, ist das Realmedia-Format von RealNetworks [reaa]. Auch hier war ein kostenpflichtiger Server notwendig: der RealServer. Mittlerweile wurde der Helix DNA Server [hel] von RealNetworks veröffentlicht, der eine Open Source-Variante des Real-Servers darstellt. Zum Abspielen von RealmediaStreams benötigt der Betrachter den Realplayer, der auf der Seite von RealNetworks kostenlos erhältlich ist. MPEG-2 MPEG steht für Moving Picture Experts Group“ und ist eine Reihe von Standards für die ” Audio- und Videokomprimierung. MPEG-2 bietet dabei Fernsehqualität. Dieser Standard wird verwendet, um Videos für SVCDs oder für DVDs zu speichern. Das Verfahren, das bei MPEG-2 angewendet wird, beruht auf drei verschiedenen Arten von Frames: den Intrafra” mes“, den Predicted Frames“ und den Bidirectionally Predicted Frames“. Nur die Intrafra” ” mes14 enthalten die vollständige Bildinformation. Die anderen beiden Frametypen enthalten nur Teilinformationen wie zum Beispiel die Differenz zwischen den Bildern und ermöglichen die fehlenden Bilder zu rekonstruieren. MPEG-4 Der MPEG-4-Standard ist in vielen Ausprägungen zu finden. Das offizielle Containerformat dieses Standards ist MP4, wesentlich häufiger ist er allerdings im AVI-Container anzutreffen. AVC15 , H.264 und DivX bzw. XviD sind Beispiele für Codecs, die auf diesem Standard basieren. Die Anwendungsszenarien dieses Verfahrens sind sehr vielfältig. So ist MPEG-4 im HDTV16 genauso gut einsetzbar wie für schmalbandrigere portable Wiedergabe von Videos. Apple Quicktime Auch Apple [app] hat mit Quicktime eine proprietäre Multimedia-Lösung entwickelt. Neben den zahlreichen Medientypen setzt auch Apple bei seinen Videos auf den MPEG-4-Standard. Quicktime-Dateien lassen sich auch streamen. Hierfür wird der Quicktime Streaming Server“ ” [qts] oder die Open Source-Variante Darwin Streaming Server“ [dar] verwendet. ” 13 Advanced Streaming Format. werden in anderem Zusammenhang oft auch Keyframes“ genannt ” 15 Advanced Video Coding. 16 High Definition Television. 14 16 3.2 Formate FLV Seitdem die Bandbreiten gestiegen sind und mehr Internetbenutzer mit DSL-Geschwindigkeit im Internet surfen sind Videoportale immer beliebter geworden. Google Video [goo], Youtube [you] und zahlreiche andere Webseiten hosten Videos, die für alle kostenlos zu sehen sind. Die Technik dahinter bietet Macromedias17 [ado] Flash Video Format FLV“. Um Flash Videos ” betrachten zu können, braucht man nur das Flash-Plugin, das laut Adobe schon auf über 95 Prozent der Internet-PCs installiert ist [fla] und außerdem für die meisten Plattformen kostenlos verfügbar ist. Die Codecs zum Abspielen der Videodaten sind im Player enthalten. Das Audiosignal wird in diesem Fall mit Hilfe des MP3-Codecs komprimiert und kann auch ohne zusätzlich Software abgespielt werden. Hierbei werden einer der beiden Codecs Sorenson Spark“ oder On2 VP6“ verwendet, ” ” wobei letzterer erst ab dem Flash Player 8 decodiert werden kann. Ausgabemodi Auch bei der Verwendung der Videos gibt es verschiedene Möglichkeiten: • Die einfachste Weg ist es, das Video direkt in die SWF-Datei18 einzubetten. Das Video wird direkt mit der Datei mitgeladen. Dadurch ist diese Methode nur bei sehr kurzen Videos empfehlenswert. • Als Variante kann man innerhalb der SWF-Dateien auf Flash-Videos verweisen. Die SWF-Datei stellt somit nur den Player dar und ist nur einige Kilobyte groß. Dieses Verfahren bezeichnet man als Progressive Download“ und wird fälschlicherweise oft ” als Streaming bezeichnet. Der Vorteil davon ist, dass das Video auf einem normalen Webserver liegen kann und sogar schon abgespielt werden kann, bevor es komplett heruntergeladen ist. • Echtes Streaming hat im Gegensatz zum Progressive Download den Vorteil, dass wahlfreies Springen zu jeder beliebigen Stelle des Filmes möglich ist, auch wenn sie nicht schon geladen ist und dass der Server und die verfügbare Bandbreite nur so wenig wie möglich belastet werden, da immer nur eine vordefinierte Menge an Videomaterial in einen Puffer geladen wird19 . Das Streaming erfolgt dann über RTSP20 . Hierfür ist ein spezieller Server notwendig. Von Macromedia gibt es den Flash Media Server21 [fms] und eine Reihe von Entwicklern arbeitet gerade an einer auf Java basierenden Open Source-Alternative mit Namen Red5“ [red]. ” • Die letzte Möglichkeit ist es, die Dateien als FLV-Dateien zu verteilen (über das Internet oder auf einem Datenträger). Genau wie bei anderen Formaten gibt es hier zahlreiche 17 inzwischen Adobe. Die SWF-Datei ist eine kompilierte Flash-Datei. 19 wird in Sekunden gemessen. 20 Real-Time Streaming Protocol. 21 früher: Flash Communication Server. 18 17 3 Verarbeitung gute Software für die meisten Betriebssysteme, mit denen Flash Videos auch lokal abgespielt werden können. 3.2.3 Audio MP3 Auch im Audiobereich gibt es Codecs“, die für verschiedene Zwecke geeignet sind. Den ” Durchbruch bei der Audiokomprimierung hat der Codec MP322 geschafft, der durch geschicktes Auslassen von Details, die vom menschlichen Gehör nicht wahrgenommen werden, die Dateigröße einer Audiodatei selbst in CD-Qualität problemlos auf ein Zehntel reduzieren kann23 . AAC AAC24 ist ebenfalls Teil des MPEG-Standards und wird oft als Nachfolger von MP3 bezeichnet. Das Filtern nicht wahrnehmbarer Elemente ist hier noch effizienter. Dolby Digital Dolby Digital - auch AC-3 genannt - wird unter anderem auf DVDs eingesetzt. Der Vorteil dieses Codecs ist, dass bis zu sechs Kanäle statt nur zwei verwendet werden können. Ähnlich wie bei MP3 und bei AAC werden hier psychoakustische Effekte ausgenutzt um die Datenmenge zu reduzieren. Vorbis Vorbis oder häufig auch Ogg Vorbis“ 25 ist eine Alternative zum MP3-Format, die ähnliche ” Qualität und Kompression schafft. Der Schwerpunkt bei der Entwicklung dieses Codecs besteht darin, ihn patentfrei zu halten. Da das Vorbis-Format wesentlich weniger verbreitet ist als MP3 gibt es auch deutlich weniger Hardware, die Vorbis direkt abspielen kann. 3.3 Software 3.3.1 ffmpeg FFMPEG ist ein sehr leistungsfähiges Programm für den Umgang mit Videodateien. Der Quellcode liegt unter einer Open Source-Lizenz vor und für alle gängigen Betriebssysteme gibt es ausführbare Dateien. Das Programm selbst ist ein Kommandozeilen-Programm, allerdings existieren zahlreiche gute graphische Oberflächen dafür. Als Kommandozeilen-Tool eröffnet 22 Kurzform für MPEG-1 Layer 3“. ” etwa 1 MB pro Minute. 24 Advanced Audio Codec. 25 da er im OGG-Container enthalten ist. 23 18 3.3 Software sich hier allerdings auch die Möglichkeit mit einfachen Mitteln kleine Skripte zu schreiben, die eine große Anzahl von Videos verarbeiten. FFMPEG kann Videos aufnehmen und abspielen und Videos von zahlreichen Videoformaten in andere Videoformate transcodieren26 . Kommandozeile 1 ffmpeg − i k e y n o t e . a v i −s s 1174 −t 2992 −t a r g e t pal−dvd −a c o d e c ac3 −a r 48000 − ab 32 −ac 1 −b 1000 − d e i n t e r l a c e k e y n o t e . mpg Listing 3.1: Transcodieren mit ffmpeg Mit diesem Befehl wird zum Beispiel ein Video im AVI-Container zurechtgeschnitten (2992 Sekunden ab Sekunde 1174), dann in eine MPEG-2-Datei nach dem PAL-DV-Standard konvertiert (dadurch ist keine Angabe von Seitenverhältnis, Auflösung und Framerate nötig). Das Videosignal wird deinterlaced und auf eine Bitrate von 1000 kbit/s beschränkt. Das Audiosignal wird in ein Mono AC3-Signal mit einer Sampling-Rate von 48 kHz und einer Bitrate von 32 kbit/s konvertiert. Eine vollständige Liste aller Parameter und Funktionen von FFMPEG erhält man mit dem Befehl ffmpeg -h“. ” SUPER SUPER27 [sup] ist ein Programm zum Transcodieren von Videos. Die kostenlos erhältliche Software basiert unter Anderem auf FFMPEG und kann auch automatisch mehrere Videos hintereinander bearbeiten. Riva FLV Encoder Auch der Riva FLV Encoder [riv] basiert auf FFMPEG. Dieses Programm kann Videos allerdings nur in das FLV-Format konvertieren, kümmert sich dafür aber auch um das Schreiben von Metadaten, die für das Streaming der Videos wichtig sind. 3.3.2 Final Cut / Adobe Premiere Zum Schneiden von Videos oder um weitere Effekte wie zum Beispiel Bild-Im-Bild hinzuzufügen wird üblicherweise eine Schnittsoftware verwendet. Meistens sind diese Programme sehr teuer. Adobe bietet mit Premiere“[pre] und Apple mit Final Cut“ [fin] zwei leis” ” tungsfähige Produkte an, die diese Aufgabe erfüllen, aber allerdings auch ihren Preis haben. 26 27 mit ffmpeg -formats“ erhält man eine Liste aller Formate, die FFMPEG unterstützt. ” steht für Simplified Universal Player Encoder and Renderer“. ” 19 3 Verarbeitung Abb. 3.3: Riva FLV Encoder Abb. 3.2: SUPER Abb. 3.5: Final Cut Abb. 3.4: Adobe Premiere 20 4 Ausgabe In diesem Kapitel geht es darum, wie das Videosignal zum Betrachter gelangt. Dabei werden als CDs beziehungsweise DVDs oder das Internet als Medium gewählt. Zuletzt werden auch noch einige Player vorgestellt, die das Abspielen der Videos erst ermöglichen. 4.1 Datenträger 4.1.1 CD CDs können etwa700 MB Daten aufnehmen. Je nach Codec und Qualitätsanforderungen reicht diese oder die doppelte Menge aus, um einen Film von Kinofilmlänge in akzeptabler Qualität zu speichern. In diesem Fall gibt es zwei Möglichkeiten: soll die CD nur auf Computern abgespielt werden, hängt es davon ab, welche Codecs bzw. welche Player auf diesem Computer installiert sind. Auf DVD-Hardware-Playern lassen sich CDs in der Regel auch abspielen, wenn die Formate unterstützt werden. Einige kommen sogar mit MPEG-4-kompatiblen Formaten, wie zum Beispiel DivX, aus. Das Super Video-CD Format (SVCD) wird allerdings von allen gängigen DVD-Playern abgespielt. Dieses Format beinhaltet eine Videospur, die mit dem MPEG-2 codiert worden ist. 4.1.2 DVD Die CD hat sich allerdings nie richtig als Medium für Videos durchgesetzt. Viel beliebter sind die DVDs geworden. Nicht zuletzt weil auch dann erst die DVD-Hardware-Player erschienen sind. DVDs gibt es in verschiedenen Varianten, die bis zu 17 GB Daten speichern können. Das Video wird wie bei der SVCD im MPEG-2 Format codiert. Für das Audiosignal stehen die Formate AC3 oder MP2 zur Verfügung, wobei AC3 dem Standard entspricht. Der Vorteil gegenüber der zur SVCD ist neben der wesentlich größeren Speicherkapazität, die eine höhere Auflösung und eine bessere Qualität zulässt, auch die Fähigkeit gleich mehrere Videospuren, mehrere Audiospuren1 und Untertitel zu verwenden. DVD Authoring DVDs können auch mit Menüs versehen werden, die relativ viel Spielraum für die Organisation der Videodaten auf der DVD zulassen. Das Erstellen der Menüstruktur nennt sich DVD ” Authoring“ und kann zum Beispiel mit dem kostenlosen Programm Gui for dvdauthor“[dvd] ” 1 wird für die verschiedenen Sprachen verwendet. 21 4 Ausgabe sehr gut erledigt werden. Zu beachten ist, dass auf einem Fernseher Teile des Randes abgeschnitten werden2 . Abb. 4.1: Gui for dvdauthor 4.2 Internet Im Internet kommt es nicht in erster Linie auf den Speicherplatz an. Dieser ist dann erst einmal nur durch die Bereitschaft der Betrachter, sich ein großes Video herunterzuladen, beschränkt. Viel wichtiger ist in diesem Zusammenhang die Bandbreite. Gerade wenn das Video gestreamt werden soll, muss die Bandbreite des Videos kleiner sein als die zur Verfügung stehende Datenbandbreite des Betrachters. 4.2.1 Download Download“ bedeutet, dass der Film zuerst komplett heruntergeladen werden muss, bevor er ” abgespielt werden kann. Die Nachteile liegen auf der Hand: Auch wenn nur Ausschnitte des Videos angeschaut werden sollen, muss der gesamte Film heruntergeladen werden. Sowohl für den Server als auch für den Betrachter bedeutet dies einen erheblichen Aufwand an Datenverkehr. Der Betrachter erkennt erst, wenn der komplette Film auf seinem Computer ist, ob ihn diese Datei interessiert. 2 siehe Abb. 2.6 und 2.7. 22 4.2 Internet 4.2.2 Progressive Download Dieses Problem kann durch das sogenannte progressive Download“ 3 umgangen werden. In ” diesem Fall kann mit des Abspielens des Filmes schon begonnen werden, wenn die ersten Daten beim Betrachter angekommen sind. Während dem Abspielen wird der Film weitergeladen. Wenn die Bandbreite der Datenübertragung größer ist als die Bandbreite des Films, kann dieser problemlos angeschaut werden. Um Unregelmäßigkeiten im Datenstrom auszugleichen, werden hier Puffer verwendet, die je nach Einstellung einige Sekunden Film speichern, bevor mit dem Abspielen begonnen wird. Mit dieser Technik kann allerdings nicht zu einer beliebige Stelle im Film gesprungen werden, wenn diese noch nicht geladen ist. Ein weiterer Nachteil ist, dass der Film komplett im Cache der Betrachter-PCs gespeichert wird, was je nach Dateigröße eine Belastung darstellen kann. 4.2.3 Streaming Streaming bezeichnet das gleichzeitig Empfangen und Abspielen eines Mediums über das Internet. Es werden nur die benötigten Daten für einen bestimmten Zeitraum, der Länge des Puffers, übertragen. Die bekanntesten Vertreter der Streamingtechnik sind Realmedia, WMV und inzwischen auch Flash Video. Auch das digitale Fernsehen nutzt die Streamingtechnologie. Hier werden die Videodaten im MPEG-2-Format übertragen. Das Streamen von Medien erfordert in allen Fällen einen speziellen Server. Ein normaler Webserver, wie zum Beispiel der Apache Webserver, kann dies nicht. Viele Server sind auf spezielle Formate ausgerichtet, während andere eine größere Vielfalt an Formaten unterstützen. Im folgenden eine Tabelle mit den verbreitesten Streaming-Servern: Format Server Vertrieb Anmerkung rm rm Quicktime Quicktime Flash/FLV Flash/FLV WMV/WMA Realserver Helix DNA Server Quicktime Streaming Server Darwin Streaming Server Flash Media Server Red5 Windows Media Server Real Networks Real Networks Apple Apple Adobe Microsoft Lizenzgebühren Open Source Lizenzgebühren Open Source Lizenzgebühren Open Source Lizenzgebühren Tabelle 4.1: Übersicht über einige Streamingserver 3 engl. progressives Herunterladen“. ” 23 4 Ausgabe 4.3 Wiedergabe 4.3.1 Benötigte Codecs Für das Abspielen von Videos ist immer der entsprechende Codec notwendig. Dieser kann in der Regel kostenfrei heruntergeladen werden. In einigen Fällen ist der Codec auch direkt in die Anwendungssoftware integriert. So braucht man zum Beispiel für Quicktime, Realmedia und Flash keine weiteren Codecs zu installieren, wenn die entsprechenden Player schon auf dem System vorhanden sind. Auf einigen Webseiten gibt es sogenannte Codec-Packs, die die gängigsten Codecs beinhalten und angenehm gemeinsam installiert werden können. 4.3.2 Software für die Wiedergabe Abb. 4.2: Media Classic Player Abb. 4.3: Videolan Client Abb. 4.4: FLV Player Mediaplayer Classic Der Mediaplayer Classic [mpc] ist eine gute Alternative zum Windows Media Player. Er besteht aus einer einzigen ausführbaren Datei und muss daher nicht installiert werden. Der schlanke Player spielt alle Formate ab, für die die Codecs installiert sind. Wurde auf dem System vorher Quicktime und Realmedia installiert, kann man sogar diese Medien problemlos im Mediaplayer Classic ansehen. Auch das Abspielen von DVDs bereitet dem Programm keine Probleme. VideoLAN Client (VLC) Der VideoLAN Client [vid] ist ebenfalls ein ausgereifter Player. Im Gegensatz zu anderer Software greift dieser Player nicht auf die im System installierten Codecs zurück, sondern bringt selbst alles mit, was er zum dekodieren der gängigsten Videoformate benötigt. Auch proprietäre Formate wie FLV, Quicktime und Realmedia sind in diesem Player abspielbar. Neben der Abspielfunktion erlaubt der Player es auch, als lokaler Streaming-Server Videodaten live zu streamen. 24 4.3 Wiedergabe FLV Player Der FLV Player [flvb] ist selbst in Flash geschrieben und ist ein eleganter Player, um Flash Videos abzuspielen. Inzwischen gibt es auch eine Alternative dieses Players namens Flv” Player S“ [flvc], der die Videos auch im Vollbild-Modus abspielen kann. Mit diesen Playern können nicht nur lokale Videos abgespielt werden, sondern durch Angabe einer URL können gestreamte Videos eines Flash Streaming Servers direkt empfangen und dargestellt werden. 4.3.3 Flash Client Um Videos, egal ob als Stream oder progressive Download, auf von Webseiten anschauen zu können wird ein Flash Client benötigt. Teil dieser Studienarbeit war es, einen solchen Client zu entwickeln. Dabei ist eine Extension für das Content Management System TYPO3 entstanden, die ganze Playlisten abspielen kann. Die Videos müssen dabei nicht unbedingt auf dem gleichen Server untergebracht sein, wie die Webseite selbst. Ein großer Vorteil des Players ist, dass er in der Größe skalierbar ist und durch Verwendung von Flash auf den meisten Systemen benutzbar ist, ohne dass weitere Software installiert werden muss. Abb. 4.5: TYPO3-Extension fbstreamflv 25 5 Ergebnis/Zusammenfassung 5.1 Flash Die Auswahl eines Dateityps kann nicht generell beantwortet werden, da der Einsatzzweck einen großen Einfluss auf die Anforderungen hat. Sollen die Daten in möglichst guter Qualität verbreitet werden, muss auf das direkte Abrufen aus dem Internet verzichtet werden. Die Verbreitung auf einer DVD ist hier der beste Einsatzzweck. Hat der schnelle und unkomplizierte Zugriff auf das Videomaterial im Internet allerdings Vorrang, so steht eine Vielzahl von Codecs zur Auswahl. Die großen Videoportale, die in den letzten Jahren entstanden sind haben sich offensichtlich schon auf eine Methode festgelegt und auch für die Wiedergabe von Vortragsszenarien scheint diese Methode eindeutig die beste Wahl zu sein. Das Flash Video Format bietet hier die meisten Vorteile, bei fast keinen Nachteilen und ist für jede beteiligte Personengruppe zudem unkompliziert zu Handhaben. Im Folgenden soll das Flash-Video Format unter verschiedenen Gesichtspunkten beurteilt werden. Möglichkeiten der Wiedergabe Das Flash Video Format ist sehr vielfältig, was die Wiedergabe betrifft: Es kann in Flash-Animationen direkt eingebettet werden, als Progressive ” Download“ angeboten werden und sogar als richtiger Stream angeboten werden. Somit stehen alle Möglichkeiten offen. Verfügbarkeit des Decoders Der Decoder zum Abspielen von Flash Videos ist im FlashPlugin enthalten. Das Plugin selbst ist laut Adobe auf 95 Prozent [fla] der mit dem Internetverbundenen Anwendungscomputern installiert. Verfügbarkeit des Encoders FLV-Dateien können mit Adobe Flash 8 oder mit Quicktime Pro erstellt werden. Das Open Source-Tool FFMPEG ist kostenlos verfügbar und kann auch FLV-Dateien erzeugen. Für FFMPEG gibt es zahlreiche graphische Oberflächen, die das Encodieren leicht machen. Außerdem lassen sich einfache Skripte erstellen, mit denen auch die Verarbeitung großer Datenmengen leicht bewältigt werden kann. Qualität Verglichen mit anderen Codecs bieten die Codecs, die im Flash Video Format verwendet werden ein sehr gutes Qualität-Kompressions-Verhältnis. Somit ist es sogar möglich, über Leitungen mit geringer Bandbreite, wie zum Beispiel ISDN, Videos mit akzeptabler Qualität anzuschauen. Streaming Das Streamen von FLV-Daten ist möglich, benötigt allerdings einen speziellen Streaming-Server dafür. Der Flash Media Server ist unter anderem dafür entwickelt 26 5.2 Prozess worden, kostet allerdings hohe Lizenzgebühren. Das Open Source-Projekt Red5 erfüllt den gleichen Zweck und ist kostenlos erhältlich. Interaktivität Durch die nahtlose Einbindung in Flash-Dateien und weiteren Features wie zum Beispiel Cue Points ist es möglich, das Videomaterial in einer interaktiven Umgebung einzubetten. Hier könnten zum Beispiel die Vortragsfolien erscheinen und mit einer Navigation zwischen einzelnen Abschnitten gesprungen werden. 5.2 Prozess In diesem Abschnitt wird exemplarisch gezeigt, welche Schritte von der Erfassung bis hin zur Ausgabe durchlaufen werden müssen. Als Beispiel-Szenario wird hier ein Vortrag gewählt, der mit einer Videokamera aufgezeichnet werden soll. Das Videomaterial soll nach der Veranstaltung über das Internet zur Verfügung stehen. Zu diesem Zweck wird das Flash Video Format verwendet. 1. Schritt: Gestaltung der Szene Vor der Veranstaltung muss der Raum hergerichtet werden. Wichtig für gutes Ausgangsmaterial sind eine gute Beleuchtung und eine ungestörte Kameraposition. Die Position von Projektionsfläche, Redner, Publikum, Kameras und Aufnahmepult sollten aufeinander abgestimmt sein. 2. Schritt: Die Erfassung Das Audiosignal sollte möglichst mit einem guten Funkmikrofon erfasst werden. Das Mikrofon wird durch ein Mischpult geregelt. An dieser Stelle können noch andere Audioquellen, wie zum Beispiel der Ton des Vortragsrechners eingespeist werden. Das Ausgabesignal des Mischpultes und das der Kamera werden nun mit Hilfe eines Dazzles in Echtzeit in einen MPEG-2 Stream encodiert und von dem Aufzeichnungscomputer auf einer Festplatte gespeichert. Hat man noch andere Hardware, wie zum Beispiel eine Anycast Station, um weitere Videoquellen zu mischen, kann das Ausgabesignal dieses Gerätes als Eingangssignal des Dazzles verwendet werden. 3. Schritt: Transcodierung Das Video liegt nun als MPEG-Datei vor. Mit Hilfe des Riva FLV Encoders wird das Video nun in das FLV-Format konvertiert. Je nach Dauer des Vortrags kann dieser Schritt einige Zeit in Anspruch nehmen. 4. Schritt: Einrichten des Servers Dieser Schritt muss nur einmal erledigt werden. Zur Bereitstellung der Videodaten muss der Streaming-Server eingerichtet werden. Der Flash Media Server ist vielseitig einsetzbar. Um 27 5 Ergebnis/Zusammenfassung Videos damit zu streamen muss ein Skript geladen werden. Das Einrichten des Servers wird in der Dokumentation zu Flash wie folgt erklärt: [fcs] Wenn Sie einen FCS verwenden, um FLV-Dateien in die FLVPlayback-Komponente zu strea” men, müssen Sie Ihrer Flash Communication Server-FLV-Anwendung die Datei main.asc hinzufügen. Die Datei main.asc finden Sie im Flash 8-Anwendungsordner unter Flash 8/Samples and Tutorials/Samples/Components/FLVPlayback/main.asc. So richten Sie Ihren FCS für das Streaming von FLV-Dateien ein: 1. Erstellen Sie in Ihrem FCS-Anwendungsordner einen Ordner, und benennen Sie ihn z. B. myapplication. ¯ 2. Kopieren Sie die Datei main.asc in den Ordner my application. ¯ 3. Erstellen Sie im Ordner my application den Ordner streams. ¯ 4. Erstellen Sie im Ordner streams den Ordner definst . ¯ ¯ 5. Legen Sie Ihre FLV-Dateien im Ordner definst ab. ¯ ¯ Verwenden Sie eine URL, z. B. rtmp://my servername/my application/stream.flv, um auf ¯ ¯ Ihre FLV-Dateien auf dem Flash Communication Server zuzugreifen.“ Schritt 5: Einrichten des Clients Abb. 5.1: Installation der TYPO3-Extension fb streamflv ¯ 1. Loggen Sie sich im Backend der TYPO3-Installation ein, auf der Sie die Videos zur Verfügung stellen wollen. 2. Laden sie die Extension fb streamflv aus dem TYPO3 Extension Repository herunter. ¯ Klicken Sie dazu auf den Extension Manager. 28 5.3 Ausblick 3. Nun klicken Sie wieder auf die Seitenansicht und klicken im Seitenbaum auf die Seite, auf der Sie den Player platzieren wollen. Richten Sie hierfür gegebenenfalls eine neue Seite ein. Im rechten Frame können Sie nun auf Seiteninhalt anlegen“ klicken und auf der ” nächsten Seite Allgemeines Plugin auswählen“. Nun wählen Sie unter Erweiterung“ ” ” die Extension StreamFLV aus. 4. An dieser Stelle müssen Sie eine Playlist hochladen, die alle nötigen Informationen über die Videos enthält, die der Player abspielen können soll. Die XML-Datei ist folgendermaßen aufgebaut: 1 2 3 4 5 6 7 8 <p l a y l i s t > <stream> < t i t l e >CAMPUS T3 − A L e a r n i n g Management System Based on TYPO3</ title > <author>F a b r i z i o Branca </author> <u r l >rtmp : //mms7 . i r a . uka . de / v i d s t r e a m / d e f i n s t / t 3 c o n 0 6 / f r a 1 </ url> </stream> <!−− h i e r können b e l i e b i g v i e l e w e i t e r e Stream−Tags angegeben werden −−> </ p l a y l i s t > Listing 5.1: Beispiel einer XML-Darstellung von Metadaten 5.3 Ausblick Das Thema Videoaufzeichnung ist kein leichtes Thema. Durch die ständig wachsende Anzahl an Codecs, Formaten und Bearbeitungssoftware ist dieser Bereich immer in Bewegung und schwer überschaubar. Durch höhere Bandbreiten werden immer bessere Qualitätsstufen bei der Übertragung möglich. High Definition Video mit wesentlich höherer Auflösung ist auch schon für das Streaming im Gespräch. Eine weitere Möglichkeit ist die Verwendung mehrerer Kanäle. Auch dafür wird dann ein Vielfaches der Bandbreite benötigt, es erlaubt allerdings neue Möglichkeiten. Bei Videokonferenzen wird die Übertragung von mehreren Videokanälen schon lange erfolgreich eingesetzt. Durch den Einsatz von Flash kann ein Präsentationssystem entwickelt werden, in denen zusätzlich Folien und Logik abgelegt werden kann. Durch eine interaktive Gestaltung des Videomaterials und durch ein Aufbereiten mit zusätzlichen Bilder, Animationen und anderen Medien kann aus einen reinen passiven Informationsaufnahme eine multimediale Lehrsituation werden, die sehr schön in ein bestehendes Learning Management System eingebettet werden könnte. 29 Literaturverzeichnis [ado] Adobe. – http://www.adobe.de [app] Apple. – http://www.apple.com [dar] Darwin Streaming Server. – http://developer.apple.com/opensource/ server/streaming/index.html [div] DivX. – http://www.divx.com/?lang=de [dvd] Gui for dvdauthor. – http://download.videohelp.com/gfd/GUI_DVDauthor_ 01.html [fcs] FLV-Dateien von einem FCS streamen. – http://livedocs.macromedia.com/ flash/8_de/main/00003494.html [fin] Final Cut. – http://www.apple.com/de/finalcutstudio/finalcutpro/ [fla] Flash Player Statistics. – http://www.adobe.com/products/player_census/ flashplayer/ [flva] Flash Video Lernhandbuch. – articles/video_guide.html [flvb] FLV Player. – flv-player-updated [flvc] FLV Player S. – html(supportsfullscreen) [fms] Flash Media Server. flashmediaserver/ [goo] Google Video. – http://video.google.de [hel] Helix DNA Server. – https://helix-server.helixcommunity.org/ [Hen03] Henning, Peter A.: Taschenbuch Multimedia. 3., bearb. Aufl. Fachbuchverl. Leipzig im Carl Hanser Verl., 2003. – ISBN 3–446–22308–8 30 http://www.adobe.com/de/devnet/flash/ http://www.martijndevisser.com/blog/article/ http://sweb.cityu.edu.hk/50689882/flv. – http://www.adobe.com/de/products/ Literaturverzeichnis [Hoc] Hock, Christian: Delivering Flash Video: Understanding the Difference Between Progressive Download and Streaming Video. – http://www.adobe.com/devnet/ flash/articles/flv_download.html [imp] Importing Video: Files and Encoding Guidelines. – http://www.adobe.com/ cfusion/knowledgebase/index.cfm?id=tn_18990 [mat] Matroska. – http://www.matroska.org/ [Mic] Microsoft: AVI RIFF File Reference. – http://msdn.microsoft. com/library/default.asp?url=/library/en-us/directshow/htm/ avirifffilereference.asp [mpc] Mediaplayer Classic. – http://sourceforge.net/projects/guliverkli/ [ogga] Ogg Documentation. – http://www.xiph.org/ogg/doc/ [oggb] Ogg Vorbis Documentation. – http://xiph.org/vorbis/doc/ [Pau05] Paul, Joshua: Digital Video Hacks. O’Reilly, 2005. – ISBN 0–596–00946–1 [pre] Adobe Premiere. – http://www.adobe.com/de/products/premiere/ [qts] Quicktime Streaming Server. – streamingserver/ [reaa] RealNetworks. – http://www.realnetworks.com/ [reab] TightVNC. – http://www.tightvnc.com/ [red] Red5. – http://osflash.org/red5 [riv] Riva FLV Encoder. – http://www.rivavx.com/index.php?id=483&L=0 [RN] Rohkrämer, Mario ; Noé, Alex: Mythen über AVI. – http://forum.gleitz. info/showthread.php?t=12764 http://www.apple.com/de/quicktime/ [RSFRWH] Richardson, Tristan ; Stafford-Fraser, Quentin ; R. Wood, Kenneth ; Hopper, Andy: Virtual Network Computing. – http://www.cl.cam.ac.uk/ Research/DTG/attarchive/pub/docs/att/tr.98.1.pdf [sup] SUPER. – http://www.erightsoft.net/SUPER.html [Tec] TechSmith: default.asp [tig] RealVNC. – http://realvnc.com/ TSCC Codec. – http://de.techsmith.com/codecs/tscc/ 31 Literaturverzeichnis [Tow] Towes, Kevin: Encoding Best Practices for Prerecorded Flash Video. – http: //www.adobe.com/devnet/flash/articles/flv_encoding.html [vid] VideoLAN Client (VLC). – http://www.videolan.org/vlc/ [wik] Wikipedia. – http://www.wikipedia.org/ [wms] Windows Media Server. – http://www.microsoft.com/windows/ windowsmedia/de/9series/server.aspx [xvi] XviD. – http://www.xvid.org/ [you] Youtube. – http://www.youtube.com 32 Glossar AAC Advanced Audio Codec. Codec zur Komprimierung von Audio. AC-3 Auch Dolby Digital genannt. Codec zur Komprimierung von Audio. Wird unter anderem auf DVDs verwendet. ASF Advanced Streaming Format. Containerformat für Streaming von Microsoft. Aspect Ratio Seitenverhältnis eines (Video-)bildes. Üblich sind die Verhältnisse 4:3 und 16:9. AVC Advanced Video Coding. Videocodec auf der Basis von MPEG-4. AVI Audio Video Interleaved. Containerformat von Microsoft. Bitrate Maß für die Kompression von Audio- oder Videodaten; Wird z.B. in Bit pro Sekunde angegeben. CBR Constant bit rate. Konstante Bitrate. CD Compact Disc. Digitales Speichermedium. Codec Coder, Decoder. Verfahren zur Komprimierung und Dekomprimierung von Video- oder Audiodaten. DivX Videocodec basierend auf MPEG-4. DV Digital Video. Digitale Videorohdaten aus Videokameras. DVD Digital Versatile Disc. Digitales Speichermedium mit hoher Kapazität. EVA Eingabe, Verarbeitung, Ausgabe. Grundlegendes Prinzip der elektronischen Datenverarbeitung. Im Fall der Videoaufzeichnung ist die Eingabe die Erfassung des Videosignals. FLV Flash Video. Videocodec von Macromedia bzw. inzwischen Adobe. fps Frames Per Second. Bilder pro Sekunde; Maß für die Framerate. GIGO Garbage In, Garbage Out. Will man ein qualitativ hochwertiges Endprodukt haben, muss die Qualität des Rohmaterials schon gut sein. 33 Literaturverzeichnis MP3 MPEG-1 Layer 3. Codec zur Komprimierung von Audio. MPEG Moving Picture Experts Group. Reihe von Standards für die Audio- und Videokomprimierung. NTSC National Television Systems Committee. Standard für analoges Video; wird hauptsächlich in Nordamerika verwendet. PA Public Address. Öffentliche Beschallungsanlage. PAL Phase Alternating Line. Standard für analoges Video; Wird unter anderem in Europa verwendet. RTSP Real-Time Streaming Protocol. Protokoll, um Videos zu streamen. SUPER Simplified Universal Player Encoder and Renderer. Software zum transcodieren von Videos. Basiert unter anderem auf FFMPEG. SVCD Super Video CD. Auf MPEG-2 basierendes Format, um Filme auf einer CD zu speichern. SWF ShockWave Flash. Containerformat für Flash. TSCC TechSmith Screen Capture Codec. Videocodec für verlustfreie Komprimierung. Gut geeignet für eine Aufnahme des Bildschirms mit einem Screencapture-Tool. VBR Varibale bit rate. Variable Bitrate. VNC Virtual Network Computing. Mit Hilfe von VNC können Videoaufzeichnungen von Bidschirmen über das Netzwerk an einem entfernten Aufnahmerechner gemacht werden. WMV Windows Media Video. Videocodec von Microsoft. XviD Open Source Videocodec basierend auf MPEG-4. 34