Leseprobe: Farblichtmusik
Transcrição
Leseprobe: Farblichtmusik
1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 437 1.6.6 Ton-Bild-Kunst oder Visuelle Musik: VJing und Musikvideos Am Anfang dieses Themenabschnitts soll als Kontrapunkt ein Zitat von Udo Lindenberg stehen: „Singen kann ich nicht, dafür kann ich auch nicht malen.“ (aus Farbenhören. Das musikalische in der Kunst. ars momentum (2006) von J.-P. Braun). Eingangs des Themas Aufgaben- und Anwendungsbereiche für das PC-Tonstudio wurde ja bereits darauf hingewiesen, dass die Beziehung zwischen Bild und Ton wechselseitig ist. Dafür steht beispielsweise nicht nur die verkaufsfördernde Begleitung von Musikproduktionen durch Videoclips oder die Produktion von speziellen Musikvideos begleitend zur Vermarktung von neuen CD-Produktionen. Relativ neu ist in im Zusammenhang mit dem Thema Musik und Bild das Stichwort VJing, ein Kunstwort aus der Clubszene, zusammengesetzt aus den Worten Visual und Jockeying, analog zum Begriff DJing von DiscJockeying. Letztendlich entstand das Kunstwort aus der Mischung von Videokunst, Musikvideo, Design und der Arbeit eines DJs etwa Ende der 1980er Jahre. Im Verlauf der letzten 20 Jahre hat sich VJing zu einer etablierten Kunstform der visuellen Musik entwickelt. Inzwischen gibt es sogar spezielle Programme für den PC, die den Videokünstler bei seiner Performance unterstützen sollen. Im Zusammenhang mit dem Thema soll hier auch kurz noch auf die Produktion von Musikvideos eingegangen werden, obwohl das Thema Film und Ton erst in Band 3 unter der Überschrift Filmton und Surround-Produktion etwas ausführlicher behandelt wird. Vor den Themen VJing und Musikvideo soll allerdings noch auf ein eher historisches aber im Zusammenhang mit der Videokunst durchaus interessantes Thema eingegangen werden, für das die Stichworte Farblichtmusik und Farbklavier stehen. DJing In der Zeit zwischen 1979 bis 1980 entwickelte sich in den USA eine neue Spielart der Dance Music, der Hip Hop, der sich zwar bei Funk- Soul- und Rhythm-and Blues-Musik bediente, aber eine neue Musikform schuf. Ein wichtiger Bestandteil dieses Musikstils ist der rhythmische Vortrag eines Textes. Die Macher des Hip Hop entwickelten und perfektionierten zugleich das DJing, bei dem ein neuer Track, später auch als Compilation bezeichnet, durch kreatives Zusammenmischen von Ausschnitten aus von schon vorhandenen Tracks entsteht. Dazu werden zwei Plattenspieler und ein Mischpult eingesetzt, wobei zur Anpassung von zwei völlig verschiedenen Tracks die Abspielgeschwindigkeit verändert wird. Ein weiteres Stilelement beim DJing ist das Scratching, das Vor- und Zurückdrehen der Schallplatte, um besondere Klang- und Rhythmuseffekte zu erzeugen (mehr zum Thema findet der Leser in Anhang 1 in Band 5). Bereits am Dekor gerade alter Musikinstrumente kann man erkennen, dass Musiker und Maler wussten, wie stark der Musiker die optische und akustische Aufmerksamkeit des Zuhörers benötigt, um seine Konzentration auf die Darbietung zu stimulieren. Auch aus der bildlichen Darstellung von Tanzszenen lässt sich entnehmen, dass der Sinn von choreografischen Arrangements und Kostümierung der Tänzer darin bestand, akustische Darbietungen zu illustrieren. Selbst schon in der Frühgeschichte aller Völker bildeten Farben und Töne einen Teil ihrer Symbolphilosophien und Schöpfungsmythen. Mit den ihnen damals bekannten Elementen Wasser, Feuer, Erde und Licht sowie den Planeten und Jahreszeiten entwickelten sie welterklärende Analogien, die häufig in engem Bezug zur Astrologie standen, man denke nur an die zu diesem Zweck noch heute benutzten Sternbilder. Die auf reinen Verhältnissen beruhende Zahlensymbolik der im 6. Jahrhundert v. Chr. lebenden Pythagoräer beherrschte bis ins 17. Jahrhundert hinein die Vorstellung und das Verständnis über die Welt. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 438 Auf der Basis seiner Zahlensymbolik entwickelte Pythagoras auch die Grundlagen der musikalischen Harmonielehre. Dabei setzte er sich intensiv mit der Sphärenmusik auseinander, die aus rein mathematischen Tönen bestand und nach dem Verständnis der Pythagoräer die kosmische Ordnung widerspiegelte. Solche Töne hatten zudem ein sichtbares Äquivalent auf der Skala des damals bekannten Farbspektrums. Die Basis dieses Analogiesystems wurde durch die Siebenzahl der damals bekannten Planeten gebildet. Diese Siebenzahl wurde 200 Jahre nach Pythagoras von Aristoteles, entsprechend den sieben Tönen der Oktave, auf die Farben übertragen, wobei er ihnen mithilfe einfacher Zahlenverhältnisse Tonintervalle zuordnete (mehr zu der auf den Zahlenverhältnissen beruhenden Harmonielehre findet der Leser in Band 4). Damit schuf Aristoteles die Basis der antiken Farbe-Ton-Beziehung. Diese Farbenlehre behielt sogar noch ihre Gültigkeit, als im Mittelalter neue Farbenlehren auftauchten, die sich in den meisten Fällen an der bekannten Zahlensymbolik orientierten. So verglich Thomas von Aquin Mitte des 13. Jahrhunderts Farben und Töne zwar nicht direkt, aber er betonte, dass sie jeweils Harmonien bilden und somit zur „delectatio“, also zur Labung der Seele betragen. Auch die durch Quellen belegten Farbe-Ton-Theorien des 17. Jahrhunderts sind noch von der griechischen Antike beeinflusst. Anfang des 18. Jahrhunderts erzielte aus dem Blickwinkel des Physikers der Engländer Newton mit seinen Versuchen und der Publikation seiner gesammelten Erkenntnisse in der Schrift „Opticks“ einen Durchbruch bei der Farbe-Ton-Theorie. Durch seine optischen Versuche mit Prismen bewies Newton die Zusammensetzung von weißem Licht aus den damals nachweisbaren sieben Spektralfarben und die rechnerische Übereinstimmung mit den sieben Intervallen einer Tonleiter. Damit konnte nun eine Farbe-Ton-Beziehung physikalisch und somit naturwissenschaftlich begründet werden. 1675 transferierte Newton die Solmisationssilben sol-la-fa-sol-la-mi-fa-sol auf das Farbspektrum, und konnte auf diese Weise die Tonintervalle und die Farbbreiten einander zuordnen. In dem 1704 veröffentlichten Buch Opticks (siehe Bild 1.280) ordnete Newton die Farben kreisförmig an und die Tonintervalle einer dorischen Skala zu. Er benannte die Töne allerdings noch nicht im modernen Dur und Moll, sondern in Hexachorden. Zudem setzte er die sieben Farben in ein Verhältnis zu den sieben damals bekannten Planeten. Neben dem physikalischen Ansatz von Newton gab es in der zweiten Hälfte des 17. Jahrhunderts zwei weitere Haupttheorien: die universelle Harmonie des ab 1633 in Italien wirkenden Athanasius Kircher und die Ansätze der französischen Kunsttheorie. Beispielsweise ordnete Kircher in einer 1650 veröffentlichten Tabelle Tonintervalle und Farben einander zu. Die Oktave in der aristotelischen Mittelposition wurde mit Grün gleichgesetzt. In Richtung auf das Weiß erschienen die Konsonanzen, in Richtung auf das Schwarz die Dissonanzen, während Cureau de la Chambre 1650 weitgehend das Farbsystem des Aristoteles übernahm und Quarten, Quinten und Oktaven auf Farbenpaare übertrug. Aber bereits im Verlaufe des 18. Jahrhunderts tauchten die ersten Zweifel auf. Castels entwickelte die Farbe-Tonintervall-Beziehung Newtons zu einer Farbe-Ton-Beziehung weiter, denn für ihn war nicht die Siebenzahl von Farben und Tönen die Basis seines Vergleiches, sondern die Dreizahl durch die Farbentrias Rot-Gelb-Blau. So ordnete er auf der Basis seiner theoretischen Überlegungen erstmals in der Geschichte der Farbe-Ton-Beziehung einzelnen Farben einzelne Töne zu. 1740 veröffentlichte Castels, der auch das „Clavecin oculaire“ gebaut hatte (siehe weiter unten) sein Werk „Optique des couleurs“ als Gegenpol zu Newtons Opticks. (In einer deutschen Übersetzung erschien das Werk 1747 unter der Überschrift „FarbenOptick“.) 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 439 Newton bestimmte in seinem Werk Blau als Grundfarbe, da es dem Schwarz am nahesten sei, und erhielt die Farbentrias Blau-Rot-Gelb in aufsteigender Helligkeit. Durch Zwischentöne und Zwischenfarben konnte er einer mit dem Ton c beginnenden chromatischen Tonleiter die folgenden Farbenkreis zuteilen: c – Blau, cis – Celadon, d – Grün, dis – Olive, e – Gelb, f – Goldgelb, fis – Incarnat, g – Rot, gis – Cramoisin, a – Violett, ais – Agathe und h - Blau-violett. Bild 1.279: Hier kann man in der Originalausgabe lesen. Etwa Mitte des 18. Jahrhunderts stellt Jean-Jacques d' Ortous eine Liste mit Gegenargumenten zur Farb-Ton-Theorie von Castels auf: • Eine Farbenharmonie sei von der Gewohnheit und der Mode abhängig, die Definition von Konsonanzen in der Musik aber zu allen Zeiten konstant. • Die Wirkung einer Farbdissonanz, wie z. B. Rot und Orange, hinterlasse einen weniger unangenehmen Eindruck als die Dissonanz in der Musik, wie z. B. ein Halbton. • Die Farben mischen sich zu einer nicht analysierbaren Einheit, z. B. Gelb und Blau zu Grün, zwei Töne bilden jedoch nicht den zwischen ihnen liegenden Ton, z. B. c und d nicht dis. • Die Empfindung jeder Farbe sei absolut, im Unterschied dazu beziehen sich Töne immer auf einen Grundton. • Der Übertragung der Oktaven auf die Farben sei falsch, denn die Oktave wird durch eine Verdopplung der Schwingung definiert und die doppelte Schwingung der Farbe Rot hätte noch niemand gesehen. • Der raumzeitliche Gegensatz von Musik und Malerei kann nicht wegdiskutiert werden. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 440 Im Verlauf der nächsten Jahrzehnte kamen weitere Zweifel hinzu. So wurden 50 Jahre später eine Anzahl neuer Gründe genannt, die die Existenz einer Farbenmusik widerlegen sollten: • Beispielsweise würde Schall nie einen neutralen Zustand einnehmen, sondern immer als Ton erscheinen, während Licht zunächst weiß, also neutral sei und erst durch das Prisma in seine Farben zerlegt wird. • Wenn die Zerlegung des Lichtes in seine einzelnen Farben einer Zerlegung des Tones in eine Obertonreihe entspricht, so ist die natürliche Abfolge der Farben kontinuierlich und die der Töne in Abständen. • Farben bilden keine Oktaven, denn die Blässe der Farben entspricht der Schwäche des Tones und damit einem leiseren Ton. Somit sei eine Wiederholung der Farben in gewissermaßen verdünnten Oktaven nur ein in piano wiederholter Satz in der Musik. • Die Kreisstruktur und das Zurücklaufen der Farben sind in der Musik nicht vorhanden, bei der kein tiefer Ton je der tiefste und kein hoher Ton je der höchste sei. Als weiteres Gegengewicht zu Newtons physikalischer Sichtweise der Farben veröffentlicht Johann Wolfgang von Goethe 1810 seine Farbenlehre, in der er versucht, eine Physiologie und Psychologie des Sehens zu begründen. Ebenso wie in seiner Farbenlehre steht Goethe in seiner Tonlehre, in der er eine Psycho-Physiologie des Hörens entwickelt, in Opposition zur dominierenden rein physikalisch begründeten Theorie. Für ihn sind in der Frage der Tongeschlechter nicht die Zahlenverhältnisse untereinander maßgebend, sondern ihre unterschiedlichen Wirkungen auf das menschliche Ohr und Gemüt. Allerdings hebt er die Ähnlichkeit der Schematisierung in der Tonlehre mit dem Schema der Farbenlehre hervor: “Hier steht das Subjektiv-Organische wieder voraus, das Objektiv-Physische, Mathematische ihm entgegen.” In Goethes Augen ist Newtons Optik eine Farbenlehre für Blinde, weil Farben ihr zufolge eine vom Auge unabhängige, objektiv dem Licht zugehörende Realität sind, und analog dazu die rein physikalische Akustik für ihn eine Tonlehre für Taube. Literatur: [1.372] Trotz der beginnenden Zweifel an der tatsächlichen Existenz einer Farbe-Ton-Analogie wurden weitere Theorien entwickelt, die sich entweder an physikalisch-naturwissenschaftlichen Grundsätzen orientierten oder die Untersuchungen, wie in der Romantik, auf den Bereich der Empfindsamkeit und physiologische und psychologische Prozesse verlagerten. Hinzu kam, dass ab dem beginnenden 19. Jahrhundert die Messtechnik stetig verbessert werden konnte, was zu neuen Erkenntnissen führte. Kant fasste das wie folgt zusammen: „Nicht sehen trennt den Menschen von den Dingen. Nicht hören trennt den Mensch vom Menschen“. 1801 wurde die Wellenlänge des Lichts von Thomas Young berechnet. Er verglich den Umfang mit einer Sexte in der Musik und verdoppelte die Frequenzen der Töne so oft, bis er den Wellenlängenbereich des Lichtes erreichte. Damit konnte er eine Analogie von C und der Farbe Gelbgrün aufzeigen. Ab 1839 wurden dann in Deutschland Schwingungsberechnungen zum Nachweis der Farbe-Ton-Beziehung durchgeführt. Im Verlauf der folgenden Jahrzehnte zeigte sich, dass mit der Verbesserung von optischen Geräten der Umfang des sichtbaren Spektrums immer größer wurde. Während Newtons Spektrum noch den Umfang einer Quinte hatte, konnte 1855 Helmholtz, der weitere Unterschiede zwischen Farben und Tönen feststellte, messtechnisch ein Spektrum untersuchen, das dem Umfang einer Duodezime (Quarte über einer Oktave) entsprach. Zudem können die Grenzen des sichtbaren Lichtes ohnehin nicht eindeutig festgelegt werden. 1860 listete Fechner neun Übereinstimmungen, aber auch 24 Unterschiede von Farben und Tönen auf. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio Bild 1.280: Was Goethe zum Verhältnis zwischen Farben und Tönen schreibt. Bild 1.281: Historisches Farbklavier. 441 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 442 Es war wohl der Komponist Alexander Nikolaevitsch Skrjabin (1872–1915), der in seiner Partitur Prométhee op. 60 als erster den Versuch unternimmt, Musik und Farblicht in einer Art von Gesamtkunstwerk zu verbinden. Diese symphonische Komposition, „Poème du feu“, komponierte er in den Jahren zwischen 1908–1910. In der Partitur gibt es neben den üblichen Orchesterstimmen auch eine „Luce“ genannte Stimme, die Spielanweisungen für ein Farbenklavier vorgibt, das auf eine Leinwand farbiges Licht projizieren soll. Sie sind in Form von Noten zweistimmig notiert. Die Angaben dazu, welche Note welcher Farbe entspricht, stammen von Skrjabins engem Vertrauten und späteren ersten Biografen Leonid Sabaneev, siehe [1.373]. Farbklavier Trotz aller Zweifel hat selbst heute noch die auf Zahlensymbolik beruhende Weltanschauung ihre Anhänger (siehe unter dem Stichwort Pythagoräer in Band 4). So ist es nicht verwunderlich, dass im Verlauf der letzten Jahrhunderte immer wieder versucht wurde, die gemeinsamen Beziehungen von Farbe und Ton musikalisch umzusetzen. In [1.374] kann man die Vermutung nachlesen, dass das Universalgenie Leonardo da Vinci um 1500 einer der Ersten gewesen sein soll, der farbige Lichter projizierte. In den folgenden Jahren, Jahrzehnten und Jahrhunderten wurde immer wieder versucht, spezielle Instrumente anzufertigen, die in der Lage waren, gleichzeitig zu den Tönen farbiges Licht zu produzieren. In manchen Literaturquellen wird als erster Erbauer eines Farbklaviers Giuseppe Arcimboldi (1527–1593) genannt, der wohl hauptberuflich alchemistische Studien am Prager Hof des habsburgischen Kaisers Rudolf II. betrieb. Allerdings ist die Existenz seines Instruments nicht eindeutig nachweisbar. Hingegen nennen andere als erste praktische Umsetzung von Farbe-TonBeziehungen die Arbeit Louis Bertrand Castels in der ersten Hälfte des 18. Jahrhunderts. Dieser Instrumentenbauer entwickelte die Idee zu einem „Clavecin oculaire“. Die Existenz dieses Instruments ist durch einen Brief von Georg Philipp Telemann überliefert: Beschreibung der Augenorgel, oder des Augen-clavicimbels, so der berühmte Mathematicus und Jesuit zu Paris, Herr Pater Castel, erfunden und ins Werck gerichtet hat; aus dem Französischen Briefe übersetzet von Telemann, Hamburg 1739. Bei dem Instrument von Castel soll es sich um ein Farbklavier handeln, bei dem gleichzeitig zur Musik ein Farbenspiel dargeboten werden konnte, denn jeder Tastendruck öffnete den Schacht zu einem farbigen Licht. Aber auch bei diesem Instrument ist nicht eindeutig gesichert, ob es jemals gebaut und gespielt wurde. Aus der Geschichte sind weitere Beispiele bekannt, wo versucht wurde, optische Musikinstrumente zu bauen, die manchmal auch als Farborgeln bezeichnet werden [1.374 und 1.375]: Beispielsweise das „Ocular Harpsichord“ eines dem Namen nach unbekannten Instrumentenbauers, das „Musique oculaire“ von Edme-Gilles Guyot, der „Farbenleyer“ von Johann Samuel Halle und die „Farborgel“ von Karl von Eckartshausen. Im Zuge dieser Entwicklung im Bereich des Instrumentenbaus wurde gegen Ende des 18. Jahrhunderts zunehmend die Idee einer emotionalen Wirkung der Farben diskutiert. So kann man beispielsweise in der Beschreibungen seines Instruments durch J. S. Halle ähnliche Ideen wie in Moses Mendelssohns Schriften „Über die Empfindungen“ (1755) finden. Der Mystiker Eckartshausen sieht sein Farbenklavier eher in einem musiktherapeutischen Kontext. Über Goethes die Psycho-Physiologie betreffenden Gedanken über Farben und Tonarten wurde ja schon weiter oben berichtet. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 443 In [1.376] findet man dazu die folgende Aufzählung historisch gut belegter Instrumente: • Um 1790 füllt K. v. Eckartshausen Gläser mit farbigen Flüssigkeiten, die beim Betätigen der zugehörigen Klavichord-Taste von hinten beleuchtet werden. • Um 1840 benutzt D. Jameson einen ähnlichen Mechanismus wie v. Eckartshausen. • Um 1870 erzeugte ein von F. Kastner entwickeltes Instrument durch Gasentzündung in kleinen Röhrchen gleichzeitig Farben und Töne. • Um 1880 benutzt B. Bishop konzentriertes Tageslicht, um in Abhängigkeit von der gedrückten Orgeltaste gefärbte Glasscheiben zu beleuchten. • Um 1890 entwickelte Al. W. Rimington eine Color Organ mit elektrisch erzeugten Farbprojektionen. Rimingtons Versuche reichten von der Zuordnung von je einer Farbe zu einer Taste bis hin zu schließlich von der Musik unabhängigen Lichtspielen, bei denen die Klaviatur keine Töne mehr produzierte, sondern ausschließlich der Steuerung der Lichtquellen diente. • Um 1900 löste Alexander B. Hector durch zwölf geschickt auf der Bühne aufgestellte Tonlichter und einem Wechsel von schwachem und konzentriertem Licht das Analogieverhältnis zwischen musikalischen Tönen und Farbwertigkeit. Darüber hinaus sollen zum Stichwort Farbmusik noch die folgenden Instrumente aus dem 19. und 20. Jahrhundert genannt werden: Pyrophone um (1870) und Device for Painting Music (1877), siehe [1.377], Musical Chromoscope um 1900, ein „Apparatus for Producing Color Music“ (1912), Sarabet, Clavilux und Optophonic Piano (um 1920), Sonochromatoscope (um 1925), Optophon (um 1925), Licht-Raum-Modulator (um 1930), MobilColor Projector (um 1940), Lumigraph (um 1950) und Synchromous Kscope (um 1960). Besonders das Optophonic Piano war der Vorläufer von opto-elektronischen Instrumenten, die ebenfalls rotierende Glasscheiben und Fotozellen zur Klangformung einsetzten. Hier nur noch ein paar Namen: Celuphone, Photona, die „Radio-Organ Of A Trillion Tones“, Welte Licht-Ton-Orgel, Vako Orchestron und das Mattel Optigan, das in den 1970er Jahren sogar als Heimorgel vermarktet wurde. Aber auch nach der Jahrtausendwende wurde noch mindestens ein Farblichtflügel durch N. Sidler gebaut (2001). Nach dieser Aufzählung kann man besonders im ersten Drittel des 20. Jahrhunderts eine starke Zunahme bei der Entwicklung und dem Bau von Farbenklavieren beobachten, die sich durch verschiedene Aspekte begründen lässt. Beispielsweise hatte man jetzt auf der technischen Seite neue Alternativen, die durch den Einsatz elektrischer Verfahren möglich wurden, sowohl für die Koppelung der Klaviatur mit den verschiedenen Farblampen als auch für den Einsatz der Lampen selbst. Aber auch auf der theoretischen Seite gab es seit dem letzten Drittel des 19. Jahrhunderts eine interessante Entwicklung, denn im Fachgebiet der Sinnesphysiologie kam es zu einer verstärkten Beschäftigung mit der Synästhesie (das ist eine sprachlich ausgedrückte Verschmelzung mehrerer Sinneseindrücke wie zum Beispiel ein „schreiendes Rot“), die die Entwicklung von Farbenklavieren beeinflusste. So wurde die Idee weiterentwickelt, dass die Synästhesie ein weiterer Beleg für die dem Menschen innewohnende Eigenschaft ist, Farben und Töne als Einheit zu betrachteten. Aber an der Schwelle zum 20. Jahrhundert lebte auch die pythagoreische Idee einer Weltenharmonie wieder auf. Auf der Basis von Zahlenproportionen als kosmischen Normen sollten die verborgenen Geheimnisse der Natur erforscht werden. Mit den Ideen und Vorstellungen von Rimington und anderen über eine neue Kunstform begann eine Entwicklung, die von den musikabhängigen Farbenklavieren des 18. und 19. Jahrhunderts zur autonomen Lichtkinetik im 20. Jahrhundert bis hin zur VJing des 21. Jahrhunderts führte. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 444 Synästhesie Synästhesie stammt aus dem Altgriechischen und bedeutet soviel wie eine gemeinsame Empfindung. In der menschlichen Sinnesforschung versteht man darunter die Miterregung eines Sinnesorgans bei der Reizung eines anderen. Eine solche Verknüpfung muss sich aber keinesfalls auf zwei Sinne beschränken, es können auch mehrere Sinne beteiligt sein. Die häufigste Form der Synästhesie ist die Auslösung von visuellen Farbreizen durch eine akustische Anregung. Obwohl die visuelle und die auditive Wahrnehmung physikalisch betrachtet getrennte Phänomene sind, entsteht im Gehirn des Rezipienten eine Synthese von Bild und Ton. Die häufigste Form der zwangsmäßigen Mitempfindung ist nach Lehrmeinung das Farbenhören, dem Farbempfinden beim Hören von Tönen und Geräuschen, das im Gegensatz zum Tönesehen, dem auditiven Empfinden beim Sehen von Farben, steht. Das Farbehören tritt bei Synästhetikern unwillkürlich auf, wobei jede Person ein individuelles Schema der Zuordnung aufweist, das während ihres gesamten Lebens konstant und vom Kontext der Wahrnehmung, d. h. von der Situation unabhängig ist. Während man im Englischen vom „colour hearing“ spricht, hat sich im Deutschen daneben auch der Begriff analytische Synopsie etabliert; wobei die beobachteten Sichterscheinungen als Photismen bezeichnet werden. Die absolute Koppelung von Farbwahrnehmungen an bestimmte Töne oder Geräuschattribute bei einem Farbenhörer kann man mit der Fähigkeit des absoluten musikalischen Gehörs vergleichen, also der Fähigkeit, den wahrgenommenen Tonfrequenzen eine absolute Tonhöhe zuordnen zu können. Bild 1.282: Chromatische Skala nach Rimington. Optophonic Piano Dieses vom futuristischen Maler Vladimir Baranoff Rossiné entwickelte Instrument verwendetet zum ersten mal eine optisch-elektrische Tonerzeugung. Das Instrument wurde wohl hauptsächlich zur Erzeugung von optischen Effekten gebaut, aber es ist insofern interessant, weil das optisch-akustische Effektgerät technische Verfahren verwendet, die in den folgenden Jahrzehnten bis zur Perfektion verfeinert in vielen weiteren opto-elektronischen Musikinstrumenten angewendet wurden. Das Gerät hatte eine 3-Oktaven-Klaviertastatur, über die aber nicht die Töne, sondern Farben und Bilder kontrolliert wurden. Aus der Bild-FarbenKombination wurden dann in einem zweiten Schritt automatisch die Töne erzeugt. In dem Gerät befanden sich eine starke Lichtquelle, verschiedene Spiegel, FarbUlter und rotierende Glasscheiben, die vom Entwickler des Instruments bemalt worden waren. Die Tastatur des Pianos steuerte und kombinierte die ganzen Elemente. Die so erzeugten Bilder konnten mit einem Objektiv auf eine Leinwand projiziert werden. Gleichzeitig wurde die schwankende Bildhelligkeit innerhalb des Gerätes von einer Fotozelle aufgenommen, die die Frequenz eines 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 445 Oszillators steuerte und dadurch einen sich ständig verändernden Dauerton erzeugte. Zusammen entstand eine multimediale Performance, die im Prinzip immer einzigartig, also nicht wiederholbar war. Die genaue Konstruktion des Tongenerators ist nach den bisher vorliegenden Quellen nicht überliefert. Gesichert ist einzig, dass die Tonhöhe über Helligkeitsinformationen aus den erzeugten Bildern abgeleitet wurde, sodass der Klang des Instrumentes wahrscheinlich von Sinustönen mit gleitender Tonhöhe bis hin zu weniger wahrscheinlichen, scharfen und rauen Tönen auf der Basis von Frequenzmodulation oder Ringmodulation gereicht haben könnte. Bild 1.283: Mehr Informationen zur Optophonic. Überliefert sind die Farblichtkonzerte von Alexander László in Deutschland, der zum ersten mal im März 1925 seine Theorie zur Farblichtmusik in einem kleinen Buch mit dem Titel die „Farblichtmusik“ veröffentlichte. Dieser ausgebildete Konzertpianist hatte das Ziel, Malerei und Musik als Künste eng miteinander zu verbinden. Dabei ging er von seinen persönlichen synästhetischen Empfindungen aus, anstatt wie oftmals in der Geschichte der Farbton-Musik, die Beziehung zwischen Farbe und Musik physikalisch zu berechnen. Während die Zahlengläubigen seit Jahrhunderten versuchten, den Tönen bestimmte Farben zuzuordnen, setzte László Klänge und Farben zueinander in Beziehung, er war also mehr Goethe als Pythagoras. Das von ihm für Konzerte entwickelte Sonchromatoskop schuf parallel zu der am Piano gespielten Musik mittels einer Vierfachprojektion dreiteilige Bilder, über die zusätzlich als vierte Ebene komplexe Farben und Formen projiziert wurden. Dazu wurden Diapositive, bewegliche abstrakte Formen und farbiges Licht eingesetzt. Diese Projektionen waren nicht frei improvisiert, sondern sie folgten Spielanweisungen, die vorher passend zur Musik festgelegt wurden. Das Sonchromatoskop bestand aus einem Schalttisch mit den Bedienelementen, im Aufbau ähnlich einem Harmonium, und aus vier großen und vier kleinen Projektoren, die miteinander gekoppelt waren. Das Sonchromatoskop wurde am Saalende gegenüber der Bühne aufgestellt, sodass die Bilder auf eine Leinwand projiziert werden konnten, die an der Rückwand der Bühne 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 446 angebracht war. Der Schalttisch wurde eingerahmt von zwei Projektoren, Hauptwerk I und II, die nach den Angaben des Erfinders das Wesentliche, das Elementare, das Geschehnis, das Bild projizierten. Neben jedem Hauptwerk-Projektor stand jeweils ein sogenannter NebenwerkProjektor, die zusammen die nebensächlichen Motive wiedergaben. Diese vier großen Projektoren waren weiterhin mit vier kleineren Rampenwerken verbunden, die als Träger der eigentlichen Bildmotive nach dem Lichtbildvorführungsverfahren ruckweise verschoben, einund ausgeschaltet wurden. Leider gibt es keine Aufnahmen der wenigen Aufführungen, denn die Farblichtmusik-Karriere von Alexander László war bereits nach zwei Jahren zu Ende, weil der Künstler nach zeitgenössischen Berichten an seinem eigenen hohen Anspruch scheiterte, denn eine Synthese zweier gleichberechtigter Künste zu einem neuen Gesamtkunstwerk habe nach Meinung der Kritiker nicht stattgefunden. Bild 1.284: Farbmusikalische Aufführung von Alexander László, ein Aquarell von Matthias Holl aus dem Buch von Alexander László: Die Farblichtmusik, Leipzig 1925. Zu Beginn der 1930er Jahre ebbte so nach und nach das Interesse an Farbinstrumenten ab. Dafür begann der Siegeszug des vertonten Experimentalfilms, denn ein häufiger Kritikpunkt an der Farblichtmusik war das Fehlen einer tiefer gehenden Beziehung zwischen den projizierten Formen und der Begleitmusik. Kritiker stellten die Zusammenhanglosigkeit zwischen Musik und Farbe bei der Aufführung infrage. Um der Beliebigkeit der Umsetzung von Musik in Farbe zu entgehen, entwickelte Raoul Hausmann das sogenannte Optophon, ein Gerät, mit dem Licht in Klänge umgesetzt wurde. Allerdings waren der Farblichtmusik bei diesem Gerät enge Grenzen gesetzt, denn es kam bei den Effekten, wie z. B. die Änderungen der Farbe und der Leuchtkraft zu häufigen Wiederholungen und es bildeten sich dadurch vorhersehbare Muster, die das Publikum schnell langweilten. Insofern sahen viele Künstler im Medium Film einen Ausweg, denn bereits seit Anfang des 20. Jahrhunderts arbeiteten Künstler wie z. B. Leopold Survage auch mit kinematografischen Verfahren, um musikalische Phänomene zu visualisieren. Survage versuchte, Farbrhythmen als reale Bewegung zu komponieren. Er entwarf bereits 1913 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 447 über siebzig Studien zu einem Filmprojekt (Rhythme coloré), die allerdings alle mit den damals zur Verfügung stehenden Techniken noch nicht realisiert werden konnten. In Deutschland waren es Richter und Eggeling, die den Film als Erweiterung des künstlerischen Spektrums betrachteten und in den frühen 1920er Jahren dieses Medium benutzten, um ihre Ideen von Abstraktion in Musik und Farbe umzusetzen. Zusammen mit Ruttmann kann man die beiden Künstler zu den Wegbereitern des abstrakten Films zählen. Am 3. Mai 1925 wurde in Berlin die Matinée „Der Absolute Film“ veranstaltet, bei denen die Werke von Eggeling „Symphonie Diagonale“, Richter „Film ist Rhythmus“, Ruttmann „Opus II-IV“, Murphy und Leger „Images mobiles“ Picabia und Clair „Entr’ Acte“ sowie HirschfeldMack „Dreiteilige Farbensonatine“ gezeigt wurden, Werke, die damals beispielhaft für die unterschiedlichsten Strömungen in der zeitgenössischen Filmavantgarde waren. Interessant dabei ist, dass, obwohl die abstrakten Filme in ihrem Bildrhythmus an sich durchaus schon eine musikalische Wirkung erzielen konnten, die Filmemacher nicht auf Musik verzichten wollten. Sie wussten, dass Musik ein wichtiges emotionalisierendes Mittel ist, um die visuellen Abläufe zu unterstützen bzw. zu verstärken. Wie bei Vorführungen von StummUlmen üblich, wurden die Filme durch Darbietungen von lebendigen Musikern untermalt, denn der Tonfilm war noch nicht einsatzbereit. Waren die ersten Filmversuche von Ruttmann, Richter oder Eggeling in den 1920er Jahren vor allem für ein spezielles Publikum bestimmt, so feierten die Animationsfilme von Fischinger in den 1930er Jahren große Erfolge, denn seine beim Publikum außerordentlich beliebten Werbefilme wurden sogar als Vorprogramme in den Kinos gezeigt. Berlin. Die Sinfonie der Großstadt 1926 entstand ein auch heute noch immer einmal wieder vorgeführter Film „Berlin. Die Sinfonie der Großstadt“, in dem ein Tag in Berlin vom frühen Morgen bis Mitternacht gezeigt wird (Ruttmann). Schon bei der Uraufführung 1927 war der Film ein großer Publikumserfolg. Er ist ein Beweis dafür, dass auch mit Realaufnahmen abstrakte, also nicht erzählende Filme produziert werden können. Mittels einer gekonnten Montagetechnik ist es durchaus möglich, durch Überblendungen von dokumentarischen Aufnahmen eine neue Realität zu erschaffen. Die Abstraktion wurde durch die Manipulation der Wirklichkeit erzeugt. In erster Linie ist hier die Beziehung von Tönen und Bildern zur Wirklichkeit abstrakt. Dieser Film ist also weniger ein DokumentarUlm über das damals pulsierende Leben in einer Großstadt, sondern eher eine Bewegungsstudie mit Realaufnahmen. Ruttmann interessierte sich bei seinen Filmaufnahmen nur für die Bildästhetik. Für ihn hatten die Bilder keine erklärende Funktion. Er benutzte sie wie Töne, um die Geschwindigkeit und Vielfältigkeit des Großstadtlebens zu zeigen. In den 1930er waren es zum großen Teil die an der amerikanischen Westküste beheimateten experimentellen Filmemacher, die mit ihrer filmischen Darstellung von visueller Musik die nachfolgenden Künstlergenerationen stark beeinflussten. Zu dieser Entwicklung hat nicht unwesentlich die Austrocknung der Kunstavantgarde in Deutschland durch die spezielle Kulturpolitik der Nationalsozialisten beigetragen, Stichwort „Entartete Kunst“. Nachdem der Zweiten Weltkrieg zu Ende war, stieg auch das Interesse an der Farblichtmusik wieder an. So wurde 1960 in Moskau ein Labor für Farblichtmusik gegründet und eine programmierbare Maschine entwickelt, die wie z. B. der 1963 gebaute Synthesator ANS (steht für den russischen Vater der Farbenmusik Anton Nikolajewitsch Skrjabin), automatisch Musik in farbiges Licht umsetzte. Dabei wurden die y-Achse zur Abbildung der Tonhöhe und die x-Achse zur Abbildung der Zeit benutzt. Diese eher mechanistische Form von Farbenmusik eroberte später 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 448 den Eingang in die Tanzsäle, die durch den Einsatz von sogenannten Lichtorgeln zu Diskotheken wurden. Beispielsweise arbeitet der 1983 vorgestellte Projektor Disco wie eine vierkanalige Lichtorgel, aber er liefert mithilfe zweier gegenläufigen Effektscheiben fließende Farbschlieren an die Decke und Wände des Raums. Im Verlauf und parallel zur Entwicklung von elektronischen Technologien verlagerte sich in den letzten Jahrzehnten des 20. Jahrhunderts die Auseinandersetzung mit audiovisuellen Darstellungsformen vom Film zum Video. Mit dem Einzug der Elektronik verschob sich zudem der Schwerpunkt auf ein Zusammenspiel von Kunst und Musik, zu einer Fusion der Medien auf der Grundlage von Intertextualität, Intermedialität und Interaktion, denn zuvor hatte sich die Visualisierung von Musik auf das Zusammenwirken der Elemente Klang und Bild als Analogie oder als synchroner Ablauf beider Medien konzentriert. Im Zuge dieser Entwicklung ist sogar im Umfeld der Clubkultur eine neue Form der Musikvisualisierung entstanden: das sogenannte VJing mit den VideoJockeys (VJ) als Hauptakteuren. Wie man inzwischen feststellen konnte, beeinflussen die VJs mit ihrer Kreativität auch die Bildästhetik in künstlerischen Bereichen. VJing Das audiovisuelle VJing verbindet in der Regel elektronisch erzeugte Musik und bewegte Bilder. Ähnlich wie der DiscJokey mixt der VideoJokey mittels moderner Technik live und in Echtzeit, in einer spontanen und rhythmisch interpretierenden Reaktion auf die laufende Musik, Bewegtbilder, die sogenannten Visuals, und projiziert sie auf Monitore und/oder Leinwände. Die rhythmische Struktur der bewegten Bilder ist durch den Musik-Mix des DJs vorgegeben. VJing ist Teil der aktuellen Club-Kultur und ist damit auch ein Teil des zeitgenössischen kulturellen Lebens, der über den Club hinaus Beziehungen zu anderen Bereichen wie Architektur, Kunst und Design im Allgemeinen aufweist. VJing ist allerdings nicht aus dem Nichts entstanden, sondern es steht ästhetisch und technisch in der Tradition der traditionellen audiovisuellen Kunstformen. Aus der Technobewegung der achtziger Jahre entwickelten sich – auch bedingt durch die technische Fortentwicklung – unzählige verschiedene Stile und Spielarten der elektronischen Tanzmusik, die zugleich den visuellen Ausdruck revolutionierten. Dieser Musikstil kommt mit wenigen textlichen Aussagen aus, sodass der VJ zumeist die Freiheit hat, seine Clips frei zu assoziieren, um seine Bildwelten aufzubauen, die dann parallel zur musikalischen Ebene existieren. Atmosphäre und Stimmung, sowie dem Transport von Messages, so nennt man in der Szene Botschaften, und Codes kommen mehr Bedeutung zu, als einer Verbildlichung inhaltlicher Aussagen, also dem Erzählen von Geschichten. Das VJing ist gewissermaßen ein visuelles Pendant der elektronischen Tanzmusik. Beide Kunstformen haben sich seit den 1980er Jahren nebeneinander entwickelt, aber sie finden jederzeit zueinander, weil sie aus ein und derselben Kulturszene entstammen. Wegen der Vielfalt der Stile kann man auch keinen wirklichen Zeitpunkt für den Start der VJSzene nennen, aber in diesem Kontext sind die Liveshows in den frühen neunziger Jahren von Emergency Broadcast Network (EBN) ein wichtiges Ereignis. Bei diesen Shows wurde ein spezielles Telepodium verwendet, auf dem die TV-Monitore sowie Laser- und Lichtquellen montiert waren. Im Zusammenspiel mit Video-Samplern improvisierte die Gruppe während ihrer Performance unter Einsatz der verschiedenster Videos und Sounds, um damit eine vielschichtige und politisch orientierte Sound/Bild-Mischung zu kreieren. Diese Veranstaltungen hatten nachhaltige Auswirkungen, denn die Gruppe inspirierte Videokünstler und -künstlerinnen das Video Mixing und die oft als Visuals bezeichneten Ergebnisse dieses Prozesses als eigene Kunstform zu sehen. Auch in Japan gab es einige Vorreiter des VJing. In 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 449 manchen Literaturquellen wird auch Peter Rubin als erster klassischer VJ genannt, der in der Zeit von 1979 bis 1988 im Amsterdamer Club Mazzo ein sogenanntes „ultra hi-tech multimedia environment“ entwickelte. Heutzutage gibt es nur wenige angesagte Clubs, die wirklich ohne elektronisch-visuelle Gestaltungsmittel auskommen. Während in den 1980er und 1990er Jahren die Projektionsfläche Club vor allem als Chance gesehen wurde, politische Statements möglichst direkt und unverblümt an ein großes Publikum zu senden, muss man feststellen, dass heutzutage eine Übermittlung von politischen Botschaften in Clubs eher vermieden wird. Das Ziel ist eher eine künstlerisch ästhetische Produktion. Club & Culture Clubs im Kontext der zeitgenössischen Popkultur haben bei der jungen Generation den Ballsaal ihrer Großeltern und die Tanzdielen der Eltern ersetzt. Heute treffen sich die jungen Leute in den Diskotheken, die sich oft mit der aus dem Englischen entliehenen Bezeichnung Club oder Klub schmücken. Einen solchen Club kann man als einen Mikrokosmos betrachten, der weltumspannend in ähnlicher Art und Weise funktioniert. Im heimatlichen Club kennt der Besucher gewöhnlich die Szene, man trifft sich, um vor allen Dingen gemeinsam zu tanzen. In einem fremden Club, in dem man die Menschen nicht kennt, fühlt man sich mit ihnen auch verbunden, nicht nur durch die dargebotene Musik, sondern auch durch internationale zur Szene gehörende Codes und unausgesprochene Grundsätze, die auf der gesamten Welt verstanden werden. Insofern spricht man auch von einer Club Culture. Dieser Begriff steht für eine funktionierende Kommunikation zwischen Kunst und Gesellschaft. Aus diesem Blickwinkel betrachtet ist der Club ein Ort, an dem gewissermaßen Kultur für die Kultur stattfindet. Die Club Culture überschreitet dabei die Grenzen von Stamm, Familie, Clan, Nation oder Ethnie, denn sie steht für die Notwendigkeit einer Kommunikation zwischen Menschen unterschiedlicher Herkunft und aus verschiedenen Kulturkreisen, obwohl die sich global entwickelnden Club-Kulturen jeder Kultur ihren eigenen Weg gehen lassen. Clubs in aller Welt haben als alternatives Forum der Jugendkultur für die Entwicklung radikaler Kunstformen wie Performance, Installation oder neuer Musik einen nicht zu unterschätzenden Beitrag geleistet. Es gibt Stimmen, die voraussagen, dass der Club längst zu einem multimedialen Gesamtkunstwerk geworden ist, der sich weiter zu einer Art digitalem Showroom entwickeln wird, und dabei ist, Konkurrenz und Erweiterung des tradierten Kunstraumes zu werden, wenn nicht gar ihn ganz abzulösen. VJing ist eine Kunstform, die allein, also ohne einen Bezug zur Musik nicht existieren kann. Dabei ist allerdings ein charakteristisches Merkmal für VJs, dass sie bei der Produktion ihrer Visuals unabhängig von Musik und Musikern agieren. Der Ton- und der Bildkünstler erarbeiten in der Regel nicht ein gemeinsames Konzept, sondern sie treffen bei einzelnen Performances spontan aufeinander. Deshalb schaffen sich VJs in der Regel einen Bildervorrat an, der auf die Identität und die Lebensentwürfe eines spezifischen Szene(Club)publikums zielt oder sich etwas spezieller auf bestimmte musikalische Stile bezieht. VJing ist also eher eine künstlerische Ausübung, die die spezifische Zielsetzung eines Clubs und seines Umfeldes und dessen ästhetische Strategien widerspiegelt, als eine Kunstform, die eine formal-strukturelle Auseinandersetzung mit der dargebotenen Musik sucht. VJing funktioniert in diesem Sinne am Besten im Zusammenspiel mit Musik, die sich weniger mit Fragen der Organisation des Tons beschäftigt als mit der Einbeziehung von Image, Identität und Repräsentation innerhalb eines popkulturellen Bezugssystems. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 450 Der eher monoton gehaltene Aufbau elektronischer Musik ermöglicht zudem eine ganz spezielle Form der audiovisuellen Kombination. Anstelle des logischen Erzählens von Geschichten kommt es zum Sampling und Remixing einer nur vom Vorrat des VJs beschränkten Masse an visuellem Material. Gewissermaßen werden die täglichen Sehgewohnheiten, das vom Fernsehen geübte Zapping, das ständige Umgebensein von visuellen Reizen, übersteigert und mit passenden Inhalten gefüllt. Dabei stammen die oft für Außenstehenden schwer zu verstehenden typischen Codes aus einem subkulturellen kollektiven Gedächtnis der Szene und drücken sich in der elektronischen Musik, den Visuals, in Street Art und Mode aus. Es ist in diesem Zusammenhang bemerkenswert, dass VJs die Palette der formalen Gestaltungsmittel gegenüber dem herkömmlichen Erzählkino radikal erweitert haben und darin dem Medium Musikvideo gleichen. Viele VJs haben eine Ausbildung in Grafik- oder Mediendesign absolviert. Bei ihren Performances versuchen sie, ihre persönlichen Wahrnehmungen und die Erfahrungen des modernen urbanen Menschen wiederzugeben. Ihre Bilder sollen stimulieren und der Selbstvergewisserung und Selbststilisierung dienen, ähnlich wie die mit Slogans oder Icons bedruckten T-Shirts, denn beide sind Kommunikationsmedien, die bestimmte Einstellungen in ihre Umgebung spiegeln. Bild 1.285: Videoklavier. VJs produzieren gewissermaßen eine Art Live-Anti-Kino. Es gibt keine festen Vorführzeiten und auf der Seite des Betrachters ist ein freies Ein- oder Ausklinken in den Bildfluss möglich. Die dramaturgischen Möglichkeiten des VJs sind deshalb sehr begrenzt und außerdem an die Dauer sowie den Charakter der Musik gebunden. Vermutlich gibt es aus diesem Grund so wenig Geschichten erzählende VJs. Die eher gestreute Wahrnehmungssituation macht es dem Betrachter schwer, Erzählungen kontinuierlich zu folgen. Bei Club-Performances gibt es ein weiteres Problem. VJs agieren gemeinsam mit dem DJ, werden dabei allerdings in die Pflicht genommen, nicht zu eigenwertig zu arbeiten, weil sonst die Hauptfunktion eines Clubs, das 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 451 Tanzen, zu kurz kommen könnte. Es hat sich gezeigt, dass, sobald die Aufmerksamkeit der Besucher sich von der Musik auf zu interessante und deshalb tanzhemmende Visuals verschiebt, der VJ vom DJ oder auch dem Veranstalter dazu gebracht wird, solche Bildsequenzen einzuschieben, die beim Publikum den Grad der Aufmerksamkeit reduzieren. Das ist vielleicht ein Grund dafür, dass VJs inzwischen ihre traditionellen Veranstaltungsorte wie Rave, Club oder Party verlassen und andere öffentliche Räume wie Galerien und Museen für die Darbietung ihrer Visuals wählen, in denen sie eher die gewünschte Aufmerksamkeit bekommen. Es gab und gibt aber auch spezielle audiovisuelle Clubs, bei denen Visuals Programm sind, beispielsweise das „Before 45“ in London, die „Remote Lounge“ in New York, der „WMF 4-Club“ in Berlin oder der „Väths Cocoon Club“ in Frankfurt. Manche VJs haben die Live-Szene gleich ganz verlassen und produzieren Studiovisuals auf DVDs, die deshalb auch in einem völlig ungestörten Umfeld betrachtet werden können. Mit Blick auf den DJ gibt es eine formale Gemeinsamkeit zwischen VJs und DJs. Beide versuchen aus vielen unterschiedlichen Sequenzen oder Tracks einen neuen, in sich zusammenhängenden, kontinuierlichen Strom der Bilder oder Klänge zu erzeugen. Das ist allerdings schon alles, denn VJs benutzen in der Regel eigenes, selbst produziertes Material. Selbst wenn sie gewissermaßen auf Samplingtechniken zurückgreifen, weil sie sich z. B. der Archive auch der Unterhaltungsindustrie bedienen, so interpretieren sie das Material durch ihre aufwendige Bearbeitung teilweise völlig neu. Dabei wird das Fremdmaterial unterschiedlich verwendet. Währen der DJ meistens Audiomaterial abspielt, das für diesen Zweck produziert wurde, dabei können sie auf gut sortierte Plattenläden zurückgreifen, so benutzt der VJ das für andere Zwecke wie Werbung, Fernsehen, Kino oder Wissenschaft erstellte Material entgegen seinem ursprünglichen Verwendungszweck. VJs können noch nicht in einem Clip-Laden Videosequenzen einkaufen. Für den VJ gibt es bisher noch keine speziell für seine Arbeit zugeschnittenen Produkte wie CD und Schallplatte. Er kann auf die Projektionen anderer VJs oder Videoproduzenten zurückgreifen, wenn diese ihm ihre Arbeit frei oder als kommerzielle Angebote zur Verfügung stellen. Das bedeutet zugleich, es muss ein austauschbares Format für die verschiedenen Anwendungsprogramme für den PC zur Verfügung stehen. Und damit schließt sich der Kreis zum PC-Tonstudio, denn bedingt durch die rasante Entwicklung von Video-Hardware und -Software in den letzten Jahren, ist die Produktion und Bearbeitung von digitalem Video nicht nur für Künstler erheblich leichter worden. Im Jahr 2010 ist jeder gut ausgestattete PC in der Lage, digitales Video in nahezu verlustfreier Qualität zu bearbeiten und in akzeptablen Rendering-Zeiten zu erzeugen. Qualitätsbeschränkungen bestehen nur in der technischen und gestalterischen Kreativität des Anwenders und mit Einschränkungen durch die von der Video-Industrie vorgegebenen Formate und Normen, aber auch der Leistungsfähigkeit der einzelnen Komponenten. So ist beispielsweise nicht jedes Notebook entsprechend ausgestattet. Insofern sollte man vorher die Grafikleistung seines PCs möglichst vorher prüfen, dazu gibt es diverse und teilweise auch kostenlose Programme (Bild 1.287, oben), damit man nicht zum unrechten Zeitpunkt die Meldung von Bild 1.287 (unten) bekommt. Die Geschichte der Visualisierung der Musik wie auch die aktuelle Praxis des VJing zeigen, dass es grundsätzlich zwei Strategien der Synchronisierung von Ton und Bild gibt, die auch parallel verfolgt werden. Zum einen wird eine technische Apparatur entwickelt, die die Musik automatisch in Bilder bzw. in Steuersignale für Bilder umwandelt, zum anderen ist es der Mensch, der intuitiv und steuernd in den Prozess der Bilderzeugung eingreift. Beide Herangehensweisen haben spezifische Vorteile: Die Synchronisierung mittels einer Technik ermöglicht die notwendige Präzision, während die Zuweisung von Bedeutung, also semantische Eingriffe, nur der Mensch vornehmen kann. Diese gewünschten Eingriffe und Abläufe können VJs heutzutage mit speziellen PC-Programmen durchführen. Das sind Werkzeuge, die es 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 452 ermöglichen, die verschiedenen Quellen miteinander zu kombinieren, den Schnitt zwischen den Quellen zu organisieren und gegebenenfalls die ursprünglichen Eigenschaften der Quellen zu manipulieren, wie z. B. die Abspielgeschwindigkeit oder eine Kolorierung. Die verschiedenen Formen von Digital Video aus der eigenen Video-Bibliothek können in Echtzeit manipuliert werden und sind nur durch den starren Ablauf der Schleifen und durch notwendige Rechenleistung zur Verarbeitung der Videodaten beschränkt. Bild 1.286: Wenn diese Meldung erscheint, muss der PC ausgetauscht werden. Bei der Software hat bereits eine hohe Spezialisierung stattgefunden. Durch die heute verfügbaren Multimedia-Entwicklungsumgebungen wie z. B. dem Macromedia Director, ist es auch für Einsteiger möglich, nach eingehender Beschäftigung mit Handbuch und Programm, ihre Ideen multimedial umsetzen zu können. Aber es werden von manchen Spezialisten auch auf die eigenen Bedürfnisse zugeschnittene VJ-Tools entwickelt, die dann mitunter anderen Interessenten zum Download angeboten werden. Fertige und kostenpflichtige Softwareprodukte für den VJ werden ebenfalls angeboten, wobei es starke Unterschiede bei Bedienung und Leistung gibt. Hier eine kleine Aufzählung: AVmixer Pro, Motion Dive, Modul8, Flow Motion, Resolume, MotionDive, VJamm, VDMX, Arkaos Grand VJ und Mabuse. Manche VJs setzen 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 453 aber auch modulare Software wie Pure Data, Jitter usw., oder Software, die, wie z. B. Mabuse, auf modulare Software wie MAX/MSP aufsetzt, ein. Es gibt sogar kleine Programme, die Pixelbilder in Klänge umsetzen können (siehe Band 6 unter Kompositionshilfen). Dazu nur noch ein Hinweis, vor dem Kauf sollte man sich sehr genau über die Anforderungen der Software and den Rechner informieren, denn viele Programme verlangen von der Hardware bestimmte Eigenschaften (Bild 1.287). Bild 1.287: Dieser Kasten kann 2010 schon wieder durch Software ersetzt werden. Natürlich wird neben dem Computer noch weitere spezielle Hardware benötigt. Heutzutage setzen VJs neben zwei Notebooks, mit deren Hilfe mittels spezieller Software die einzelnen Videosequenzen live und in Echtzeit während des Auftritts modifiziert und getriggert werden, einen Videomixer, einen DVD-Player, mehrere Vorschaumonitore und einen MIDI-Controller ein. Hinzu kommen Kameras jeglicher Art, die in erster Linie dazu dienen, Live-Szenen vom Veranstaltungsort in den Mix zu integrieren. Immer wichtiger für die Arbeit eines VJ werden MIDI-Controller und selbst entwickelte Komponenten beispielsweise mit Hilfe von MAX/MSP oder Arduino, einer Open Source Electronics Prototyping Platform, die Hard- und Software zur Entwicklung von Lösungen zur Kontrolle von Geräten wie z. B. Lampen, Leuchten usw. anbietet. Auch die Hardware-Hersteller haben inzwischen erkannt, dass es auf diesem Sektor Marktlücken zu füllen gibt. So wurde bereits 2005 von Pioneer der DVJ-X118 Mixer auf dem Markt gebracht, mit dem ein VJ DVDs wie Vinyl-Schallplatten scratchen kann. Dieses Gerät verrät schon durch seinen Namen DVJ-Mixer die Zielsetzung: Hier wurden DJ und VJ zusammengefügt,. Das Gerät ist ein echter digitaler Audio- und Video-Plattenspieler, mit dem Manipulationen von Ton und Bildern in Echtzeit möglich sind, weil Audio-CDs und VideoDVDs prinzipiell gleichbehandelt werden. Man kann das auf den optischen Platten gespeicherte Material mixen. Deshalb sind live Schnitt-, Montage- und Bearbeitungsprozesse möglich, für 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 454 die vor einigen Jahren noch eine aufwendige und zeitintensive Postproduktion notwendig gewesen wäre. Weitere technisch interessante Geräte sind Edirols V4 und das Kaoss Pad von Korg mit deren Hilfe Musik und Video simultan live gemischt werden können. Generell gilt: Die doch recht hohe Frequenz der notwendigen Interaktionen während des Live-VJing stellt höchste Anforderungen an alle beteiligten Komponenten der Hardware, der Software und natürlich auch den VJ. Literatur [1.378 bis 1.384] Musikvideo In einer anderen, in der ersten Hälfte des 20. Jahrhundert entwickelten Kunstrichtung, die Bild und Ton verarbeitet, werden Musikvideos produziert. Obwohl man solche Videos auch als kurze Tonfilme einordnen könnte, gibt es einen wesentlichen Unterschied bei der Produktion. Während beim Tonfilm in der Regel zunächst die Bildgeschichte vorhanden ist, die dann vertont wird, beginnt man bei der Produktion eines Musikvideos mit dem Ton, der dann mit Bildern oder Bildgeschichten unterlegt wird. Der Ton wird durch das Bild bedient. Bei der Gestaltung eines Musikvideos versuchen die Beteiligten, eine visuelle Umsetzung für den vorhandenen Song zu finden. Wurde alles richtig gemacht, dann entsteht beim Betrachten eines Musikvideos neben dem visuellen Wahrnehmungsraum durch das Hören auch ein akustischer Raum, wobei sich beide Räume addieren. Die visuelle und die akustische Wahrnehmung sollen zu einer Einheit verschmelzen, damit ein bleibender Eindruck als Kaufanreiz erhalten bleibt. Die audiovisuelle Wahrnehmung für das Massenpublikum ist im Laufe des letzten Jahrhunderts besonders durch das Kino und später das Fernsehen geprägt worden. So ist inzwischen die große Masse der Menschen schon so daran gewöhnt, Bild und Ton synchron wahrzunehmen, dass das Fehlen einer akustischen Information während der Bildwiedergabe Irritation beim Zuschauer auslösen kann. Das kann man wiederum ausnutzen, um mehr Aufmerksamkeit zu erzeugen. Wenn man will, kann man die Anfänge des Musikvideos bis Ende des 19. Jahrhunderts zurückverfolgen, denn zu dieser Zeit wurden in amerikanischen Theatersälen erstmals sogenannte illustrierte Lieder gezeigt. Für die Sound Slides-Darbietungen, die sich damals größter Beliebtheit erfreuten, wurden von Hand kolorierte Bilder auf Glasplatten gedruckt. Diese projizierte man dann während der Live-Darbietung des Songs durch den Künstler auf eine Leinwand. Solche Aufführungen waren schon damals eine Werbestrategie der Musikindustrie, um ihre Lieder bekannt zu machen, dazu die Stichworte Song Pluggers und Tin Pan Alley. Später, in den Jahren zwischen 1941 bis 1947, wurden in den USA zahlreiche sogenannte Soundies produziert, die man wohl als die ersten wirklichen Musikclips betrachten kann. Solche Soundies waren mit Musik unterlegte Kurzfilme, die der Interessierte in Restaurants und Bars wie bei einer Musikbox nach dem Einwurf von Münzen ansehen und anhören konnte. Die musikalische Bandbreite der Soundies war relativ abwechslungsreich. Sie reichte von irischer Folklore über die verschiedenen Spielarten der Country-Music bis hin zum Mainstream Jazz. Im Mittelpunkt der kurzen Musikclips stand vor allem die Aufführungen der Musik. Erst später kamen auch kleine meist amüsante Filmszenen und, vor allen Dingen während des Zweiten Weltkriegs, Abschnitte mit patriotischen Aussagen hinzu. Mit dem Start des Fernsehens kam es zu vermehrten Auftritten von Popmusikern und anderen Schlagerstars im Fernsehen, für die auch die sogenannten Promo-Filme, das sind trailerartigen Werbevideos, produziert wurden. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 455 Bekannt geworden sind die Promo-Filme der Beatles in den Jahren 1966/67, die passend zu ihren Songs gedreht wurden, beispielsweise zu „Strawberry Fields Forever“, „Penny Lane“ usw. Hierbei agierten die einzelnen Musiker der Band an ihren Instrumenten wie Schauspieler. Typische für ein Musikvideo kennzeichnende Merkmale weist auch ein Promo-Film der Kinks auf, mit dem sie 1966 ihren Song „Dead End Street“ vorstellten. Bei diesem Film wurden nicht wie üblich, die Musiker nur beim Bedienen ihrer Instrumente gezeigt, sondern der Inhalt des Textes wurde inszeniert. Von manchem Kenner der Szene wird allerdings der erst 1975 gedrehte Promo-Film „Bohemian Rhapsody“ von Queen als erstes wirkliches Musikvideo genannt, weil. hier die für diese Form charakteristischen Techniken angewendet wurden: die Heroisierung der Musiker, unterschiedliche Schnittfrequenzen für bestimmte Formabschnitte des Songs sowie spezifische Ein-, Aus- und Überblendetechniken. Ab Ende der 1970er bis Mitte der 1980er Jahre wurden dann die spezifischen Techniken entwickelt, die für das Genre Musikvideo typisch sind. Mit dazu beigetragen hat, dass in dieser Zeit in der Popmusik viele neue Stilrichtungen entstanden, die sich auf einem Markt mit einem immer größer werdenden Angebot durchsetzen wollten. Nach Meinung von Fachleuten ist das 1979 veröffentlichte Musikvideo „Single Hell on Wheels“ von Cher das erste, das im MTV-Stil produziert wurde, obwohl es MTV überhaupt noch nicht gab. Wie das Bild 1.289 zeigt, bietet die Internetseite von MTV Mitte 2010 über 30.000 Videoclips zum Download an. Bild 1.288: Starkes Angebot auch im Internet. In den 1980er Jahren wurde mit MTV ein Fernsehsender etabliert, der zunächst nur Musikvideos ausstrahlte. Bemerkenswert ist in diesem Zusammenhang, dass MTV zum USSendestart als erstes Musikvideo „Video Killed the Radio Star“ des Trevor-Horn-Projektes The Buggles sendete. 1984 startete MTV Europe sein Programm. Ein Musikvideo konnte seit dem Start von MTV Hunderte von Millionen Haushalte erreichen. Im selben Jahr wurden die ersten MTV Video Music Awards (VMAs) vergeben [1.385]. In den damals öffentlich/rechtlichen 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 456 Sendeanstalten in Deutschland führten reine Musikvideo-Formate bis zur Mitte der 80er-Jahre eher ein Nischendasein. Erst 1983 startete die ARD mit ihrer Sendung Formel Eins, die erste weitgehend videoclipbasierte Musiksendung im deutschen Fernsehen. 1984 ging der deutschsprachige Musik-Fernsehsender Musicbox auf Sendung; er war aber mit Ausnahmen nur über Kabel und Satellit erreichbar, sodass er zu dieser Zeit nur von wenigen empfangen werden konnte. Nach einer kurzen Durststrecke Ende der 1980er Jahre erlebte der Videoclip Anfang der 1990er Jahre seine Renaissance. In Deutschland konnte MTV Europe seinen Sendebereich ausdehnen und ab Ende 1993 ging als erster deutschsprachiger Videoclip-Kanal VIVA auf Sendung. Das trug in Deutschland wesentlich zum Entstehen einer ausgedehnten nationalen Videoclip-Szene bei, denn VIVA wollte sich gegenüber seinem Konkurrenten MTV durch die Ausstrahlung von nationalen Videoclips profilieren und unterstützte aus diesem Grund gezielt lokale Künstler. Mitte der 1990 Jahre wurden perfekt durchdachte und inszenierte Musikvideos produziert, deren Ästhetik sich sehr von der klassischen Popästhetik der 1980er unterschied. Die Produktionen wurden aufwendiger. Dabei trifft man mitunter auf Techniken und Effekte, die zuvor nur bei der Produktion von Hollywoodfilmen eingesetzt wurden. Zu dieser Entwicklung hat auch der Fortschritt in der digitalen Bild- und Videobearbeitung beigetragen. Mithilfe professioneller Videomix-Programme konnten interessierte und auf diesem Gebiet begabte Musiker zunehmend selbst ihre eigenen Videoclips erstellen. Die in der Vereinigung der deutschen Musikvideoproduzenten organisierten Macher sind davon überzeugt, dass sie im Laufe der Zeit ein eigenes Film-Genre geschaffen haben, denn teilweise wurden ja richtige kleine Spielfilme gedreht. Alle Fachleute sind sich einig: Ein Musikvideo kann unter Umständen einen Musiktitel zum Durchbruch verhelfen, es muss es aber nicht. Der Erfolg ist trotz des hohen Aufwands nicht garantiert. Andererseits kennt man Beispiele für die Wiederentdeckung älterer Musiktitel durch die Einbindung in einen Werbespot. Musikvideos sind auf das Medium Fernsehen angewiesen und müssen vor der Ausstrahlung u.a. erst einmal die Auswahlprüfung bei einem Musik-TV-Sender bestehen. In Deutschland stehen zwei spezielle Musikkanäle zur Verfügung (MTV und VIVA). Weitere Podien für den Einsatz des Videos sind spezielle Musiksendungen der anderen Sender, das Internet oder die CD-Extra sowie die DVD. Die angeblich von Raubkopierern verursachte kommerzielle Krise der Musikindustrie führte in Deutschland seit 2002 zu massiven Einschränkungen beim Budget zur Produktion von Musikvideos. Musikvideos werden seit dieser Zeit mit deutlich weniger Aufwand produziert. Es ist nur folgerichtig, dass in [1.386] bezweifelt wird, ob das Musikfernsehen überhaupt noch eine Zukunft hat. Der Anlass des Artikels war die letzte Sendung der BBC-Sendereihe „Top of the Pops“, die am Neujahrstag 1964 gestartet wurde. Man kann auch sagen: Der Zeitgeist, die Avantgarde, ist in das Internet umgezogen. Insofern hat sich die Verbreitung von Musikvideos erweitert, denn als Gegenpol zu den großen Musiksendern sind im Verlauf des 21. Jahrhunderts eine Vielzahl von Angeboten im Internet rund ums Thema Musikvideo hinzugekommen. Es gibt Quellen, von denen man Musikvideos als Livestream empfangen oder herunterladen kann. Möglicherweise beruht die Popularität von Multimediaplattformen wie YouTube zu einem nicht geringen Teil auf dem Angebot von kommerziellen Musikvideos, die dort von privaten Benutzern teilweise unter Missachtung des Urheberrechts zum Download bereitgestellt werden, was letztendlich zu einem im Jahr 2010 aktuellen Streit mit der GEMA führte. Ähnlich wie zum Start vor 30 Jahren hat sich der ehemalige Vorreiter des Musikvideos MTV in der Silvesternacht von 2010 nach 2011 wiederum gewissermaßen mit einem Witz aus dem deutschen Gratisfernsehen verabschiedet. Als letzter Umsonstbeitrag wurde der Song der Spice Girls „Viva Forever“ gesendet. Dazu muss man wissen, dass der ehemalige Konkurrenzsender VIVA 2005 in den MTV-Konzern Vivacom eingegliedert wurde und ähnlich wie MTV von 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 457 einem Sender mit einem zunächst progressiven Programm zu einem Sender mutierte, dessen Programm aus Billigserien, Klingeltonwerbung und Ähnlichem besteht, kein wirkliches Anzeichen mehr von dem ehemaligen Sender für die deutsche Popkultur. Die gleiche Entwicklung hat MTV durchgemacht. Ein Grund für diese Entwicklungen beider Sender war der durch den Druck der Aktionäre ausgelöste Strategiewechsel, denn aus MTV, einem Popsender, dem lange die Balance zwischen Kunst und Kommerz, zwischen Rebellion und Werbung, gelang, wurde ein Sender, der nach Meinung der Szene sein Publikum an die HandyIndustrie verraten hat. Aus diesem Grund liefen nach und nach auch die treuesten Konsumenten des MTV-Programms dem Sender davon. Während sich MTV sich in seinen Hochzeiten mit Sendungen über Streetart oder Trendsportarten für das an Neuem interessierte jugendliche Publikum profilierte, mutierte er durch den Strategiewechsel zu einem Sender, der ähnlich wie VIVA mit Serien, Charts und Klingeltonwerbung seine Programmzeit füllte. Auch hier zeigt wieder einmal der sogenannte Shareholder Value sein hässliches Gesicht. Das Programm des Senders verkam zu einer endlosen Aneinanderreihung von Billigserien, Klingeltonwerbung und lärmenden Ankündigungen jedweder Art. Alle die Popszene interessierenden Nischensendungen verschwanden nach und nach aus dem Programm, die jungen Interessenten an wirklicher Popkultur liefen davon. Mit der Verabschiedung aus dem Freeprogramm hat MTV erneut einen Strategíewechsel vollzogen. Verschlüsselt über Kabel und Satellit, und nur bei Bezahlung zu empfangen, soll der Sender frei von Werbung wieder mehr Musikvideos übertragen dürfen. Auf seiner Webseite wirbt MTV damit, dass eine beliebte Kultshow in das Programm zurückkehrt. Diese Entwicklung ist ein Ausdruck für die Krise des Musikfernsehens, die offenbar im Zusammenhang mit der Entfremdung zwischen der Musikindustrie und ihren Hörern steht. Schon immer war ein Musikvideo ein Werbeclip für die zugehörige Single. Mit der immer größer werdenden Nutzung des Internets lohnte sich für die Musikindustrie die Produktion für Videoclips nicht mehr, weil sich die Fans inzwischen die Musikclips im Internet anschauen. Im Zuge dieser Entwicklung mussten in Deutschland nach und nach immer mehr Filmstudios schließen. Dazu hat mit beigetragen, dass sich Dank gesunkener Produktionskosten die Künstler durchaus auch selber in Szene setzen konnten. Dafür gibt es gelungene Beispiele wie z. B. der 35 Minuten lange Film „Runaway“ von Kanye West, den er noch vor dem Erscheinen seines Albums „My beautiful Dark Twisted Fantasy“ ins Internet stellte (http://www.kaynewest.com). Waren zunächst soziale Netzwerke die Anlaufstelle für denjenigen, der zur Unterhaltung Videoclips anschauen wollte, so haben sich inzwischen spezielle Videodienste wie tape.tv etabliert (http://www.tape.tv/musikvideos). Andere nennen sich myvideo, putpat oder QTom. Diesen Trend hat auch die Musikindustrie und haben die Künstler erkannt. Während das ehemalige Geschäftsmodell von MTV darin bestand, dass die Plattenfirmen die Videoclips kostenlos lieferten und das werbefinanzierte MTV durch das Senden der Clips den Verkauf der Songs ankurbelte, verdienen die Produzenten heute an den Klicks der Besucher auf den verschiedenen Webseiten von Videodiensten. Wenn man so will ist das Musikvideo nicht mehr die Werbung für ein Produkt, sonder es ist selbst ein eigenständiges Produkt und dadurch wieder interessant für die Industrie geworden. Zur Charakterisierung von Musikvideos gibt es verschiedene Ansätze: Konzeptvideos, erzählende Videos und Performancevideos. Bei einem Konzeptvideo wird versucht, eine freie Assoziation von Musik und Bild, also den Song in Formen und Farbe, umzusetzen. Erzählende Videos sind quasi Kurzfilme, die zumeist den Inhalt des Songtextes illustrieren. Das ist in der Praxis nicht einfach, denn die Geschichte muss in der Regel in wenigen Minuten erzählt werden. Bei den Performancevideos steht der Künstler im Vordergrund. Wo der Künstler auftritt, bleibt zumeist der Fantasie des Regisseurs überlassen [1.387]. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio Bild 1.289: Abgesang und Neuanfang (oben) soll neuen Diensten (unten) Paroli bieten. 458 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 459 In [1.388] findet man eine detaillierte Herausarbeitung der verschiedenen Genres: • Performance Videos In den zu dieser Kategorie zählenden Musikvideos steht der Interpret als Musiker im Vordergrund und wird bei der Ausübung seiner Kunst gezeigt. Dabei wird die Beziehung Fan und Künstler besonders herausgehoben. So zeichnen Konzertmitschnitte den Interpreten und das jubelnde Publikum vor der Bühne auf, wobei es sich oft um eine authentische Ton/Bild-Aufnahme handelt. Es gibt aber auch Clips der Kategorie Playback/Präparierte Bühne, die im Playbackverfahren entstehen: Der Interpret ist seinem Image entsprechend gestylt und agiert vor einer vorbereiteten Kulisse mit ausgewählten Jublern. Dabei kommen auch technische Hilfsmittel wie Trockeneis zur Nebelbildung, ausgefallene Dekorationen und Trickbilder zum Einsatz. Musikinstrumente oder Mikrofone sind nur reine Dekoration. • Art Movies Bei solchen Videoclips wird die Darstellung des Musikers gegenüber der bildnerischkünstlerischen Gesamtgestaltung weiter zurückgenommen. Das Medium Musikvideo illustriert bei diesem Genre an sich keine Handlung, sondern wird als Objekt des Videokünstlers verstanden, der mit Hilfe von gestalterischen Elementen wie Zeichentrick, Computergrafik und Ähnlichem ein Gesamtkunstwerk schafft. • Narrative Movies Damit bezeichnet man aus erzählenden Bilderfolgen bestehende Videoclips, die der Zuschauer selbst zur Geschichte zusammenführen soll. Oft wird durch Stummfilmszenen der Liedtext direkt abgebildet. Dabei gibt es verschiedene Spielarten. Mit Interpretendarstellung und Filmszenen sind Videoclips gemeint, in denen Interpretation und Stummfilmszenen in einem ausgeglichenen Verhältnis stehen. Bei einem Videoclip mit einer durchgehenden Filmhandlung ist der Musiker in erster Linie Schauspieler und dabei in aller Regel der Titelheld der Geschichte. Als Musiker tritt er dagegen nur auf, falls ihm der Zufall ein Instrument und/oder ein Mikrofon beschert. Unter die Bezeichnung Video-Story werden alle Videoclips eingeordnet, die mindestens zehn Minuten lang sind. Hier wird der narrative Videoclip zu einem kleinen Spielfilm ausgedehnt und folgt dem üblichen Schema: Einleitungsszene, Lied und Schlussszene. Solche Videoclips wurden aufgrund der hohen Produktionskosten eher selten produziert. Videoclips, die der Kategorie Effekt-Clip zugeordnet werden, bauen auf optischen Effekten wie beispielsweise Zeichentrickelementen auf, die auch auf die erzählende Struktur des Geschehens einwirken. • Semi-Narrative Movies Zu dieser Kategorie gehören solche Videoclips, bei denen neben dem eigentlichen Interpreten zusätzlich Statisten im Hintergrund auftreten, um beispielsweise den Eindruck und die Geschichte des Songs tänzerisch zu untermalen. Eine weitere Möglichkeit ist die mitunter eingeflochtene Darstellung des dargebotenen Textes durch Stummfilmszenen (Interpret und Filmszenen). Generell muss sich in einem Musikvideo die Bildebene stark an der Soundebene orientieren. Deshalb muss man zunächst die innere Struktur des Songs untersuchen. Dabei wird deutlich, dass Songs nur selten so narrativ aufgebaut sind, wie man es aus der Literatur kennt. Songs bestehen aus Strophen und Refrains bzw. aus Rhythmen und Melodien, die im Song mehrmals 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 460 wiederholt werden. Dieses Prinzip der Wiederholungen findet man im Musikvideo meistens auf der Bildebene wieder. Dadurch entsteht beim Betrachten des Musikvideos der Eindruck einer nicht-linearen und fragmentierten Erzählung. Wenn diese Wiederholungen allerdings auf visueller und akustischer Ebene gleichzeitig passieren, dann wird für den Betrachter der rote Faden zwischen den scheinbar unzusammenhängenden Bildern und Szenen sichtbar. Deshalb bietet die Musik bei der Produktion eines Musikvideos die Möglichkeit, freier und experimenteller zu arbeiten, weil man der Struktur der Musik visuell folgen kann und nicht der üblichen Dramaturgie eines SpielUlms unterworfen ist. Versucht man die Struktur der Musik in Bilder umzusetzen, dann kann es durchaus schwierig werden, eine passende Geschichte zu finden. Manche Musikvideos verzichten deshalb gleich ganz auf die Erzählung einer Geschichte und setzen die Bildebene lediglich dazu ein, den Aufbau der Musik sichtbar zu machen. Andererseits hat die bildhafte Erzählung einer Geschichte den Vorteil, dass die vom SpielUlm geprägte Wahrnehmung des Zuschauers eher befriedigt wird. Dabei muss man die Länge des Songs berücksichtigen, die sich in den meisten Fällen immer noch einer ursprünglich vom Speicherplatz einer Schellackplatte vorgegebenen Spiellänge orientiert. In der Regel können daher in einem Musikvideo nur sehr kurze Geschichten erzählt werden, die das Publikum sehr schnell langweilen könnten, denn die Musikvideos werden von den Sendern wie MTV in schneller Folge wiederholt. Aus diesem Grund kann es besser sein, dem Zuschauer durch die Bildhandlung nicht zu viel vorzugeben, denn ein größerer Spielraum bei seiner Interpretation der Bilder kann einen Zuschauer dazu bringen, das Musikvideo auch öfter zu betrachten. Manche Regisseure verzichten aus diesem Grund oft auf ein Happy End der Bildgeschichte und lassen das Ende offen. Ein weiterer Grund dafür, warum Musikvideos nur sehr selten auf ein spannendes Ende hin aufgebaut sind, ist der, dass im Gegensatz zum herkömmlichen SpielUlm das Ende bei Musikvideos keine große Bedeutung hat, denn diese Medien werden in der Regel unter anderen Voraussetzungen konsumiert als Spielfilme. Bei vielen Zuschauern erzeugt der Fernseher oft nur eine Geräuschkulisse in der Wohnung. Wenn auf den Musiksendern rund um die Uhr Musikvideos gesendet werden, dann ist die Aufmerksamkeit des Zuschauers nur selten ununterbrochen auf das Geschehen am Bildschirm gerichtet. Selbst wenn er vor dem Fernseher sitzt, entscheidet er sich beim Zapping zwischen den unterschiedlichen Programmangeboten oft sehr schnell, ob für ihn das momentane Programm interessant genug ist, um auf dem Fernsehkanal zu bleiben. Insofern wird die Aufmerksamkeit des Zuschauers nicht durch eine spannende Handlung gefesselt, sondern durch die Qualität der Bildinhalte. Die Handlung eines Musikvideos muss sich nicht zwingend auf ein Wort aus dem Songtext oder auf den gesamten Inhalt des Textes stützen, denn die Musik hat an sich schon eine hohe emotionale Komponente. Sie löst beim Hörer gewisse Emotionen aus, die sogar messbar sind. Musik spricht einen Menschen unmittelbarer an, als das Bilder können, und das besonders, wenn er nicht unentwegt auf dem Bildschirm starrt. Insofern bietet sich für die Bebilderung eines Musikvideos an, die von der Musik vorgegebene Stimmung zu visualisieren. Für die Emotionen des Betrachters, die von sehr elementaren Gefühlen wie Liebe, Hass, Trauer oder Einsamkeit getragen werden, gibt es in jedem Kulturkreis schon eine Vielzahl an Symbolen und Stereotypen. Aus diesem Grund kann mit nur wenigen Einstellungen eine Kurzgeschichte erzählt werden. Allerdings sollte man die Symbole schon kennen, denn nicht jedes Symbol funktioniert in jedem Kulturkreis. Man kennt das schon von den verschiedenen Gesten her: Beispielsweise bedeutet ein Nicken, das in Deutschland als Einverständnis verstanden wird, in Bulgarien genau das Gegenteil. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 461 Der Rhythmus spielt auch bei Musikvideos eine wichtige Rolle, darauf wurde ja schon eingangs hingewiesen, denn durch die Aneinanderreihung von Formenpaaren in der Malerei oder von Tonfolgen in der Musik, entstehen durch ständige Wiederholung bestimmte Rhythmen, weil das menschliche Wahrnehmungsvermögen dazu neigt, die Umgebung nicht als Summe von Einzelteilen zu begreifen, sondern die empfangenen Informationen zu gliedern und in Einheiten zusammenzufassen. Dadurch entwickeln sich neue Strukturen, die nicht die Teile an sich beschreiben, sondern ihre Beziehung zueinander. Die dieser Fähigkeit innewohnenden Gestaltgesetze sind gleichermaßen sowohl auf die visuelle als auch auf die akustische Wahrnehmung anwendbar. Allerdings ist bei akustischen Ereignissen die Zeit ein weiterer wichtiger Faktor. Für die Bildmontage eines Films ist, wie man aus der Entstehungsgeschichte des Tonfilms weiß, der Rhythmus ein bestimmendes Element, siehe Hinweis: Berlin. Die Symphonie der Großstadt. Rhythmus entsteht hier bei der Filmmontage nicht allein durch das beliebige Verlängern oder Verkürzen mehrerer aufeinanderfolgender Einstellungen. Der empfundene Rhythmus entsteht auch durch den Inhalt der einzelnen Bilder, aus denen sich eine Einstellung zusammensetzt. Weitere Faktoren kommen hinzu. Licht, Farbe, Überblendungen, Bewegung und der grafische Aufbau des Bildes beeinflussen ebenfalls die subjektive Dauer des Geschehens. Die vom Zuschauer empfundene subjektive Länge einer Einstellung ist daher immer abhängig vom Rhythmus der Einstellungen und von der Bewegung in den Bildern. Das zeigt der Mitte der 1920er Jahre gedrehte Film deutlich auf. Darüber hinaus fällt beim Betrachten von Musikvideos auf, dass die subjektive Wahrnehmung der Geschwindigkeit nicht allein auf die in der Regel kurzen Schnitte zurückzuführen ist, denn sehr häufig sind auch Bewegungen im Bild und natürlich auch das Tempo der Musik ausschlaggebend dafür, ob ein Zuschauer das Musikvideo als schnell oder langsam interpretiert. Diese Gegebenheit muss berücksichtigt werden, wenn Bild und Ton eine Einheit werden sollen. Der Betrachter muss den musikalischen Rhythmus auch im Bild wiederfinden. Deshalb reicht es nicht aus, Schnitte nur im Rhythmus der Musik zu setzen. Wenn sich die Musik nicht im Bildrhythmus wiederfindet, schwächt das den Musikeindruck ab und umgekehrt: passt der Rhythmus der Bilder nicht zur Musik, schwächt das den Bildeindruck ab. Der Rhythmus kann zudem die Gliederung der Teile eines Films verdeutlichen. Durch das Variieren des Tempos kann eine Spannungskurve erzeugt werden. Nicht nur in Musikvideos, sondern auch in normalen Tonfilmen wird die gewünschte Verknüpfung zwischen dem musikalischen Rhythmus und dem Rhythmus der Bilder durch Schnitt und Montage erzeugt. Dabei wird ein Schnitt so gesetzt, dass es durch die Bewegungen im Bild, die ja zumindest bei Liveaufnahmen exakt im Takt der Musik liegen, zu einer Verschmelzung zwischen Musik- und Bildwahrnehmung kommt. Solche synchronen Schnitte verwendet man dann, wenn anhand der Struktur der Musik ein deutlicher Inhaltswechsel zu hören ist. Dabei sollte man berücksichtigen, dass Schnitte, die ausschließlich auf den Takt gesetzt werden, auf Dauer monoton wirken. Um das zu verhindern, kann man bei Schnitten auch mit einer rhythmischen Verschiebung des Taktschwerpunkts arbeiten, indem man den Bildschnitt kurz vor die musikalische Betonung setzt. Weil der Schnitt dadurch die Betonung des Takts vorwegnimmt, wird durch das Bild die Handlung vorangetrieben. Das kommt dem menschlichen Wahrnehmungsvermögen entgegen, denn durch diese Abweichung zwischen der visuellen und der auditiven Ebene wird die Aufmerksamkeit des Zuschauers zusätzlich angeregt. 1.6 Aufgaben und Anwendungsbereiche für das PC-Tonstudio 462 Bild 1.290: Zwei aus verschiedenen Epochen stammende gelungene Beispiele zeigen, wie Musik und Bild in der Summe mehr bieten können, als die Addition aller Teile ergeben würde. Zum Abschluss des Themas sollen noch zwei Beispiele für eine besonders gut gelungene Verschmelzung von Ton und Bild kurz vorgestellt werden, die sich nicht nur durch das Genre, sondern auch durch einen Zeitunterschied von 250 Jahren unterscheiden. Das Bild links zeigt eine CD mit der Aufnahme der heroischen barocken Pastorelle Terpsichore von G. F. Händel (1685 -1759), in der sich die Genres von Musik, Tanz und Theater eindrucksvoll verbinden. Die Ballet-Oper Terpsichore ist wohl die Antwort Händels auf Intrigen, die zur Folge hatten, dass er von der Londoner Royal Academy entlassen wurde und zum Londoner Opernhaus Covent Garden wechselte: Apollón (Händel) erklärt der poetischen Muse der Liebe Erató, dass er Parnas (die von Händel geleitete Royal Academy in London) verließ, um zu erkunden, ob die neue Akademie (Covent Garden) seine Gunst erhalten würde. Apollón (damals gesungen von dem berühmten Kastraten Carestini) und Erató singen über Liebe, Treue und die Unbeständigkeit. Gleichzeitig tanzt Terpsichore (damals Marie Sallé) und zeigt mit tänzerischen Mitteln ihre Emotionen. Das Werk erreicht seinen Höhepunkt in seinem Schlussbild mit einem vierstimmigen Chor, der den stets wechselnden Wind repräsentiert, die man als eine Anspielung auf die Unbeständigkeit der Mäzene und des Publikums interpretieren kann. Das Bild rechts zeigt eine Promo-DVD des Cirque du Soleil zu seinem Programm Dralion (2006). Dieser Zirkus ist ein 1984 in Montréal (Kanada) gegründetes Unternehmen, der eine moderne Form von Zirkus, entwickelt hat, bei der auf die klassischen Programmnummern eines Zirkus verzichtet wird. Seine Programme sind stattdessen eine Mischung aus Artistik, Theaterkunst und Livemusik, die im Zusammenspiel eine Geschichte erzählen. Dabei übernimmt die Livemusik eine wichtige erzählende Rolle. Wie wichtig die passenden Bilder zum Ton – oder auch umgekehrt – sind, kann man leicht nachvollziehen, wenn man sich einmal nur die Musik ohne die Bilder anhört. Das Programm Dralion stellt eine Verschmelzung antiker chinesischer Zirkustradition mit dem avantgardistischen Ansatz des Cirque du Soleil dar. Folgerichtig entstand der Name der Show aus den beiden Symbolen Drachen (Dragon, repräsentiert den Osten) und Löwen (Lion, präsentiert den Westen). Der rote Faden des Programms leitet einen großen Teil seiner Inspiration aus der östlichen Philosophie mit seiner ewigen Suche nach Harmonie zwischen der Menschheit und der Natur ab. Gefangen in der Zeit zwischen Vergangenheit und Zukunft wird ein Fest des Lebens und der vier Elemente Luft, Wasser, Feuer und Erde, die die natürliche Ordnung aufrechterhalten, gezeigt. Literatur: [1.389 bis 1.399]