O gesto musical nos sistemas computacionais
Transcrição
O gesto musical nos sistemas computacionais
XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 O gesto musical nos sistemas computacionais José Guilherme Allen Lima USP – MOBILE –FAPESP- [email protected] Resumo: Como forma de estruturar uma investigação sobre o uso do computador como instrumento musical, o presente artigo relata um levantamento sobre o desenvolvimento de sistemas de computação com finalidades musicais buscando uma aproximação com os estudos sobre gesto musical, tendo como marco teórico a produção de Bernadete Zagonel e Fernando Iazzetta sobre o tema. Esta investigação sugere que o potencial do gesto musical físico ainda é pouco explorado no desenvolvimento destes sistemas, em que prevalece a noção do gesto mental. Palavras-chave: gesto musical, computação, luteria digital, música eletrônica, Século XX, performance. Musical Gesture in computer music systems Abstract: This paper describes the development of computer music systems, approached from the perspective proposed by studies on musical gesture by Bernadete Zagonel and Fernando Iazzetta. Such analysis is proposed as an aid to further investigations on the usage of the computer as a musical instrument. At first, our investigation suggests an unexplored potential of physical gesture in the development of such systems, where the tendency is favouring the musical gesture of an abstract sort. Keywords: musical gesture, computing, digital lutherie, electronic music, XX th Century, performance. Nesta comunicação, relatamos um levantamento do desenvolvimento dos sistemas de computação musical levando em conta a ideia de gesto musical e seus desdobramentos, realizada como forma de estruturar uma investigação sobre o uso do computador como instrumento musical, e demais questões relativas à performance musical envolvendo ferramentas digitais. Gesto musical Até as últimas décadas do século XIX, as relações entre gesto e prática musical nas tradições de interpretação já estabelecidas não chega a se constituir em um objeto de estudo. Em um período de aproximadamente meio século, a introdução de tecnologias de telefonia, fixação, difusão e produção sonora por meios eletroeletrônicos provocou uma série de rupturas no processo de percepção destes fenômenos, produzindo a necessidade de se entender o gesto musical segundo um outro ponto de vista. A partir destes “deslocamentos acusmáticos”1 (EMMERSON, 1994: 95) entre fonte e resultado sonoro, e entre prática musical e um intérprete progressivamente ausente 2, o corpo e o gesto passam a ser objeto de estudos visando um entendimento de sua importância na prática musical. Embora abrangente, XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 a noção de gesto como elemento intrínseco à prática musical passa a ser interpretada de acordo com o que se entende por gesto e com quais funções lhe são atribuídas. Dessa maneira o termo “gesto” ou “gesto musical”, pode fazer referência não só ao gesto físico em si, no sentido literal, como ser usado metaforicamente para traduzir diferentes processos criativos e interpretativos. Como metáfora, o termo é utilizado na análise musical para descrever o uso de convenções musicais específicas de forma simbólica, ou fazer referência a estruturas musicais e sonoras estabelecidas, constituindo-se em um “gesto mental” (ZAGONEL, 1992: 16), um conceito que também inclui a abstração mental do gesto físico. Em geral, o gesto musical enquanto metáfora está relacionado com os processos criativos, tradicionalmente atribuídos à área de atuação do compositor, que podem ser traduzidos fisicamente por intérpretes, ou eletronicamente a partir da geração e manipulação sonora. Já o gesto físico pode ser entendido como “um movimento com finalidades expressivas e que produz significado” (IAZZETTA, 2000: 260). Nesse sentido, o gesto musical é entendido como uma elaboração do movimento corporal a partir de um repertório estabelecido de referências que auxiliam na percepção de um fenômeno sonoro e musical, podendo ser classificado de acordo com três categorias: o gesto que efetua, o gesto que acompanha e o gesto figurado (ZAGONEL, Ibidem: 22). Nesta classificação há uma gradação na percepção do gesto, a partir da ação diretamente relacionada com a produção mecânica do som – o gesto que efetua; cuja percepção é auxiliada através da associação de outros movimentos e ações complementares – o gesto que acompanha; e cujo sentido é atribuído tanto pelo intérprete quanto pelo ouvinte de forma dinâmica – o gesto figurado. Esta última categoria cria uma conexão com a dimensão metafórica do gesto musical, ao associar gestos físicos com estruturas sonoras. Físico ou mental, o gesto desempenha no fazer musical o papel de uma ação geradora para iniciar um processo ou responder a um estímulo, mas não se constitui em um resultado sonoro per se. Sendo o som um fenômeno essencialmente mecânico-acústico, qualquer tipo de gesto necessita de uma interação com um meio elástico para ser transformado em um resultado sonoro. XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 Computação musical e instrumentos musicais digitais Além do vínculo direto com as ciências da computação, a Computação Musical é um campo de estudos que, ao longo de seu desenvolvimento, vai receber influências externas devido à consolidação de uma indústria de comunicação e entretenimento com um forte elemento tecnológico, da industrialização do mercado de instrumentos musicais, e de diferentes correntes estéticas, de modo que as relações entre música e novas tecnologias se reestruturam de modo constante e dinâmico. O processo de apropriação de aparelhos de uso genérico para o vocabulário musical possui alguns poucos precedentes históricos mas, mesmo ao longo do século XX, esteve relacionado com a exploração das propriedades sonoras de seus corpos ressonantes, ou com a manipulação de seus mecanismos ou circuitos geradores de som, processos diretamente associados a uma interferência gestual e física no objeto. Já a exploração do potencial sonoro e musical do computador ocorre de modo diferente, devido à ausência de um corpo ressonante que inspire investigações sonoras, ou de circuitos cuja manipulação incorra em resultados sonoros, partindo a priori de um deslocamento acusmático causal. Para as finalidades aqui propostas, podemos classificar o desenvolvimento de sistemas de computação musical em quatro períodos ou ciclos. O primeiro destes compreende os anos 1950 e 1960, e pode ser considerado como o período em que a ideia de Computação Musical tomou forma e se estabeleceu como um campo de estudos, gravitando inicialmente ao redor do trabalho desenvolvido por Max Mathews no centro de pesquisas Bell Laboratories, nos Estados Unidos. Apesar de existirem experimentos anteriores usando computadores como fonte sonora3, a criação de música em ambiente digital tem início de fato em 1957, com o primeiro de uma série de softwares contemplando tanto o seqüenciamento de eventos sonoros quanto a síntese sonora digital com finalidades musicais, fazendo uso de conversores que permitiam gerar sinais elétricos de áudio a partir de representações digitais (CHADABE, 1997: 109). Esta série viria a ser conhecida pelo nome “Music-N”, compreendendo tanto as versões do programa desenvolvidas diretamente por Mathews – Music I a V – quanto as versões desenvolvidas por outros colaboradores a partir do compartilhamento dos códigos originais. Sua estrutura era baseada em módulos básicos que se combinavam para construir XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 instrumentos simplificados, constituindo uma espécie de orquestra virtual responsável pela execução de uma partitura, que por sua vez consistia em séries de instruções descritas textualmente (MATHEWS, 1969)4, princípios que influenciaram de um modo geral o desenvolvimento de programas de computação musical nas últimas décadas (GEIGER, 2005: 15). O compositor então submetia esse conjunto de especificações ao processamento propriamente dito, gerando séries de tabelas numéricas que representavam digitalmente o sinal correspondente ao resultado sonoro. A informação destas tabelas era convertida posteriormente em sinais de áudio por um segundo computador, e estes sinais gravados em uma fita magnética convencional. Levando em conta somente o tempo de computação e o processo de conversão, o resultado das especificações iniciais do compositor poderia demorar entre duas a quatro semanas até ser ouvido 5. O segundo período tem início na passagem para os anos 1970, e é marcado pelo desenvolvimento de sistemas que permitem a interação com o usuário a partir de informações sonoras em tempo real, e pelo estabelecimento de centros dedicados à pesquisa em computação musical e relações entre música e tecnologia, como o CCRMA, nos Estados Unidos e o IRCAM6, na França. O sistema GROOVE, desenvolvidos por Mathews e F. Richard Moore, propõe uma abordagem diferente para o uso do gesto físico com o papel do usuário modelado na figura do regente de coro ou orquestra, fundamentado em dois princípios básicos: a interpretação de gestos físicos como forma de controle sobre a geração de sons e outros processos; e o estabelecimento de um sistema de interação a partir da percepção sensorial do usuário que, segundo os autores, permitia “desempenhar tarefas mais complexas” (MATHEWS; MOORE, 1969: 715). Neste período também são introduzidos os primeiros instrumentos musicais digitais desenvolvidos para produção em série e comercialização em pequena escala, que surgem como uma opção economicamente viável para outras Universidades e centros de pesquisa, assim como para artistas ligados ao mercado de produção fonográfica e de audiovisual 7. O terceiro ciclo tem início na primeira metade dos anos 1980, quando a popularização dos computadores de uso pessoal, associada ao desenvolvimento e introdução do protocolo MIDI8 viabiliza a interação intérprete-máquina em um nível mais próximo à XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 interação intérprete-instrumento, e é marcado pelo início da produção em escala industrial de computadores pessoais e de instrumentos musicais digitais. É nesse período em que as decisões relacionadas com as estratégias de venda destes produtos no mercado consumidor passa a ter uma influência maior em seu design, o que por sua vez passa a determinar as limitações no uso com o qual o consumidor final precisa lidar. Na segunda metade da década surgem as primeiras versões de softwares cuja popularização se dá através de seu uso em computadores pessoais – como os programas Csound e Cmix9 – modificando uma cadeia criativa que até então estava vinculada ao uso de aparelhagens institucionais. Desenvolvido por volta de 1985, e comercializado a partir de 1990, o software Max foi concebido como um “ambiente computacional para a realização de música eletrônica ao vivo” (PUCKETTE, 2001: 31), combinando elementos estruturais herdados da série Music-N com o uso de uma interface de usuário baseada em gráficos, diferente do formato predominante até então, baseado em linhas de texto. Os softwares desta geração também se beneficiavam da comunicação entre módulos de hardware que o protocolo MIDI possibilitava, o que permitia que as funções de síntese sonora e processamento de sinais de áudio fossem realizadas por módulos externos, controlados pelo computador. Durante a década de 1990 observa-se a consolidação de um mercado de softwares musicais, atrelado às primeiras gerações de computadores pessoais capazes de converter, armazenar e gerenciar o processamento de sinais de áudio a partir de uma mesma máquina. Nesse período surgem as primeiras versões do formato Digital Audio Workstation, modelando o fluxo de trabalho e os equipamentos encontrados em estúdios de gravação, e também incluindo modelagens digitais de instrumentos físicos tradicionais, modificando a concepção de instrumento virtual observada nos sistemas de computação musical até então. Podemos situar na transição entre o séc. XX e o séc. XXI o início de um quarto ciclo de desenvolvimento, cujas fronteiras ainda estão um pouco difusas, mas se relacionam com a internacionalização e a popularização do uso da internet de modo colaborativo, a revisão da noção de propriedade intelectual a partir da digitalização dos processos criativos e de distribuição de conteúdo, e a mudança gradual no uso de computadores pessoais, que vão se tornando equipamentos progressivamente portáteis ao mesmo tempo em que outros XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 equipamentos de uso cotidiano, como telefones e eletrodomésticos, passam a se integrar mais e mais com sistemas computacionais. Conclusões O modelo reproduzido ao longo do período que vai dos anos 1950 até meados da década de 1980 está mais próximo de conjuntos instrumentais como a orquestra européia do que de instrumentos individuais, e a interação entre o usuário e o sistema se dá na mesma medida em que o compositor interage com a orquestra, aonde prevalece o gesto mental, e não como o executante interage com o instrumento. De acordo, o acesso aos computadores da época só era possível através instituições que possuíam condições de adquirir, acomodar e manter seu maquinário. Levando em conta que estes equipamentos eram compartilhados e precisavam suprir as demandas de outros departamentos acadêmicos, é possível também que algumas das escolhas que influenciaram o desenvolvimento de softwares e sistemas tenham sido baseadas na orquestra como uma espécie de metainstrumento a ser modelado pelo computador, como forma de limitar suas possibilidades de uso. A partir do momento em que o desenvolvimento de tecnologia nos centros de pesquisa passa a dialogar mais intensamente com o mercado consumidor de equipamentos musicais eletrônicos, a demanda por interfaces instrumentais baseadas em modelos tradicionais colabora para consolidar como formato padrão da indústria o teclado de órgão e adaptações de sua lógica10, com uma representatividade menor de interfaces modeladas em outros instrumentos. Com essa individualização do uso dos computadores e periféricos, o gesto musical físico passa desempenhar um papel de maior destaque, ainda que baseado em modelos instrumentais herdados de outros contextos, ou da organização espacial e lógica dos estúdios de gravação. No que diz respeito às linguagens, softwares e sistemas de computação musical é possível traçar um histórico de descendência no tocante à forma como estas contemplam as diversas formas do gesto musical mental, ou metafórico. Já se levarmos em conta o gesto musical em sua manifestação física, um histórico semelhante não se delineia de forma tão clara, esta sendo uma história feita de iniciativas isoladas e não raro, descontinuadas. Existe um potencial a ser explorado no sentido de buscar outras conexões possíveis entre a expressividade física do gesto no corpo do intérprete e as ferramentas de controle e de síntese XXII Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – João Pessoa – 2012 que os sistemas computacionais tornam acessíveis na atualidade. A introdução gradual, ao longo das últimas duas décadas, de ferramentas de interação baseadas em interfaces distintas do teclado QWERTY e do mouse oferecem possíveis pontos de partida para estas explorações, mas acreditamos ser necessária também uma revisão da maneira como a porção software destes sistemas entende e reage aos inputs gestuais. Agradecimento Esta pesquisa é realizada com o apoio da FAPESP - Fundação de Amparo à Pesquisa do Estado de São Paulo ( proc. nº 2008/08632-8). Referências: CHADABE, Joel. Electric Sound: The past and promise of Electronic Music. New Jersey: Prentice-Hall, 1997 DOORNBUSCH, Paul. Computer Sound Synthesis in 1951: The Music of CSIRAC. Computer Music Journal. EMMERSON, Simon. 'Live' versus 'Real-time'. Contemporary Music Review. London, Vol. 10, No. 2, pp. 95-101, 1994. GEIGER, Günter. Abstraction in Computer Music Software Synthesis. Barcelona, 2005. 104p. Tese (Doutorado em Ciências da Computação). Universitat Pompeu Fabra. IAZZETTA, Fernando. Sons de silício: Corpos e máquinas fazendo música. São Paulo, 1996. 228 p. Tese (Doutorado em Comunicação e Semiótica). Pontifícia Universidade Católica. _____________. Meaning in Musical Gesture. In: WANDERLEY, Marcelo; BATTIER, Marc. Trends in Gestural Control of Music. Paris: IRCAM – Centre Pompidou, 2000. pp. 259-268. JORDÀ, Sergi. Instruments and players: Some thoughts on Digital Lutherie. Journal of New Music Research. Local, Vol. 33, No. 3, pp. 321-341, 2004. MATHEWS, Max V. The technology of Computer Music. Cambridge: MIT Press, 1969. _____________; MOORE, F. Richard. GROOVE – A program to compose, store, and edit functions of time. Communications of the ACM. Local, Vol. 13, N. 12, p. 715-721, 1970. PUCKETTE, Miller. Max at Seventeen. Computer Music Journal. Local, Vol. 26, No. 4, p. 31-43. 2002. ZAGONEL, Bernadete. O que é gesto musical? São Paulo: Brasiliense, 1992 De acordo com a natureza do processo de ruptura, estes deslocamentos podem ser classificados como temporais, espaciais e causais. 1 Tanto na situação de escuta regular (IAZZETTA, 2000: 259), quanto na musique concrète e na música eletrônica alemã. 2 No início da década de 1950 experimentos foram realizados em universidades na Austrália – no computador CSIR Mk1 / CSIRAC, e no Reino Unido – no computador Ferranti Mark I, e seu repertório consistia na reprodução de melodias de canções tradicionais ou de temas populares na época, como “In the Mood” de Glenn Miller, “God Save the King” e a marcha militar “Colonel Bogey”, entre outras. Em ambos os experimentos utilizava-se um alto-falante já incorporado aos computadores, cuja função principal era fornecer ao usuário informações sobre o funcionamento da máquina na forma de alertas sonoros, que consistiam em pulsos elétricos simples enviados ao alto-falante (DOORNBUSCH, 2004). A definição da altura ocorria a partir do envio repetido de pulsos de acordo com a frequência resultante desejada. É possível ouvir exemplos que buscam reconstruir o processo de geração sonora do CSIRAC em: http://www.csse.unimelb.edu.au/dept/about/csirac/music/reconstruction.html, e há um registro de áudio do Ferranti Mark I feito na época pela BBC, disponível em: http://news.bbc.co.uk/2/hi/technology/7458479.stm. Acesso em 26 de dezembro de 2011. 3 Esse processo é descrito em detalhe por Mathews em seu livro “The Technology of Computer Music”, de 1969, que trata da versão Music V, já escrita em linguagem Fortran, o que facilitou seu uso em diversos outros centros de pesquisa, assim como a reescrita e a criação de outras versões do programa. 4 Apesar de outros centros de pesquisa, como a Universidade de Columbia e a Universidade de Princeton, já trabalharem com versões dos programas da série, o processo de conversão dos resultados em sinais de áudio era executado principalmente em um computador da Bell Labs, por F. Richard Moore (CHADABE, Ibidem: 113). 5 As siglas representam “Center for Computer Research in Music and Acoustics” e “ Institut de Recherche et Coordination Acoustique / Musique”, respectivamente. 6 Desenvolvidos a partir do advento dos microprocessadores, estes instrumentos adotavam em geral uma interface de usuário semelhante àquela encontrada nos sintetizadores analógicos da época, construída ao redor de um teclado de órgão e um painel de controle com chaves e botões deslizantes. Uma exceção a esta regra é o Fairlight Computer Musical Instrument, ou CMI, que dispunha também de um teclado alfanumérico e de uma caneta óptica que interagia com um monitor CRT. Essa geração marca o início de um processo de digitalização dos equipamentos voltados para o mercado de instrumentos musicais eletrônicos. 7 Apesar de suas limitações técnicas e conceituais, o protocolo MIDI tornou possível a comunicação entre computadores, interfaces de controle e sintetizadores, permanecendo até os dias de hoje como um padrão industrial sem nenhum equivalente em escala. 8 9 Desenvolvidos por Barry Vercoe e Paul Lansky, respectivamente. Como por exemplo no uso de pads percussivos de diversos tamanhos, em instrumentos como o sampler MPC60 da Akai, desenhados para serem tocados percussivamente com os dedos. 10