Sintetizadores Apostila Completa
Sintetizadores Apostila Completa
Sintetizadores Apostila Completa
htm
Nesta série de artigos abordaremos as tecnologias utilizadas nos instrumentos musicais eletrônicos.
É um assunto muito vasto e interessante, sobretudo pela sua dinâmica no decorrer dos anos, em
que os processos para a produção do som modificaram-se e aprimoraram-se de acordo com as
tecnologias disponíveis.
Faremos uma recapitulação histórica das experiências mais antigas, apresentando os produtos mais
significativos em cada época. Em seguida, mostraremos os principais processos – antigos e atuais –
utilizados para a geração de sons, e também os recursos de controle disponíveis. Finalmente,
concluiremos com uma apresentação de algumas das tendências que vêm surgindo em direção ao
futuro.
Estes artigos foram publicados originalmente na revista Música & Tecnologia em 2001
1 de 1 23/9/2008 23:14
Parte 1: Do Passado aos Dias Atuais
por Miguel Ratton
Numa época em que a Economia e a Política são sempre matérias de primeira página em quase
todos os jornais do planeta, certamente muitas pessoas devem achar que a música é algo supérfluo
e de importância secundária para a sociedade. Entretanto, se observarmos a história da
humanidade, perceberemos que, na verdade, a música sempre foi, e muito provavelmente
continuará sendo, não só um “bem” artístico, mas também um elemento diretamente ligado à
evolução dos povos.
Não é nossa intenção analisar aqui as implicações sócio-culturais da música, mas vale a pena
lembrar que nos últimos anos ela foi um fator determinante na globalização cultural, fato que muitas
pessoas costumam avaliar como “dominação”. Dentro desse enfoque, a música talvez seja a mais
direta, mais profunda e mais poderosa de todas as artes, uma vez que não precisa necessariamente
de palavras (ultrapassando os idiomas), e também atue como apoio de outras artes, como o cinema
e o teatro, por exemplo.
Um dos aspectos mais relevantes para o nosso enfoque, entretanto, é no que diz respeito ao
desenvolvimento tecnológico. Enquanto outras artes, como o teatro e a poesia, praticamente
independem do estágio de evolução tecnológica, quase sempre a música requer algum instrumento
para que possa ser transmitida ao público. Isso criou uma associação muito sólida entre a arte e a
tecnologia.
Engana-se quem pensa que a música produzida por meios eletrônicos é mais “tecnológica” do que a
produzida por instrumentos acústicos. Na verdade, ambas requerem algum tipo de tecnologia,
sendo a avaliação do grau de sofisticação uma coisa muito relativa. A construção de um piano
acústico, há mais de cem anos, requeria um enorme investimento de tempo e trabalho,
conhecimento de materiais, precisão de fabricação etc. Nos dias atuais, a criação de um sintetizador
virtual operando por software pode ser feita por um único programador, dispondo apenas de um
computador e alguns outros recursos modernos. Se pensarmos bem, em ambos os exemplos há
uma enorme aplicação de conhecimentos tecnológicos que, se avaliados pelos conceitos de cada
época, terão praticamente a mesma complexidade. Mudaram as formas de se trabalhar, em virtude
do conhecimento acumulado. Essas diferenças têm sido percebidas em vários outros setores de
nossa sociedade, como os transportes, as comunicações, e até mesmo o lazer.
Dentro dessa idéia, o que vamos apresentar são os tipos de processos tecnológicos utilizados para
se gerar sons nos instrumentos musicais eletrônicos, o que inclui tanto a tecnologia de materiais e
componentes (válvulas, semicondutores, microprocessadores etc) quanto os conceitos de operação
(síntese subtrativa, síntese aditiva, sampler etc). Paralelamente, vamos também abordar os meios
de controle, o que não só envolve a ciência dos materiais como a capacidade criativa dos seus
inventores.
Nosso artigo fará uma compilação de diversas informações, obtidas em livros, especificações,
revistas, Internet e experiências pessoais e, no final da série, apresentaremos uma lista das
principais fontes de referência.
A História
Desde que foi descoberta, a eletricidade logo causou um fascínio a inúmeros cientistas
que, rapidamente, inventaram formas variadas de aplicá-la. Mas foi somente em 1907 que surgiu a
“válvula eletrônica” (triodo), criada por Lee De Forest, que chamou-a na época de Audion. Com a
válvula, deu-se um impulso sem igual ao desenvolvimento de novos equipamentos utilizando a
eletricidade, com o rádio e uma enorme variedade de aplicações de circuitos osciladores e
amplificadores. De Forest chegou a colaborar com Tadheus Cahill na transmissão de concertos do
Telharmonium via rádio, o que não foi levado adiante porque Cahill insistia em utilizar a linha
telefônica (o que, provavelmente, foi a principal causa do insucesso do Telharmonium). O próprio De
Forest chegou a construir, em 1915, o Audion Piano, um instrumento com teclado, usando um
oscilador e a capacitância do corpo para controlar a afinação e o timbre da nota (processo
aperfeiçoado depois por Leon Termen, como veremos a seguir). Surgia, então, a era da eletrônica.
Consideraremos como primeira fase da eletrônica musical o período que vai do início do século XX
(invenção da válvula) até o final da década de 1940 (invenção do transistor). Um aspecto
interessante dessa fase está no fato de os novos instrumentos terem sido desenvolvidos em vários
países diferentes, coisa que não acontece nos dias de hoje, em que os principais lançamentos vêm
dos EUA ou do Japão, demonstrando claramente uma concentração de conhecimento tecnológico.
Em 1917, Lev Sergeivitch Termen era ainda um estudante de engenharia em
Moscou quando construiu um instrumento esquisito, que chamou de
“Aeterphone” (uma referência ao som que vinha do “éter”). Seu funcionamento
era baseado no princípio do batimento de freqüências, descoberto no início da
era do rádio: a combinação de duas freqüências altas (de rádio), uma delas
variando, pode produzir uma freqüência mais baixa (de áudio). O instrumento
de Termen, depois conhecido como Theremin, parecia um pouco como um
gramofone e possuía duas antenas, uma vertical e outra circular, horizontal.
Movendo-se uma das mãos nas proximidades da antena vertical podia-se
controlar a altura (afinação) da nota, e movendo-se a outra mão próximo da
antena circular podia-se ajustar o volume do som. O resultado, portanto, era
um som monofônico, em que o músico podia alterar a nota e a intensidade,
mas com um timbre fixo (semelhante ao violino). O instrumento foi
apresentado a Lênin, que queria difundir a eletricidade na recém criada União Soviética, e cerca de
600 unidades foram construídas e distribuídas por todo o país.
Apesar de toda a sofisticação tecnológica que trazia o som “estático” gerado pelo Hammond, era
considerado um pouco “sem vida” e, assim, logo surgiram idéias para torná-lo mais natural e
agradável. Quem trouxe a melhor solução para isso foi Don Leslie, que inventou uma caixa acústica
onde os alto-falantes de graves e agudos giravam, produzindo ao mesmo tempo, e de forma
bastante complexa, os efeitos de modulação de amplitude e de freqüência, o que dá ao som uma
sensação envolvente, característica da caixa Leslie.
Em 1948, depois de exaustivas pesquisas, surgia nos laboratórios Bell (USA) o primeiro transistor.
As conseqüências que este novo dispositivo trouxe para o mundo foram de enorme impacto, pois ele
possibilitou significativas reduções de tamanho, de consumo de energia e, sobretudo, de custo nos
equipamentos eletrônicos. Obviamente, a indústria musical logo também tratou de aproveitá-lo.
Ainda no final da década de 1940, enquanto tocava seu órgão eletrônico em casa, o norte-
americano Harry Chamberlin imaginou um instrumento que também pudesse reproduzir sons de
outros instrumentos. O gravador de fita começava a se tornar mais popular, e Chamberlin construiu
um equipamento, o Rhythmate 100, com 14 loops de fitas contendo gravações de padrões de
acompanhamento de bateria. Anos depois, já na década de 1960, passou a construir o modelo
Chamberlin 600, controlado por um teclado de 35 notas, que usava fitas de 3/8” e continha
gravações de instrumentos acústicos. Apesar de ter conseguido algum sucesso, por ser uma
novidade, o Chamberlin tinha deficiências graves em sua construção que, freqüentemente,
estragavam as fitas. Tentando obter uma solução, Chamberlin pediu ajuda a uma empresa inglesa
chamada Bradmatic que, em 1966, adquiriu os direitos de usar sua patente, e passou a produzir
novos modelos já com o nome Mellotron.
Paralelamente, Chamberlin continuou a produzir seus
instrumentos nos EUA, até a década de 1970.
Ainda que as experiências com instrumentos musicais puramente eletrônicos nunca tenham sido
interrompidas (a Yamaha começou a produzir órgãos eletrônicos em 1952), os desenvolvimentos
mais significativos utilizando tecnologia de semicondutores surgiram somente no início da década de
1960, quando dois norte-americanos começaram a experimentar o uso de circuitos eletrônicos para
a síntese de sons.
Na California, Don Buchla construiu seu primeiro sintetizador modular em 1963, encomendado pelo
San Francisco Tape Music Center, um centro de pesquisas de “musique concrète” (nome dado à
música eletrônica naquela época). O sintetizador de
Buchla gerava os sons por processo subtrativo,
possuindo vários módulos, cada qual com uma função
específica no processo de síntese (oscilador, filtro,
gerador de envoltória etc). O meio de controle era um
teclado feito com placas sensíveis à pressão do toque, e
pouco depois Buchla também desenvolveu um
seqüenciador analógico, que era capaz de memorizar
algumas notas em loop, acionando o sintetizador.
Infelizmente, o trabalho pioneiro de Buchla é pouco comentado, provavelmente, por não ter se
transformado em produto comercial. Já os instrumentos Moog dispensam qualquer comentário, uma
vez que se tornaram um marco na história dos sintetizadores, como o famoso modelo modular
usado por Keith Emerson (Emerson, Lake & Palmer) e, sobretudo, o Minimoog, que foi usado pela
maioria dos tecladistas progressivos. Todos esses instrumentos adotavam a mesma tecnologia,
usando processo de síntese subtrativa implementada por
circuitos analógicos transistorizados (alguns deles bastante
complexos, como o incomparável filtro de Moog). Outra
empresa norte-americana também pioneira na produção
comercial de sintetizadores foi a ARP, fundada pelo engenheiro
Alan Pearman, que construiu alguns equipamentos marcantes
da década de 1970, como o ARP 2600, um sintetizador
modular (síntese subtrativa) bastante poderoso, e o ARP
Strings, um teclado polifônico que gerava timbres de cordas e
metais, sintetizados também por circuitos analógicos.
A década de 1970 foi marcada pela forte entrada dos fabricantes japoneses no mercado, onde,
desde então, têm se mantido na liderança do mercado de instrumentos musicais eletrônicos, graças
ao enorme trabalho de pesquisa e desenvolvimento, aliado às condições peculiares de investimento
que existem por lá.
A Yamaha, tradicional fabricante de pianos acústicos desde 1887, e que já produzia os órgãos
Electone na década de 1970, passou também a fabricar pianos eletrônicos e sintetizadores, com
seus pequeninos SY-1 e SY-2, e depois o mais conhecido CS-80. É importante destacar que a
empresa já vinha se aprimorando tecnologicamente, com a produção de circuitos integrados (chips)
especiais desde 1971.
A Korg, que já comercializava órgãos eletrônicos (Keio Organ) desde meados da década de 1960,
em 1973 apresentou seu primeiro sintetizador, o Mini-Korg, que era monofônico, utilizava síntese
subtrativa e possuía um teclado de 3½ oitavas. Em 1975 foi lançado o Maxi-Korg, com capacidade
duofônica e, em 1977, foi lançado o PS-3100, um sintetizador modular polifônico, que não teve
sucesso comercial devido a seu alto custo.
Em 1972 foi fundada a Roland, que no mesmo ano lançou o SH-1000, o primeiro sintetizador
japonês, um teclado utilizando síntese subtrativa analógica. Em 1976 foi lançado o System 700, um
poderoso sistema modular orientado para estúdios.
3a Fase: Microprocessadores
O final da década de 1970 foi marcado pela popularização dos microprocessadores, que saíram das
aplicações militares e encontraram um vasto mercado em diversos outros setores, dentre eles a
indústria musical. Logo começaram a surgir empresas cujo perfil estava focado mais na eletrônica
digital, e não mais nos circuitos analógicos das décadas anteriores. Isso causou um desequilíbrio
muito grande na situação que estava estabelecida, criando dificuldades para as empresas mais
“tradicionais” como Moog e ARP, por exemplo, que não tinham domínio suficiente da nova
tecnologia. Nessa “nova onda”, surgiram nos EUA algumas empresas marcantes no setor de
sintetizadores.
A utilização de microprocessadores passou a ser cada vez mais intensa, e os instrumentos passaram
a ter cada vez mais recursos. No início da década de 1980 surgiu então uma nova categoria de
instrumentos musicais: o sampler. O primeiro modelo comercial foi apresentado em 1980 pela
empresa australiana Fairlight, e seu preço era cerca de 30 mil dólares na época. Uma máquina
totalmente digital, com oito vozes de polifonia, um teclado de seis oitavas, duas unidades de
disquete de 8” (para armazenamento dos sons digitalizados), e um monitor de vídeo para edição
manual na tela, com uma caneta especial. O instrumento, criado por Kim Ryrie e Peter Vogel, era
controlado por dois microprocessadores Motorola 6800, e além de ser um sampler (gravação e
reprodução digital de sons, com resolução de 8 bits), também operava com síntese aditiva. O custo
muito alto aliado a problemas
de comercialização
dificultaram o sucesso do
Fairlight, que mesmo assim
cativou vários artistas na época como, por exemplo, Peter Gabriel,
Thomas Dolby, Stevie Wonder e Kate Bush.
Estava decretado o fim dos sintetizadores analógicos, e depois de vários instrumentos “híbridos”
(geração do som digital e processamento analógico), o golpe de misericórdia veio em 1984 com o
lançamento do Yamaha DX7 que, além de ser totalmente digital, gerava o som por um processo
jamais visto antes. Depois do insucesso obtido com seu primeiro sintetizador polifônico CS80, a
Yamaha foi buscar na Universidade de Stanford a tecnologia que causou um dos maiores impactos
no mercado dos instrumentos musicais: a síntese FM, desenvolvida por John Chowning, e que
permite a criação de sons de enorme complexidade através da modulação da freqüência de uma
senóide por outra senóide de freqüência igual ou próxima. O processo foi aperfeiçoado, e a Yamaha
integrou em poucos chips toda a circuitaria necessária, o que possibilitou uma redução no custo final
de fabricação. Além da enorme gama de timbres possíveis, o que mais impressionava era a
expressividade, podendo-se ter uma mudança radical de sonoridade dependendo da força do toque
na tecla. Nada de VCOs e filtros! O DX7 ainda trazia mais inovações impressionantes: polifonia de
16 notas, teclado com sensibilidade a key velocity e aftertouch (controle de expressividade também
por sopro ou pedal), 32 memórias internas e mais 64 em cartucho, e uma das primeiras
implementações de MIDI. O DX7 teve muitos “herdeiros”, comercializados pela Yamaha por vários
anos, e a síntese FM ainda hoje é utilizada – de forma bastante simplificada – nos chips
sintetizadores que existem nas placas de som mais simples.
Para concorrer com o DX7, que talvez tenha sido um dos sintetizadores mais vendidos até hoje, a
Roland apresentou o D-50, que usava formantes de transientes de sons sampleados, misturadas a
outras formas-de-onda, e outros fabricantes também tentaram inovar de alguma forma, como o
Casio CZ 5000, que usava síntese por modulação de fase, e o Prophet VS, que usava síntese
vetorial, que depois foi adotada também no Yamaha SY-22 e no Korg Wavestation.
Ainda que os processos inovadores, como a síntese FM, permitissem a criação de timbres
impressionantes, o mercado cada vez mais pedia sons acústicos: piano, sax, cordas etc. Como os
samplers eram caros e inacessíveis para a maioria dos músicos, a saída foi fazer instrumentos com
várias amostras na memória, pré-sampleadas na fábrica (como o conceito do PPG). Nessa linha,
surgiram então inúmeros instrumentos “sample-players” que predominam até hoje. Esses
instrumentos possuem controle, geração e processamento do som totalmente digital, embora o
processo de modelagem do timbre seja a síntese subtrativa (filtros etc). Ao fim da década de 1980
já havia muitos instrumentos digitais com timbres sampleados, dentre eles o Korg M1, que
consolidou o conceito de workstation (sintetizador com seqüenciador), o E-mu Proteus, o Roland U-
110, e alguns outros.
A fase atual, a partir de meados da década de 1990, vem sendo marcada pelo aprimoramento da
qualidade das amostras sampleadas, graças ao barateamento das memórias digitais. Outra
tendência é o retorno ao controle do som em tempo-real, praticamente impossível nos instrumentos
que só tinham um visor e meia dúzia de botões: hoje, quase todos os sintetizadores vêm com
botões rotativos ou deslizantes no painel, que dão ao músico a possibilidade de ajustar com
precisão, e a qualquer momento, vários parâmetros do som que está sendo executado.
O domínio e popularização da
tecnologia de processamento digital de
sinais (DSP) também tem sido
fundamental para o surgimento de
novas empresas e produtos. Apesar de
a indústria estar cada vez mais fechada
em chips proprietários, com o
barateamento dos microcomputadores
e o aumento impressionante do seu
poder de processamento, basta ter um
bom conhecimento em DSP para se
desenvolver uma aplicação capaz de
gerar e processar sons com qualidade.
Dentro desse conceito, estão surgindo
cada vez mais sintetizadores
virtuais, que funcionam dentro do
computador, e por isso podem custar
bem menos do que seus similares
“palpáveis”. Nossa abordagem histórica
acaba aqui.
Nos próximos artigos estaremos apresentando os detalhes de cada um dos processos de síntese
mais importantes, dos meios de controle adotados, e outros tópicos relevantes ao nosso assunto.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
Neste artigo apresentamos a síntese subtrativa, assim como suas variações de implementação. Este
processo tem sido o mais usado, talvez por ser o mais intuitivo de todos.
Definição
O processo de síntese subtrativa, como o nome sugere, consegue obter as alterações de timbre através
da subtração de conteúdo harmônico de um som original. Para isso, primeiramente, é gerado no
oscilador (oscillator) um sinal contendo harmônicos que, em seguida, é aplicado a um filtro (filter)
ajustável, onde parte dos harmônicos é retirada. Esse filtro pode ser estático, atuando sempre numa
determinada porção do espectro harmônico do som, ou pode variar no tempo, produzindo alterações
diferentes no som original durante toda a sua execução. Além de subtrair harmônicos (reduzindo suas
intensidades), eventualmente, o filtro também pode dar ênfase a uma determinada faixa do espectro,
criando o efeito chamado de ressonância. O terceiro elemento do processo é o amplificador (amplifier),
cuja função é controlar a dinâmica da intensidade do som no decorrer de sua execução.
As características do sinal original gerado pelo oscilador e a forma de atuação do filtro são fatores muito
importantes para o resultado final do processo, e é por isso que alguns instrumentos podem ser mais
eficazes do que outros, e até mesmo melhores em termos de qualidade para determinados timbres. Um
exemplo clássico disso é o filtro dos sintetizadores Moog da década de 1970, que chegou a ser copiado
pela ARP (e depois abandonado por ela, pois o circuito era patenteado por Moog).
Além do oscilador, filtro e amplificador, outros elementos também são utilizados no processo de síntese
subtrativa, para que se possa ter recursos de dinâmica (envoltória) e efeitos adicionais no timbre final,
como veremos no decorrer do texto.
1
O oscilador de um sintetizador analógico (VCO - Voltage Controlled Oscilator) produz formas-de-onda
(waveforms) simples, se comparadas às dos instrumentos acústicos (veja Fig.2,
ao lado), o que torna muito difícil a reprodução de timbres convencionais por
este processo. Por outro lado, as formas-de-onda puramente eletrônicas
permitiram a criação de novas sonoridades nunca antes ouvidas, o que foi o
principal fator de sucesso dos sintetizadores, quando surgiram.
Para conseguir maior diversificação de sonoridade com os osciladores analógicos da época, os fabricantes
colocavam dois ou mais osciladores em paralelo, somando suas saídas, de forma a obter uma composição
harmônica mais complexa, a partir da adição de sinais diferentes. Outro recurso era manter esses
2
osciladores ligeiramente fora de sintonia, produzindo um batimento das freqüências, o que resultava num
som encorpado (na verdade, dessintonizar os osciladores não era muito difícil por causa da instabilidade
térmica dos circuitos; difícil mesmo era mantê-los exatamente na mesma freqüência!). Por outro lado,
como os circuitos analógicos eram imprecisos e nem sempre totalmente lineares, mesmo as formas-de-
onda “puramente” eletrônicas não eram assim tão puras, de maneira que uma onda dente-de-serra com o
pico um pouco arredondado, ou uma onda quadrada um pouco inclinada, geralmente, criavam uma
sonoridade mais interessante. Essas imperfeições é que davam aos sintetizadores antigos o som cheio (fat
sound), tão desejado hoje pelos tecladistas que usam instrumentos digitais, o que forçou os fabricantes a
um retorno no tempo, recriando os timbres vintage nos sintetizadores modernos.
Gerador de Envoltória
Uma vez gerado pelo oscilador (VCO), o som é direcionado ao filtro (VCF), onde a sua composição
harmônica é devidamente modificada. É aqui onde se pode conseguir as alterações mais drásticas,
sobretudo se o filtro puder operar em ressonância. A maioria dos filtros dos sintetizadores analógicos é do
tipo passa-baixas (low-pass filter), o que significa que ele atenua as freqüências acima de determinada
referência, deixando passar intactas apenas aquelas que estejam abaixo da referência. A freqüência de
referência para o início da atenuação é chamada de freqüência de corte, e a quantidade de atenuação a
ser imposta às freqüências que estão acima da freqüência de corte vai depender da construção do filtro,
podendo proporcionar quedas de 12, 18 ou 24 dB por oitava. A “imperfeição” analógica também aparece
na atuação do filtro, de maneira que seu comportamento é influenciado pelas eventuais não-linearidades
e instabilidades dos circuitos transistorizados (Fig.3).
Figura 3: Diagrama esquemático do filtro do Minimoog, onde se pode observar as cadeias de transistores, que lhe davam a característica
sonora peculiar
Nos filtros em que há o recurso de ressonância (ou ênfase), pode-se ajustar o ganho que será aplicado
ao sinal nas proximidades da freqüência de corte, o que criará um pico no espectro do sinal na região
próxima à freqüência de corte e, dependendo da intensidade dessa ênfase, ouvir-se-á uma característica
“sibilante” no som. Os efeitos obtidos com a ressonância do filtro foram talvez os mais marcantes no início
do uso dos sintetizadores (um bom exemplo disso é o álbum “Journey To The Centre Of The Earth”, de
Rick Wakeman).
3
Existem também dois outros tipos de filtros que podem existir nos sintetizadores: o passa-alta e o passa-
banda. O primeiro funciona exatamente oposto ao já conhecido passa-baixa, e elimina as componentes
harmônicas que estejam abaixo da freqüência de corte, resultando num som muito “fino”. Já o filtro
passa-banda só permite passar um segmento do espectro harmônico que esteja entre duas determinadas
freqüências, o que resulta um som interessante, mais usado para simular voz, por exemplo.
o Ataque (attack): É o transiente inicial do som, isto é, o tempo que o som leva para sair do “zero”
(disparado por "Note On") e atingir um ponto de máximo; é ele quem determina, por exemplo, se
um som é percussivo ou não.
o Decaimento (decay): É o tempo decorrido desde o fim do ataque (ponto de máximo) até o ponto
em que o som se sustenta no próximo estágio.
o Sustentação (sustain): Este terceiro estágio pode ser definido como um período de tempo ou
não, pois se enquanto a nota estiver sendo executada a sustentação for permanente (como num
som de órgão), o tempo poderá ser infinito; portanto o estágio de sustentação é definido mais
como um nível do que como um período.
o Reliberação (release): É o tempo que o som leva para ir do ponto de sustentação até o repouso
final (zero), e nos sons sustentados, como o órgão, é disparado quando se solta a tecla ("Note
Off").
Por causa desses quatro estágios é comum chamar o gerador de envoltória também de gerador de ADSR,
mas existem outras variações na implementação dos geradores de envoltória, desde os mais básicos, com
os quatro estágios descritos acima, até dispositivos sofisticados com seis ou mais estágios, permitindo a
criação de alguns efeitos interessantes. A decisão de um fabricante sofisticar seus geradores de envoltória
certamente está associada tanto à possibilidade de adicionar circuitos (e custos) para tal, em
contrapartida com o resultado real que se pode obter.
Figura 4: Estágios básicos de envoltória, que pode ser aplicada ao amplificador (para alterar a intensidade) e ao filtro (para alterar
composição harmônica)
Quando o gerador de envoltória é aplicado ao filtro, ao invés de controlar intensidade, ele controla a
variação do valor da freqüência de corte no decorrer da execução da nota. Nos timbres de trumpete e de
4
metais em geral, o ataque do filtro não é imediato, de forma que o som começa um pouco “fechado”, vai
ficando mais brilhante no decorrer do ataque, e depois fecha um pouco de novo, quando o som já está
sustentado. Dessa forma, para simular esse comportamento o gerador de envoltória deve ter um ataque
não muito rápido, um decaimento suave e um nível de sustentação abaixo do máximo, para que o som
durante a sustentação não fique tão brilhante quanto no ataque. A graduação exata desses tempos e
níveis é mais bem conseguida pela experimentação, ouvindo-se o resultado.
Na maioria dos filtros há também um ajuste de quantidade de envoltória (amount), que permite dosar o
quanto o gerador de envoltória irá efetivamente atuar sobre o filtro. Em alguns sintetizadores, existe
ainda a possibilidade de se inverter a polaridade do sinal do gerador de envoltória, o que irá produzir um
efeito exatamente ao contrário do que o normal. A atuação da envoltória sobre o filtro é que pode
produzir variações mais drásticas no timbre, pois faz com que a composição harmônica se altere durante
a execução da nota. Um som de piano, por exemplo, possui mais harmônicos no ataque (por isso é mais
brilhante), e vai ficando mais “aveludado” à medida que sua intensidade vai caindo. Para simular isso é
necessário ajustar adequadamente os parâmetros dos geradores de envoltória do filtro e do amplificador,
para que atuem em conjunto reproduzindo um resultado final natural e convincente.
Nos sintetizadores analógicos, o gerador de envoltória é implementado por um circuito onde a carga e
descarga de um ou mais capacitores definem os tempos de ataque, decaimento e reliberação. O sinal de
tensão gerado nesse circuito é, então, aplicado à entrada de controle de ganho do amplificador ou do
ajuste da freqüência de corte do filtro (falaremos mais adiante sobre tensão de controle).
Uma terceira atuação do gerador de envoltória trata-se de quando ele é aplicado ao oscilador. Nesse caso,
pode-se conseguir variações de afinação no decorrer da nota, como o efeito de portamento, por exemplo.
Entretanto, na maioria dos sintetizadores analógicos antigos não havia um gerador de envoltória
associado ao oscilador, e o portamento era um recurso específico.
Outros dispositivos
Além dos blocos de circuitos já descritos, o sintetizador analógico possui também outros elementos
auxiliares, de grande importância sobretudo como meios de expressividade e controle. Um deles é o LFO
(low frequency oscillator), um oscilador de baixa freqüência (cerca de 0,01 Hz a 20 Hz) que pode ser
usado como um modulador de outros blocos. Quando o LFO é aplicado ao oscilador, cria uma modulação
de freqüência, produzindo vibrato; quando aplicado ao amplificador, cria uma modulação de amplitude,
produzindo tremolo; e quando ele é aplicado ao filtro, cria uma variação cíclica de composição harmônica,
podendo produzir efeitos interessantes como o wah-wah, por exemplo. Dependendo do sintetizador, o
LFO pode possuir formas-de-onda senoidal (que produz a modulação mais suave), triangular, dente-de-
serra ou quadrada. A implementação do circuito do LFO segue os mesmos princípios já descritos
anteriormente sobre o oscilador principal. A quantidade de modulação aplicada pelo LFO em geral é
ajustada por um controle específico denominado modulation wheel, que nos sintetizadores Moog e
Prophet é implementado por uma “roda” de controle que aciona um potenciômetro, enquanto que nos
sintetizadores EMS e Polyfusion a modulação é controlada por um bastão de joystick. Em alguns
sintetizadores, como o Prophet-5, o destino do sinal do LFO pode ser selecionado pelo músico.
Outro dispositivo de controle é o pitchbend, que atua sobre a freqüência gerada pelo oscilador, permitindo
ao músico variar para cima ou para baixo a altura da nota. Na maioria dos sintetizadores analógicos ele é
uma roda, semelhante ao modulation wheel, e mantém sua posição de repouso no centro, por meio de
uma mola (alguns sintetizadores utilizam também um joystick, ao invés da roda). A intensidade da ação
do pitchbend geralmente pode ser ajustada pelo músico.
Em quase todos os sintetizadores analógicos produzidos entre 1960/1980, os módulos de circuitos eram
controlados por tensão (voltage-controlled), e por isso o oscilador, o filtro e o amplificador eram
designados, respectivamente, como VCO (voltage-controlled oscillator), VCF (voltage-controlled filter) e
VCA (voltage-controlled amplifier). Essa concepção veio dos primeiros sintetizadores realmente modulares
(Moog, Buchla, E-mu), onde os módulos eram montados num grande painel e interligados por meio de
cabos. Dessa forma, para se “programar” um novo timbre, era necessário refazer as conexões físicas dos
cabos entre os módulos, assim como os devidos ajustes de parâmetros. Esses cabos são chamados de
patch-chords; e é daí que vem o nome patch, usado até hoje para se designar uma programação de
timbre.
O uso de tensões de controle tinha vantagens e desvantagens. Uma das vantagens nos sintetizadores
5
modulares era a possibilidade de se ligar a saída de um módulo a outro, o que permitia inúmeras
combinações de arquitetura dos módulos. Mas havia algumas complicações técnicas, como no caso do
VCO.
Variações de Temperatura
Se o VCO respondesse linearmente à tensão de controle para gerar as freqüências das notas musicais,
caso a faixa de tensões de controle fosse, por exemplo, de 0 a 10 volts para se variar a freqüência de 20
Hz a 20 kHz, então o ajuste das notas mais graves no VCO teria que ser feito por uma tensão da ordem
de dezenas de milivolts, com uma diferenças de cerca de 5 mV entre duas notas graves. Enquanto que
para as notas mais agudas a tensão de controle teria que ser da ordem de 8 volts, com uma diferença de
meio volt para duas notas. A solução foi adotar um conversor linear/exponencial, onde a variação linear
da tensão de controle (0 a 10 volts, por exemplo), faz a freqüência do VCO variar exponencialmente
dentro do espectro de áudio. Quase todos os fabricantes adotaram o padrão “1 volt / oitava”, onde a cada
aumento de 1 volt na tensão de controle o oscilador dobra sua freqüência. Isso facilitava bastante a
implementação do circuito do teclado, do pitchbend, portamento, LFO etc., pois bastava adicionar um
valor fixo de tensão para se obter a mesma variação de intervalo musical, independente da nota que o
oscilador estiver gerando (ou seja, um aumento de 83 mV faz a freqüência do VCO subir um semitom,
qualquer que seja a nota que ele estiver tocando). O difícil era construir um conversor linear/exponencial
estável, pois para conseguir a tal curva exponencial, os circuitos tinham que utilizar transistores operando
em condições críticas em relação a variações de temperatura Por isso, os primeiros sintetizadores
analógicos tinham grandes problemas de estabilidade térmica. Posteriormente, com o surgimento de
circuitos integrados mais sofisticados e mais adequados a essas aplicações, esse problema acabou sendo
minimizado bastante (mas aí os circuitos digitais e microprocessadores já estavam começando seu
domínio – e isso é uma outra história!)
Uma das maiores limitações dos sintetizadores analógicos mais antigos era o fato
de eles serem monofônicos, isto é, só podiam gerar uma nota de cada vez, e,
portanto, a estrutura que detalhamos acima – chamada de voz do sintetizador –
era utilizada para produzir apenas uma única nota (e só havia uma estrutura
dessas). Além do custo, havia também uma limitação técnica para isso, pois os
teclados eram implementados com contatos auto-exclusivos em que ao se
pressionar uma tecla as demais eram desabilitadas (veja Fig.5, ao lado), o que só
foi resolvido com o uso do gerenciamento digital das teclas ativadas no teclado
(keyboard scanning). Ao se pressionar uma tecla, era direcionada ao VCO a tensão
fixa de controle (CV – control voltage) correspondente àquela nota, e ao mesmo
tempo era enviado aos geradores de envoltória um pulso de disparo (trigger).
6
Figura 6: Data Sheet dos chips CEM 3340 e 3345 produzidos pela Curtis na década de 1970/80. Esses chips vinham com um VCO completo,
com conversor exponencial, compensação térmica e três opções de formas-de-onda
A tecnologia foi evoluindo e idéias foram se tornando realidade. A empresa norte-americana E-mu (hoje
associada à Creative Labs), projetava e construía enormes sintetizadores modulares semelhantes aos
famosos Moog e, em 1973, desenvolveu e patenteou um teclado onde as várias notas simultâneas
pressionadas pelo músico podiam ser detectadas por um circuito de varredura (scanning) digital,
possibilitando passar as informações de cada uma a vários circuitos de geração de som (vozes) e a
produção de mais de uma nota ao mesmo tempo. Surgia, então, o sintetizador polifônico.
Os primeiros sintetizadores polifônicos foram produzidos pela Oberheim, que licenciou o teclado da E-mu
para usar em seus modelos polifônicos “4-Voice” e “8-Voice” e possuíam, respectivamente, 4 e 8 módulos
básicos de voz Oberheim SEM (Synthesizer Expander Module), controlados pelo teclado da E-mu. Cada
módulo SEM tinha dois VCOs, um VCF, um VCA, dois geradores de envoltória e um LFO. Além da
Oberheim, o circuito do teclado da E-mu também foi licenciado para a Sequential Circuits, que o incluiu
em seu famoso Prophet-5. Com a disponibilidade dos chips analógicos da Curtis e SSM e o uso da
tecnologia digital para gerenciamento de teclado, os sintetizadores monofônicos foram gradualmente
substituídos por máquinas com cada vez mais vozes de polifonia. Em contrapartida, os sistemas
modulares – onde o percurso do sinal era essencialmente monofônico – transformaram-se em verdadeiros
“dinossauros”.
À medida que a tecnologia digital foi barateando, a partir da metade da década de 1970, os
microprocessadores tomaram conta definitivamente da indústria de sintetizadores. Além de instrumentos
novos e melhores, uma outra mudança acontecia no mercado: empresas “tradicionais”, como a Moog e
ARP, que não investiram adequadamente nessa nova tecnologia, deram lugar aos novos talentos que
tinham o domínio dos microprocessadores, como a Sequential Circuits, por exemplo. E até o início da
década de 1980, houve um pequeno período transitório dos instrumentos híbridos onde os “velhos”
circuitos analógicos de geração de sons conviveram junto com a tecnologia de controle digital (Fig.7).
O exemplo clássico desta fase é o Prophet-5, considerado o primeiro sintetizador polifônico com
armazenamento de programa. Ele possuía 61 teclas (não sensitivas), cinco vozes de polifonia e uma
estrutura de síntese analógica subtrativa, baseada nos VCOs, VCFs, VCAs e ADSRs dos chips da SSM
(substituídos depois pelos da Curtis). No painel havia botões rotativos para ajuste direto dos parâmetros
de cada módulo, além de rodas de pitchbend e modulation. Um microprocessador Zilog Z-80 de 8 bits era
o responsável pelo acionamento das cinco vozes a partir das notas executadas no teclado, bem como da
alteração dos parâmetros em cada elemento de cada voz, a partir do ajuste dos botões do painel. A
grande inovação era a possibilidade de se memorizar até 40 programações de painel (depois expandida
para 120, com possibilidade de se transferir digitalmente o conteúdo da memória para um gravador
cassete).
7
Figura 7: Diagrama de uma parte do sintetizador híbrido Sequential Pro-One, onde um microprocessador (A) gerencia teclado, botões do
painel, etc, e envia os comandos de tensão para os chips de geração de som e moduladores (B)
Até o início da década de 1980, o uso da tecnologia digital nos instrumentos musicais foi parcial, mais
focalizada no controle e gerenciamento do que na síntese propriamente dos sons. Não por vontade dos
projetistas, mas sim porque ainda não era viável sintetizar por processos digitais. Apesar de muitas
pesquisas no campo da síntese digital desde a década de 1970 (incluindo a da síntese FM, que veremos
em outro artigo), o custo de implementação de um sintetizador digital naquela época era impraticável,
sobretudo para as empresas norte-americanas, quase sempre descapitalizadas e operando nos limites de
suas finanças.
A partir de então, os japoneses começaram a investir mais pesado em integração de componentes para a
síntese de sons em seus instrumentos, e um
outro exemplo de teclado híbrido é o Korg
Poly-800, muito popular no Brasil na década
de 1980, que também usava um processador
Z-80 para controlar o sistema e gerenciar as
memórias de programas. A geração de som
nas suas oito vozes, no entanto, era feita por
contadores digitais (designados como DCO –
Digital Controlled Oscillator), com o
processamento analógico feito por chips
dedicados. A implementação de sintetizadores
com circuitos analógicos foi ficando cada vez
mais complicada e cara à medida que os
músicos exigiam mais polifonia, o que requeria circuitos extras com VCOs, VCFs e VCAs, mais placas de
circuitos etc. A solução parecia estar, definitivamente, na tecnologia digital.
Na síntese subtrativa digital, ao invés de se ter os tradicionais circuitos de VCO, VCF, VCA e os respectivos
geradores de envoltória, o sinal é gerado digitalmente e flui por canais digitais de DSP, que se
encarregam de efetuar as alterações de amplitude e composição harmônica. Na grande maioria dos casos,
a forma-de-onda é uma amostra digital (sample) de um som, devidamente armazenada na memória;
essa amostra é lida e processada digitalmente por um ou mais chips de DSP. Hoje, cada fabricante possui
8
seus próprios chips dedicados, otimizados para cada projeto, e por isso é muito difícil hoje alguém
construir um sintetizador em casa, como era possível no passado, mesmo havendo chips de DSP
genéricos comercializados por empresas de semicondutores e que podem ser adquiridos em lojas
especializadas. Entretanto, o aumento da velocidade dos computadores já permite o uso de algoritmos de
DSP por software, o que tem propiciado a criação de “sintetizadores virtuais” no computador. Mas isso
será assunto para um artigo futuro.
Nesta corrida tecnológica sobreviveram as empresas que tiveram não só domínio da tecnologia digital,
mas também capacidade de investimento pesado em chips dedicados. Ou seja, no cenário atual da
indústria de instrumentos musicais (excluindo os “virtuais”) só há espaço para aqueles que podem investir
pesado em tecnologia.
Os sintetizadores que utilizam amostras digitais como formas-de-onda são também chamados de sample
players, e como as formas-de-onda não são mais sinais de tensão, como nos osciladores analógicos, mas
sim dados armazenados numa tabela da memória, esses sintetizadores são também chamados de
sintetizadores de wavetable.
Figura 9: Diagrama em blocos da estrutura de síntese do Alesis QSR, onde todo o processo é efetuado digitalmente. O bloco "Voice" é o
gerador de forma-de-onda, que utiliza amostras digitais ("samples") armazenadas na memória.
O uso da tecnologia digital trouxe várias melhorias à síntese subtrativa. As mais evidentes são as
possibilidades de mais formas-de-ondas a partir de amostras digitais e a precisão e estabilidade de
afinação, que era o terror dos tecladistas da década de 1970. A redução drástica do “custo por voz” nos
sintetizadores modernos também é uma vantagem inegável. Por outro lado, a tecnologia digital trouxe
também algumas desvantagens. O uso de números “discretos” era um grande entrave a um processo que
sempre teve como princípio a continuidade, e em alguns dos sintetizadores digitais mais antigos o
portamento soava como uma “escadinha” de freqüências. Felizmente, isso vem melhorando com o
aumento da resolução de bits, e os sons e efeitos vêm ficando mais reais a cada ano que passa. Os
primeiros sintetizadores digitais também compensavam os custos economizando botões (e conversores)
no painel, e por isso programar um timbre requeria um sem-número de acessos a Pages, Parameters e
Values. Isso desanimou muita gente a programar timbres, e deu origem a uma guerra de números entre
os fabricantes, onde o marketing acabou sendo a quantidade de timbres, e não a qualidade. Mas isso
também tem melhorado, e os sintetizadores mais modernos já oferecem painéis com pelo menos uma
meia-dúzia de botões rotativos para controle direto dos parâmetros principais.
Embora outros processos digitais também venham sendo usados, como veremos em outros artigos, a
síntese subtrativa ainda é a mais “amigável” para o usuário, talvez pelo seu histórico. No entanto, mesmo
usando tecnologia digital, ela possui limitações, sendo que a principal diz respeito à expressividade
dinâmica. Embora o gerador de envoltória associado ao filtro possa criar nuances de conteúdo harmônico,
sua atuação é limitada quando comparada ao que se pode ter em processos de síntese aditiva ou síntese
FM. Outra desvantagem é o consumo excessivo de memória requerido para amostras de alta qualidade, o
que encarece o preço do equipamento.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
9
Parte 3: Síntese Aditiva
por Miguel Ratton
A síntese aditiva é um dos processos mais antigos utilizados para a implementação de instrumentos
eletrônicos. Ela foi usada no Telharmonium, ainda no século XIX, e também no famoso órgão Hammond.
É um dos processos de síntese mais poderosa, apesar da sua implementação e operação serem muito
complicadas.
Para que se possa entender o processo de síntese aditiva, é preciso primeiro conhecer alguns conceitos
básicos sobre a composição do som.
De acordo com o teorema do matemático francês J.B. Fourier, qualquer forma-de-onda pode ser
expressada como a soma de uma série de sinais senoidais – chamada de série de Fourier – onde cada
sinal possui seus coeficientes específicos de freqüência,
amplitude e fase.
No processo de síntese aditiva, no entanto, desde que se tenha o controle separado de cada harmônico,
modelando-os com osciladores senoidais individuais, pode-se criar as variações reais de composição
harmônica de qualquer som. O grande problema da implementação da síntese aditiva é justamente a
complexidade desse controle individual de harmônicos.
1
Processos primitivos de síntese aditiva
Um instrumento muito popular que permite trabalhar com síntese aditiva é o famoso DX7, da Yamaha.
Embora seu esquema de síntese seja baseado em modulação de freqüência (FM; veremos com detalhes
em outra oportunidade), é possível gerar timbres com total controle de até 6 harmônicos, usando-se o
2
algoritmo 32, onde os seis operadores estão alinhados, de forma que seus sinais são somados: se eles
forem ajustados adequadamente para gerar freqüências harmônicas, tem-se então um processo de
síntese aditiva limitado a seis harmônicos, mas bastante interessante. Com esse algoritmo, pode-se gerar
sons de Hammond bastante realistas. Talvez um dos melhores exemplos atuais de síntese aditiva seja a
série Kawai K5000. Ele permite processar individualmente 128 harmônicos, podendo-se configurar a
envoltória de amplitude de cada harmônico (Fig.6). Isso permite a criação de texturas bastante ricas,
mesmo com durações muito longas.
Como já foi dito acima, o grande problema da síntese aditiva é a sua complexidade de edição, em
comparação com o já tão difundido processo subtrativo. Isso explica a dificuldade de penetração no
mercado que tem o Kawai K5000 que, apesar de sua poderosa máquina de síntese, é um instrumento
complicado para o usuário comum.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
3
Parte 4: Síntese FM
por Miguel Ratton
Quem nunca ouviu falar no sintetizador DX7, da Yamaha? Na década de 1980, ele era o sonho de todo
tecladista por causa de sua sonoridade tão diferente dos demais teclados, que usavam circuitos
analógicos de VCO, VCF e VCA. O segredo por trás dos timbres do DX7 era um processo de síntese
inovador e poderoso: a síntese FM.
Seria injusto falar da síntese FM sem mencionar John Chowning, o homem responsável pela sua utilização
musical. Nascido em New Jersey, em 1934, ele formou-se na Universidade de Stanford, na Califórnia,
onde participou do desenvolvimento de um dos primeiros softwares para aplicações musicais, ainda em
1964, junto com Max Mathews, da Bell Labs. Em 1967, Chowning descobriu o princípio da síntese por
modulação de freqüência (FM), cujos detalhes veremos mais adiante. Suas pesquisas despertaram o
interesse da Yamaha e, em 1973, Chowning começou a colaborar com a empresa no desenvolvimento de
um instrumento inovador voltado para o grande público. Os primeiros instrumentos da Yamaha com a
síntese FM foram os GS1 e GS2, logo no início da década de 80, que pouco interesse despertaram na
época.
DX7, a lenda
Uma das razões para a viabilidade do projeto DX7 foi a integração dos componentes necessários para o
processo de síntese do som, feito por dois chips proprietários da Yamaha (YM2128 e YM2129). Foi outro
impacto na época, pois enquanto nos sintetizadores analógicos havia uma enorme quantidade de placas,
transistores e chips, dentro do DX7 há poucos componentes discretos e muita integração.
Com o direito de uso da patente da síntese FM de Chowning, a Yamaha lançou vários outros instrumentos
com a mesma tecnologia, uns mais complexos, outros mais simples. Atualmente, a Yamaha ainda
comercializa chips de síntese FM (YMF715 e YM2413), usados por outras empresas nos sintetizadores
embutidos em placas de áudio não profissionais.
1
Entendendo a síntese FM
Embora seja capaz de gerar timbres de extrema complexidade harmônica, o processo de síntese de sons
por modulação de freqüência (FM) baseia-se num princípio relativamente simples.
Imagine um oscilador OSC1 gerando um sinal com freqüência de áudio, digamos 440 Hz, e um oscilador
OSC2 gerando um sinal com freqüência de 100 Hz. Se o sinal de OSC2 for injetado em OSC1 de tal forma
que faça a freqüência de OSC1 variar
ciclicamente, temos então uma modulação de
freqüência.
A partir desse princípio, a Yamaha criou uma estrutura sofisticada de osciladores atuando interativamente
como moduladores e portadores e conseguiu então sintetizar timbres de características inusitadas,
impossíveis de serem gerados pelos processos disponíveis na época (síntese subtrativa analógica).
Operadores DX
2
Quando o sinal de saída de um operador DX é injetado à entrada mod de outro e os osciladores de ambos
estão gerando freqüências iguais ou muito próximas, a saída do segundo operador terá um sinal
resultante de forma-de-onda complexa. Se a envoltória do primeiro operador DX determina que a
intensidade do sinal deste varie no decorrer do tempo, então ao se injetar esse sinal na entrada de
modulação do segundo operador DX, a saída resultante será um sinal com forma-de-onda complexa e
variando no decorrer do tempo. É muito difícil representar graficamente o que ocorre na realidade, mas os
timbres que se pode obter com essas variações de sinal são fantasticamente ricos e expressivos.
Se a relação entre as freqüências moduladora e portadora for um número inteiro, o som resultante terá
uma composição harmônica normal, com harmônicos inteiros. Caso contrário, terá sons metálicos, com
alguns componentes não múltiplos inteiros da fundamental. Isso permite efeitos interessantíssimos,
similares a ring modulation.
Você agora deve estar se perguntando: Mas se o DX7 é tão incrível assim, então por que não a síntese FM
não é mais usada nos sintetizadores atuais? Bem, apesar de toda a expressividade e das sonoridades
inusitadas, a síntese FM não é a mais adequada para a geração de sons acústicos, como pianos, violinos e
outros timbres que são obtidos mais facilmente por processo de reprodução de amostras (sample player).
Além disso, a programação de um timbre na síntese FM não é um processo tão previsível como na síntese
subtrativa (até porque envolve muito mais parâmetros), o que desencorajou a maioria dos usuários a
criar seus próprios timbres. Somando a isso as forças do mercado (é preciso lançar novas tecnologias!), e
também o cansaço que se teve com a massificação de determinados timbres característicos do DX7
(sampleados por todos os outros sintetizadores até hoje), o DX7 passou a ser considerado um
instrumento obsoleto. Mas a pior – e injusta – imagem que acabou tendo a síntese FM foi a sonoridade
horrível dos FM Synth existentes nas placas de som baratas, que fizeram muita gente acreditar que
síntese FM é aquela porcaria.
3
Felizmente, como o obsoleto acaba virando cult (vide Minimoogs, Hammonds e outras maravilhas
antigas), já começa a haver novamente interesse pelos velhos DX7 (e existem muitos ainda em excelente
estado). A própria Yamaha oferece uma placa de expansão com a síntese do DX7, que pode ser instalada
em quase todos os modelos de sua linha atual de sintetizadores (S30, CS6X, Motif).
Síntese FM virtual
Para aqueles que não têm acesso a um sintetizador DX, existem algumas
opções virtuais de softwares que simulam o processo de síntese FM. O mais
conhecido é o Sound Forge, que além de ser um poderoso editor e gravador de
áudio, oferece um recurso de síntese FM simplificada, com quatro operadores.
Embora não seja um verdadeiro instrumento, ele pode ser usado para
experiências e simulações.
Com a revolução sonora criada pelo DX7 na década de 1980, outros fabricantes trataram de pesquisar
meios de conseguir novos timbres. A Casio, por exemplo, lançou na época a série CZ, que utilizava
síntese por modulação de fase (phase modulation – PM). O processo consistia em alterar a forma-de-onda
original de um sinal variando a sua fase, o que, no final das contas, é muito semelhante à modulação de
freqüência da síntese FM. Os recursos dos sintetizadores CZ, no entanto, não chegavam a ser tão
impressionantes quanto os do DX7, e apesar de ter tido até um relativo sucesso de vendas, a Casio logo
desistiu do mercado de sintetizadores.
Apostando mais fichas no que deu certo, no final da década de 1980 a Yamaha lançou com a série SY um
aperfeiçoamento da síntese FM, chamada de Advanced FM (AFM). Baseada no chip OPS3 (YM7107), a
novidade era que os osciladores dos operadores DX podiam usar tanto um sinal senoidal quanto uma
amostra digital (sample). Isso possibilitava a criação de timbres ainda mais impressionantes. Além disso,
havia agora três loops de realimentação para cada operador, e a quantidade de algoritmos foi aumentada
para um total de 45. O teclado SY77 foi apresentado como uma super máquina de síntese com várias
outras melhorias nos geradores de envoltória, dois processadores de efeitos, 16 partes timbrais,
seqüenciador interno, etc e tal.
Quem quiser, pode apanhar (de graça!) alguns timbres que criei há alguns anos para o DX7 e o SY55, e
que estão disponíveis na seção Suporte / Download. A propósito, tenho ainda meu velho DX7,
funcionando perfeitamente há mais de quinze anos.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
4
Parte 5: Samplers
por Miguel Ratton
Os samplers trouxeram uma nova perspectiva no uso dos instrumentos musicais eletrônicos,
possibilitando copiar e, principalmente, alterar sons que já existiam nos instrumentos convencionais.
Como vimos em outros artigos desta série, as primeiras tentativas de se dispor de sons acústicos num
instrumento eletrônico surgiram há mais de 40 anos, com o Chamberlin, e posteriormente o Mellotron.
Esses equipamentos usavam a tecnologia de registro sonoro (gravação) disponível na época, que era a
fita magnética, e obviamente sofriam dos inevitáveis problemas de desgaste mecânico, sujeiras nas
cabeças magnéticas, fitas amassadas, etc. É bom lembrar também que o Mellotron não permitia ao
músico criar seus próprios timbres, pois eles vinham gravados da fábrica. Mas eles tinham a vantagem de
ser instrumentos polifônicos e, apesar de todos os inconvenientes, as bandas de rock progressivo
atravessaram pelo menos uma década inteira com seus Mellotrons, até surgirem as novas tecnologias.
Embora atualmente os samplers sejam menos usados como samplers e mais como “players”, pois a
maioria dos músicos prefere carregar sons prontos, ao invés de produzir seus próprios timbres, o principal
objetivo do sampler seria possibilitar ao músico gerar suas próprias fontes sonoras, e a partir delas criar
sonoridades inéditas. Isso até que foi bem explorado na “infância” dos samplers digitais, quando os
próprios artistas reservavam parte de seu tempo e criatividade na árdua tarefa de digitalizar sons
acústicos e ambientais (ex: Jean-Michel Jarre, em “Zoolook”). Até que começaram a surgir empresas
especializadas, com estúdios acusticamente adequados e equipados com os melhores microfones, que
passaram a produzir álbuns de samples em CD-ROMs compatíveis com os formatos de quase todos os
samplers do mercado. O lado positivo foi o ganho de qualidade que se teve nos samples; o negativo foi o
afastamento cada vez maior do artista do processo de geração sonora no sampler, desperdiçando assim
os enormes recursos que dispõe num instrumento ainda tão caro.
O processo de sampling
O termo “sampler” significa amostrador, e nesse caso refere-se a um equipamento que registra amostras
(“samples”) digitais de um som, para serem usadas posteriormente. Em linhas gerais, o sampler digital é
um equipamento capaz de gravar (digitalmente) um som qualquer, editá-lo e armazená-lo na memória,
para ser executado posteriormente, sob o controle de um teclado ou um seqüenciador MIDI.
Para gravar um som no sampler, basta conectar à sua entrada de áudio um microfone (ou uma outra
fonte de sinal, como um toca-discos de CD, por exemplo) e iniciar o processo de digitalização, que é
efetuado pelo conversor analógico/digital do sampler. Nesse momento, o som já digitalizado é
armazenado então na memória interna do sampler, onde é devidamente processado e configurado para
ser uma forma-de-onda (“waveform”) utilizável na edição de timbres, daí então um processo igual ao dos
sintetizadores digitais convencionais que utilizam síntese subtrativa, que dará o resultado final, ou seja,
um timbre que pode ser controlado por um teclado ou por um seqüenciador MIDI.
1
A principal diferença do sampler para um sintetizador comum é que as formas-de-onda não estão fixas na
memória, e podem ser carregadas pelo usuário. Isso faz do sampler um equipamento dependente da
qualidade das amostras que nele serão colocadas (sampleadas pelo próprio usuário ou carregadas a partir
de CD-ROMs criados por empresas especializadas). O sampler é, portanto, um instrumento extremamente
flexível e “atualizável”, pois a parte principal - os timbres - podem ser trocados desde a fonte,
diferentemente de um sintetizador que possui formas-de-onda fixas, para sempre.
Estando a amostra na memória, é necessário ajustá-la adequadamente para que possa ser usada. Um dos
aspectos mais importantes a se entender no processo de sampling é quanto à faixa utilizável de uma
amostra. Todo som natural (voz humana, violino, etc) possui uma característica chamada de “formante”,
que delineia as amplitudes dos harmônicos presentes em seu espectro de freqüências, conforme um
padrão próprio. Essa formante está diretamente associada ao dispositivo físico onde o som é gerado
(corpo do violino, estrutura da laringe, etc). Isso faz com que mesmo notas de alturas diferentes tenham
um contorno bastante similar nas amplitudes do espectro.
Na a seguir podemos observar o que foi descrito acima. O diagrama A mostra o espectro de freqüências
produzido pela nota Lá 3 de um violino. A formante (representada pela linha vermelha), nesse caso,
mostra algumas ênfases, principalmente nas proximidades das freqüências de 4.300, 8.700 e 12.000 Hz.
O diagrama B mostra o espectro de freqüências produzido pela nota Lá 4 do mesmo violino. Observe que
sua formante mostra praticamente as mesmas ênfases da nota Lá 3. Este exemplo deixa claro que, nos
sons naturais, as características de amplitude do espectro são fixas, de acordo com uma formante
própria, não se alterando com a altura do som.
Se tentarmos usar a nota Lá 3 para gerar a nota Lá 4, efetuando uma transposição por processamento
digital (dobrando a freqüência por meio de um recurso simples de “pitch shifting”), teremos uma nota Lá
4 com um espectro de freqüências obedecendo a uma formante completamente diferente da original
daquele violino (diagrama C). Na prática, isso fará com que o som dessa nota Lá 4 soe estranho (ainda
que com características de violino). Isso é bastante perceptível quando se aumenta a velocidade de um
2
gravador de fita (será que alguém ainda tem um?) ou aumentando a sampling rate na reprodução do som
digital. Se a gravação original contém voz, por exemplo, o resultado será bem engraçado, com a
característica de “voz de pato”.
Além da deterioração da formante, podem ocorrer também outros problemas ao se transpor uma
amostra. O efeito de vibrato, por exemplo, que se caracteriza por uma leve modulação na freqüência do
som, da ordem de 5 Hz, pode se tornar irritante ao se transpor a amostra para o dobro da freqüência.
Outros efeitos, como os ataques de metais, o ruído de sopro de uma flauta, e mesmo a reverberação
acústica presente na amostra, podem ser totalmente descaracterizados após uma transposição
acentuada.
Por isso, para se samplear um som natural, é necessário fazer várias amostragens, evitando-se ao
máximo o aproveitamento da amostra de uma nota para as demais. Esse processo é chamado de
“multisampling”, e associa uma amostra a um pequeno grupo de notas (veja figura a seguir). Idealmente,
cada nota deveria ter sua própria amostra, mas como a quantidade de amostras está diretamente
associada à capacidade de armazenamento de memória, que custa caro, os fabricantes têm que encontrar
uma relação viável entre o custo (número de amostras) e a qualidade, para poder colocar seu
equipamento no mercado.
Existem algoritmos sofisticados de pitch-shifting que permitem fazer grandes alterações da freqüência da
amostra sem que haja uma deterioração perceptível da formante. Um exemplo disso é a tecnologia
Variphrase da Roland. A aplicação mais evidente do processo de multisampling são os kits de bateria e
percussão, onde cada tecla (nota) está associada a um único timbre, composto por sua própria amostra.
Manipulando as amostras
Para conseguir uma redução ainda maior da ocupação de memória pelas amostras, os samplers utilizam o
recurso de looping. A figura a seguir mostra a onda sonora de uma nota de piano acústico. A porção inicial
(attack) é uma das partes mais importantes para a caracterização do som do piano. O restante da
amostra é quase que uma repetição sucessiva de uma determinada forma de onda, com as variações
dinâmicas de amplitude (decay, sustain, release).
A forma mais econômica de se armazenar uma amostra, portanto, é ter a parte inicial (attack) e alguns
ciclos do restante, que é o trecho de loop - delimitado pelos pontos de “loop start” e “loop end”, e que
será repetido enquanto o som estiver sendo executado.
Para que o corte da amostra seja feito de forma a não ser percebido, os pontos de início e fim de loop
devem ser posicionados onde a onda corta o eixo zero (“zero crossing”), para que, ao repetir o loop, a
junção entre esses dois pontos seja suave (sem cliques).
3
Para recriar a dinâmica dos estágios de decay, sustain e release, o sampler possui um gerador de
envoltória igual ao de um sintetizador comum, onde são ajustados os devidos tempos e níveis. Para
recriar a redução natural da composição harmônica do timbre no final da sua execução (estágio de
release), geralmente é usado um filtro passa-baixa controlado por outro gerador de envoltória, num
processo de síntese subtrativa idêntico ao já descrito no artigo publicado anteriormente.
Uma das grandes dificuldades para a simulação de timbres acústicos é conseguir as várias nuances de
timbre que existem de acordo com a dinâmica que se toca. Num piano, por exemplo, dependendo da
força que se toca, a forma-de-onda pode variar bastante, e é difícil simular essas variações somente com
o uso de filtros. Para obter um maior realismo, geralmente são usadas duas ou mais amostras, cada uma
registrando uma situação diferente de toque. Dessa forma, quando o músico toca com pouca força
(gerando valores baixos de key velocity), o sampler utiliza a amostra de toque fraco, e quando ele toca
com muita força (gerando valores altos de key velocity), o sampler utiliza a amostra de toque forte. Para
obter uma variação gradual entre a amostra de toque fraco e a amostra de toque forte, para níveis
intermediários de toque, os samplers adotam um recurso chamado de “velocity-fade”, em que as
amostras de toque fraco e toque forte são mixadas, dosando mais uma ou outra amostra, conforme a
força do toque.
Novas tendências
Com a explosão da dance-music, remix e gêneros afins, os fabricantes passaram a oferecer recursos
orientados para a manipulação e edição samples com loops de batidas (drums & bass, etc). Alguns
samplers podem detectar e marcar automaticamente os tempos da batida do loop, dividi-lo em seções
que podem ser rearranjadas. Outros, como o novo Yamaha Motif, possuem seqüenciadores MIDI
integrados com o sampler, de forma que os trechos dos loops de áudio podem ser totalmente ajustados
em andamento e afinação junto com as trilhas de MIDI.
Uma das grandes inovações da última década foram os “software synthesizers”, isto é, instrumentos
sintetizadores implementados dentro do computador, com o processador deste atuando como DSP, e
usando a placa de áudio apenas como interface de saída. O primeiro sampler de computador, o Digidesign
SampleCell, era ainda um sistema híbrido constituído de uma placa com DSP e um software controlador.
Posteriormente, com o aumento da capacidade de processamento dos computadores, todas as funções de
sampler passaram a ser executadas pelo computador, sem a necessidade de uma placa específica. Um
dos mais populares softwares de sampler é o Gigasampler que, mesmo com algumas incompatibilidades
de drivers, é um dos instrumentos mais usados nos estúdios computadorizados.
Para orçamentos mais apertados, há ainda a opção dos SoundFonts, que é um padrão para o
armazenamento de samples, suportado pelas placas SoundBlaster Live! e outras similares (ex: Diamond
MX). Com uma placa dessas, é possível usar samples de boa qualidade sem pagar muito caro. Existem
inúmeros sites na Internet que disponibilizam samples em SoundFonts, de todo o tipo de material. A E-
mu, por exemplo, comercializa um kit de CD-ROMs com todos os timbres da linha Proteus para serem
usados na SoundBlaster. E são realmente bons, acredite.
4
Características práticas
Formato das amostras: Com a popularização dos softwares samplers e dos softwares gravadores de
áudio que trabalham com loops, o suporte a vários formatos passou a ser um item importante para os
samplers. Hoje, os bons samplers podem ler arquivos em formato WAV (padrão de áudio do Windows),
AIFF (padrão do Mac), Roland S-700 (um dos samplers mais populares das décadas de 1980/90), e Akai
série S (os mais baratos do mercado).
Recursos de edição: Além das operações básicas de edição de amostras, como corte e colagem de
trechos com recursos de truncagem e acerto do corte (zero-crossing), o sampler pode permitir também
processamentos mais sofisticados, como ajuste de tamanho (time-compression), ajuste de afinação (pitch
transpose), compressão dinâmica, conversão de resolução de bits e/ou taxa de amostragem, e a aplicação
de efeitos de áudio como reverbs, delays, exciter e outros.
Capacidade da memória: Com o barateamento das memórias digitais a cada ano, ficou muito mais fácil
armazenar e manipular samples. Com a fusão cada vez maior entre a música e os computadores,
sobretudo pela aplicação de componentes comuns de informática nos instrumentos musicais, os samplers
hoje usam memórias e discos de PCs comuns, o que os torna não só mais baratos, mas também mais
flexíveis para atualização de configuração. O uso de interface SCSI, discos rígidos IDE, unidades de CD-
ROM, memórias SIMM, e outros dispositivos vindos dos computadores são exemplos claros disso.
Para concluir este artigo, apresentamos abaixo uma comparação das características do primeiro Emulator
I, de 1982, e o Emulator 4 Platinum, o mais recente modelo da E-mu. Dá para perceber que a tecnologia
evoluiu e barateou bastante em 20 anos.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
5
Parte 6: Modelagem Física
por Miguel Ratton
Embora os samplers e sample-players possam oferecer aos músicos timbres “acústicos” com qualidade
relativamente alta, eles não conseguem reproduzir perfeitamente todas as variações e nuances que os
sons acústicos realmente possuem. Isso porque as amostras – como o próprio nome já diz – são como
“fotografias” sonoras estáticas de uma determinada situação do timbre. Ainda que o sampler utilize duas
ou três amostras de situações diferentes do timbre (para intensidade fraca, média e forte, por exemplo),
não consegue atingir um grau de altíssima precisão – e por isso não satisfaz a muitos ouvidos mais
exigentes.
Analisando-se, por exemplo, as condições acústicas e físicas na geração do som no clarinete, pode-se
obter um modelo matemático (por meio de equações complexas) que represente as propriedades da
propagação da onda sonora no tubo, com as devidas influências e efeitos da palheta, dos furos e da boca
do instrumento. O mesmo pode ser feito para o violino, ou qualquer outro instrumento acústico (e
eletrônico também). A partir dessas equações são criados algoritmos, que podem reduzir a quantidade de
processamento sem que haja perda significativa na precisão do resultado sonoro. Esse processo é
conhecido como modelagem física (“physical modeling”), e graças à crescente evolução dos chips de
processamento digital de sinal (DSP), tornou-se possível a sua implementação em equipamentos
comerciais, a um preço realmente acessível.
Modelando o som
Exemplos claros disso (que os tecladistas sabem muito bem!) são os timbres de sax e guitarra, onde o
sampler não consegue recriar com toda a fidelidade os inúmeros efeitos dos instrumentos “de verdade”.
Essa deficiência é mais clara quando se usa o sintetizador para solos ou partes musicais em destaque.
1
resultado final da “construção” do timbre do instrumento.
Graças a todas essas particularidades, a síntese por modelagem física é capaz de oferecer grandes
vantagens em relação a outros processos usados nos sintetizadores comerciais:
o Ao se tocar uma mesma nota duas ou mais vezes seguidas, nem sempre o som sai exatamente o
mesmo, pois o instrumento tem resposta própria, como se estivesse “vivo”.
o As transições de uma nota para outra têm a mesma continuidade dos instrumentos acústicos. O
que ocorre entre duas notas é tão importante quanto as próprias notas.
2
Modelagem física na prática
Como já foi dito antes, a complexidade do modelo está diretamente relacionada à autenticidade do som
que poderá ser produzido, assim como às nuances que poderão ser manipuladas. Essas sutilezas também
têm que estar representadas no algoritmo. Por exemplo: um modelo de violão obviamente terá que
conter em suas equações o comportamento básico das cordas e da caixa de ressonância, mas deverá
considerar também o ruído do trastejar, os harmônicos, abafamento com a mão, etc. Ou seja, uma parte
do algoritmo do modelo deve interpretar as ações do músico sobre o instrumento, se ele está soprando
com pressão normal ou excessiva (o que pode gerar harmônicos), se está puxando a corda com o dedo da
mão esquerda, e assim por diante. E no final, todos esses parâmetros terão que estar disponíveis ao
controle do músico, seja lá como for o dispositivo de controle (um teclado, um controlador por sopro, ou
qualquer outra implementação).
O primeiro sintetizador comercial a utilizar modelagem física foi o Yamaha VL1, lançado em 1994, que é
um teclado com 49 teclas e apenas duas vozes de polifonia. O VL1 foi projetado para ser usado como
solista (o VL significa “Virtual Lead”), e possui vários recursos de expressividade. Seu teclado,
obviamente, é sensitivo (key velocity e aftertouch), e existem dois botões rotativos programáveis além do
pitchbend comum. Dispõe ainda de quatro entradas para pedais de controle (cujas funções podem ser
programadas), e mais uma entrada para um controle de sopro (breath control), igual ao do velho DX7.
O bloco Controllers manipula os parâmetros responsáveis pela execução do som, ou seja, pelas atitudes
do músico sobre as partes físicas do instrumento acústico (ex: o movimento do arco
sobre a corda do violino). Esses parâmetros podem ser controlados através dos
dispositivos disponíveis, como o breath controller, os pedais, os botões rotativos, etc. O
músico pode endereçar os parâmetros para os dispositivos que lhe sejam mais
convenientes e confortáveis.
O bloco Modifiers contém cinco seções, que embora pareçam simples efeitos, estão
intimamente relacionadas com o modelo de geração do som e têm grande influência no
mesmo. O Harmonic Enhancer permite manipular a estrutura harmônica do som,
possibilitando variações radicais de sonoridade dentro de uma mesma família de
timbres. O Dynamic Filter é bastante similar a um filtro comum de sintetizador,
podendo ser configurado para operar como passa-baixa, passa-alta ou passa-banda, e
possui compensação de região, do tipo “key-tracking”. O Frequency Equalizer, como o
nome sugere, é um equalizador paramétrico de cinco bandas, totalmente ajustável. O
Impulse Expander opera em conjunto com o bloco seguinte, e simula o efeito da
cavidade de ressonância, sendo mais adequado para simulação de ressonâncias
metálicas, como nos instrumentos de sopro. E finalmente o Resonator, que é quem simula o efeito da
caixa de ressonância dos instrumentos feitos de madeira.
Além dos elementos apresentados acima, o VL1 ainda oferece efeitos de reverb, flanger, delay, etc, cujos
parâmetros podem ser ajustados e programados para cada timbre.
Sendo um instrumento com uma estrutura de síntese totalmente diferente de tudo que se viu durante as
várias décadas desde os primeiros sintetizadores analógicos, obviamente a programação de timbres no
VL1 não é uma tarefa das mais fáceis. O resultado sonoro, no entanto, é bastante recompensador, e mais
convincente do que os sample-players convencionais, no que se refere a instrumentos solistas.
3
Como já foi dito, a expressividade é o grande trunfo da modelagem física, mas a implementação do
controle dos parâmetros é uma coisa complicada. Depois do VL1, que custava cerca de US$ 5000, a
Yamaha passou a adotar a modelagem física para instrumentos orientados a instrumentistas que usem
controladores de sopro, como o Yamaha WX5. Dentro dessa direção, atualmente a Yamaha dispõe do
VL70m, um módulo para ser controlado diretamente pelo WX5, e ainda a placa de expansão VL, que pode
ser acoplada à maioria de seus teclados (S30, S80, Motif), e que já vem incorporada no módulo
sintetizador MU100R.
A Roland desenvolveu sua própria tecnologia “Composite Object Sound Modeling” (COSM), e aplicou-a em
alguns produtos não menos impressionantes que o VL1. O módulo sintetizador para guitarra VG-88
ultrapassa os limites do imaginável, e permite ao músico, usando qualquer tipo comum de guitarra,
explorar sonoridades que imitam com alto grau de perfeição setups de guitarras e amplificadores. É
possível, por exemplo, construir virtualmente uma guitarra com determinado tipo de captador conectada
a determinado tipo de amplificador. O resultado é de fato impressionante. A mesma tecnologia COSM é
utilizada no módulo de bateria TD-10 V-drum, que consegue fazer a mesma coisa com tambores e pratos,
e alguns outros equipamentos, como o amplificador Cube-30.
O que podemos constatar é que a tecnologia de modelagem física vem ganhando espaço nos
instrumentos e equipamentos musicais, mostrando assim uma tendência cada vez mais forte para o uso
da virtualização de timbres. É uma grande promessa para o século XXI.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
4
Parte 7: Síntese Granular
por Miguel Ratton
O físico britânico Dennis Gabor provavelmente foi o primeiro a propor o conceito de um "quantum
sonoro", segundo o qual todos os fenômenos sonoros seriam baseados na combinação de uma unidade
indivisível de informação, sob o ponto-de-vista psicoacústico. Estudos posteriores mostraram que, se
vários segmentos sonoros de pequena duração forem combinados seqüencialmente, a combinação deles
será percebida como uma textura musical contínua, mas se a duração dos segmentos exceder a um
determinado limiar, da ordem de 100 ms, então eles passarão a ser ouvidos como eventos
individualizados.
A síntese granular baseia-se na combinação de uma enorme quantidade de pequenos eventos sonoros –
chamados de grãos – com duração inferior a 50 milissegundos. Esses eventos podem ser criados a partir
de uma forma-de-onda eletrônica (senóide, dente-de-serra etc), de um sinal gerado por síntese FM ou de
uma amostra digital (sample).
O que mais se destaca na técnica da síntese granular é a relação entre a simplicidade do grão, que ouvido
sozinho é apenas um clic, mas quando inúmeros outros pequenos segmentos são combinados
seqüencialmente, pode-se obter texturas complexas e interessantes. Manipulando-se os parâmetros
básicos dos pequenos grãos, pode-se obter variações enormes na textura final. Entretanto, quanto maior
for a densidade dos grãos, maior a dificuldade de se manipular o processo, por causa da grande
quantidade de processamento requerida. Isso inviabilizou o uso da síntese granular durante muitos anos,
e as experiências limitavam-se a edições de trechos de áudio em fita magnética. Só mesmo no meio da
década de 1980 é que se conseguiu uma implementação em tempo real.
Controlando o Processo
A síntese granular não introduz qualquer novo parâmetro ao som, uma vez que controla os mesmos
parâmetros de amplitude, altura e composição harmônica. O que este processo tem de realmente
interessante é o alto grau de controle a partir de manipulações de coisas simples. Ou seja, não é o que
está sendo manipulado no sinal, mas sim como o processo é implementado. Existem diversas
implementações de sintetizadores granulares, todas sob a forma de software.
A estrutura e recursos desses softwares podem variar um pouco, mas em geral é possível ajustar os
seguintes parâmetros do segmento sonoro usado como grão:
o amplitude (intensidade)
o freqüência (afinação)
o densidade (quantidade de grãos por segundo)
Para quem quiser experimentar a síntese granular, existe um software chamado Granulab, distribuído
como shareware, que oferece uma quantidade razoável de recursos para se obter texturas diferentes
(você pode fazer um download deste software na página http://hem.passagen.se/rasmuse/Granny.htm).
1
Utilizando-se um grão bastante simples, gerado a partir de uma onda senoidal, e com uma curva de
envelope de amplitude com forma gaussiana, podemos criar texturas diferentes, manipulando parâmetros
básicos no próprio grão. Como já foi dito anteriormente, não convém aumentarmos demais o tamanho do
grão, pois isso eliminaria o efeito de grão, e faria o segmento ser percebido como um som, e o resultado
final não seria mais uma textura, mas uma sucessão de pequenos pedaços de áudio. Obviamente, a
relação entre a freqüência do grão e a densidade de repetições dele (distância entre um grão e outro) têm
uma influência muito grande no resultado final da textura.
À medida que se aumenta a densidade de grãos por segundo, a textura vai ficando mais consistente, com
menos descontinuidade de som. Com uma grande densidade de grãos bem pequenos, tem-se uma forma-
de-onda final já bastante alterada em relação ao que era o grão individual. Usando-se grãos senoidais,
pode-se ter ondas complexas impossíveis de se obter por outros métodos. Se os grãos forem segmentos
de uma forma-de-onda já complexa, como uma amostra digital de um som acústico, ou mesmo de um
trecho de voz humana, então é possível conseguir timbres muito ricos e inusitados.
É claro que a síntese granular tem também suas limitações e desvantagens. Embora os timbres
conseguidos com a combinação de grãos sejam interessantes, em geral eles têm características metálicas
e "cortantes", não sendo adequados a qualquer tipo de aplicação.
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
2
Parte 8: Dispositivos de Controle
por Miguel Ratton
Depois de vários artigos abordando os processos de síntese utilizados nos instrumentos musicais
eletrônicos, este mês veremos os dispositivos que existem para se controlar os sons nos sintetizadores.
Os instrumentos eletrônicos trouxeram novas perspectivas para a música, não só pelas novas
sonoridades, mas também pelas novas opções de expressividade. Um instrumento acústico está limitado
àquilo que ele é fisicamente: um violino é sempre um violino, e o som que ele pode produzir – assim
como a técnica que se usa nele para produzir o som – está limitado às suas características específicas. Ou
seja, jamais poderemos incorporar a um violino os recursos de expressividade de um trompete, por
exemplo.
Já no caso de um sintetizador, ainda que hoje na maioria das vezes ele seja usado para reproduzir
timbres acústicos, a idéia original sempre foi extrapolar os limites do "convencional" (leia-se:
instrumentos acústicos), e em muitos casos isso tem sido feito. Para que se possa atingir um alto grau de
controlabilidade e expressividade, além dos recursos do próprio processo de se sintetizar o som (como
apresentamos nos artigos anteriores), vários dispositivos físicos foram incorporados aos instrumentos,
como veremos a seguir.
O Teclado
Embora existam várias outras alternativas, o teclado tem sido o meio de controle preferido para os
instrumentos eletrônicos, provavelmente por permitir um controle bastante amplo em termos de alcance
e também uma ótima visualização da execução.
O teclado de um sintetizador moderno é usado para definir a nota a ser executada, sua intensidade, sua
duração e, em alguns equipamentos, também pode efetuar algumas outras funções.
Da mesma forma que num piano acústico, a posição de cada tecla do sintetizador está associada a uma
determinada nota musical. No entanto, o músico pode escolher a área de atuação do teclado, transpondo-
o em oitavas para cima ou para baixo. Isso permite adequar o teclado à região (altura) desejada pelo
músico, possibilitando que um teclado com apenas 61 teclas possa alcançar até mais do que as 88 teclas
no piano acústico. Além disso, é possível também transpor o teclado em passos de semitons, facilitando a
execução de tonalidades difíceis de serem tocadas no teclado (os puristas certamente não gostam disso!).
Alguns outros recursos foram experimentados no teclado, mas embora fossem interessantes não
conseguiram ser adotados de fato. Um deles era a possibilidade do músico arrastar a tecla para frente ou
para trás, de forma a poder controlar o efeito do bend individualmente, em cada nota. Mas isso fazia a
execução mais difícil e a construção do teclado bem mais cara. É claro que não podemos considerar
definitivo o teclado como ele é atualmente, pois sempre haverá uma nova idéia para se incluir e, desde
que seja prática e viável, com certeza será adotada.
Existem ainda outros dispositivos no sintetizador, como botões e pedais, que usados em conjunto com o
teclado podem ampliar bastante sua capacidade expressiva.
Ainda que o teclado seja o meio de controle mais usado, existem outras alternativas, cada qual com suas
vantagens e desvantagens. O uso de instrumentos acoplados a sintetizadores, como a guitarra e o violino,
por exemplo, permite não só oferecer as novas sonoridades eletrônicas àqueles que não dominam a
técnica do teclado, mas também usar algumas das características de execução e intonação peculiares
àqueles instrumentos, que são praticamente impossíveis de ser simuladas usando um teclado.
Entretanto, diferentemente do acionamento das notas no teclado, um sintetizador controlado pela guitarra
(via MIDI) requer um conversor específico que precisa detectar a nota executada pelo músico (na corda)
para então poder usar essa informação e sintetizar a nota e demais alterações. Nos conversores MIDI
convencionais, muitas nuances da execução do guitarrista (harmônicos, etc) não são detectadas
perfeitamente, o que às vezes pode ser frustrante para o músico
(ainda que outras possibilidades sonoras lhe sejam permitidas).
Na verdade, assim como um sintetizador não é um piano, a
guitarra-sintetizadora também tem que ser encarada como um
novo instrumento, com suas técnicas peculiares.
Existem ainda dispositivos controladores que não têm qualquer similaridade e nem descendem de
instrumentos acústicos. O exemplo mais "clássico" é o Theremin, que capta os movimentos das mãos no
ar por meio de antenas especiais, e utiliza esses movimentos para alterar a altura e o volume do som. É
um instrumento inusitado, que produz sons bem diferentes. Recentemente o grupo Pato Fu utilizou um
Theremin, na música "Eu".
Para dar maior expressividade e controle sobre os parâmetros do som, os sintetizadores possuem
diversos dispositivos, cuja técnica de uso difere conforme sua forma. A implementação e atuação
desses dispositivos podem variar conforme o fabricante.
O dispositivo mais comum é o pedal de sustain, cuja função é dar sustentação às notas executadas. Nos
timbres de piano, violão e outros que originalmente não têm sustentação indefinida, pressionar o pedal de
sustain faz o volume do som cair mais devagar (de forma similar ao que acontece quando se pressiona o
pedal de sustain do piano acústico). Já nos timbres que podem ser sustentados indefinidamente com a
mão (órgão, strings, pads, etc), se o pedal de sustain for pressionado antes das teclas serem soltas, o
som permanecerá sustentado enquanto o pedal estiver pressionado. O pedal de sustain do sintetizador é
uma chave do tipo liga/desliga ("foot switch"), portanto sua atuação só possui dois estágios (com ou sem
sustain), sem situações intermediárias.
Não existe uma padronização quanto à posição do pedal (pressionado/solto) e à posição de sua chave
2
elétrica interna (aberta/fechada), alguns fabricantes adotam a chave aberta para o pedal pressionado e
outros, a chave fechada. Para facilitar o uso de qualquer tipo de pedal, alguns teclados (ex.: Korg X5D)
permitem que o músico indique no próprio instrumento qual é a "polaridade" do pedal para o acionamento
do sustain, enquanto outros (ex.: Yamaha YPR) verificam o estado do pedal quando são ligados e
assumem esse estado como "pedal solto". Uma boa solução, no entanto, foi adotada pela fábrica
brasileira Onerr: seu pedal de sustain MS-5 possui uma chave que inverte a operação do pedal e, assim,
ele pode ser usado com qualquer equipamento. Simples e barato.
Muitos sintetizadores permitem que o mesmo pedal de sustain (então chamado de "pedal switch") possa
atuar em outras funções do equipamento, como, por exemplo, disparar seqüências e padrões rítmicos,
ligar e desligar algum tipo de efeito, etc..
O controle de modulation é outro recurso muito útil, pois permite introduzir vibrato ou outros tipos de
alteração no som. Assim como o pitchbender, ele pode ser implementado de formas diferentes, sendo
roda ("wheel") a mais comum, sem um ponto de repouso obrigatório. Alguns fabricantes adotam um
único dispositivo físico para efetuar as funções de pitchbend e modulation,
o que permite ao músico misturar os efeitos no mesmo movimento da
mão. A Roland, por exemplo, geralmente usa uma alavanca, que
empurrada para frente atua como modulation e, para os lados, atua como
pitchbender. Alguns teclados da Korg usam um joystick, com acionamento
semelhante à alavanca da Roland.
Como também não existe uma padronização quanto ao valor do potenciômetro interno, o pedal de
controle de um fabricante pode não atuar tão bem com o sintetizador de outro. Alguns sintetizadores
(ex.: Korg N5EX) permitem ajustar a faixa de atuação do pedal, de forma a compatibilizá-lo com o
parâmetro específico que ele vai controlar (alguns pedais dispõem de um knob de ajuste de escala).
3
especialmente para ele. Posteriormente, vários sintetizadores passaram a incorporá-lo, como os Korg
Prophecy e Triton. Alguns sintetizadores e samplers orientados para dance music e DJs usam o ribbon
controller porque permite ao músico uma ação bastante similar ao movimento do disco de vinil.
Levando em consideração que as mãos e os pés dos tecladistas já estavam muito ocupadas, a Yamaha
introduziu na década de 1980, junto com o DX7, o breath controller, uma espécie de apito "mudo"
contendo um sensor de pressão, pelo qual o músico pode usar o sopro para alterar o som. Embora
requeira uma coordenação muito grande, esse dispositivo é uma opção a mais, que permite uma nova
dimensão física de controlabilidade, além do tato.
Um dispositivo relativamente recente e também muito interessante é o D-Beam, uma tecnologia que a
Roland licenciou da Interactive Light. Ele é um sistema com sensor infravermelho que detecta os
movimentos que o músico faz com a mão no ar, sobre o painel do instrumento, e assim controla
parâmetros e efeitos do som. É prático e ao mesmo tempo performático, pois permite ao artista combinar
movimentos corporais às características de sua música (ou vice-versa...).
Configurando os Controles
Como já dissemos antes, uma das grandes vantagens dos instrumentos eletrônicos é que sua arquitetura
sonora não está associada a uma estrutura física, como no caso dos instrumentos acústicos. Ou seja, se
no piano o pedal de sustain só pode atuar como tal, num sintetizador o mesmo pedal que comanda a
sustentação do som pode ser reconfigurado para atuar em outro parâmetro completamente diferente. A
versatilidade de um equipamento em termos de endereçamento de controles é um recurso interessante
para o músico, pois lhe permite experimentar várias formas diferentes para fazer a mesma coisa.
4
Parte 9: Sintetizadores Virtuais
por Miguel Ratton
A constante e profunda evolução da tecnologia digital nos últimos anos leva-nos a esperar grandes
transformações também nos instrumentos musicais. Uma forte tendência é a utilização de dispositivos
virtuais, como sintetizadores, processadores de efeitos e outros equipamentos. Dentro do processo de
integração de recursos num mesmo ambiente operacional, já se pode hoje tocar música MIDI num
sintetizador que usa o próprio computador para gerar os sons. Além da redução de custo, isso
proporciona, sobretudo, uma melhoria de qualidade, pois o som permanece no domínio digital.
Ontem e hoje
Existem vantagens e desvantagens para os sintetizadores virtuais, conforme poderemos ver no decorrer
deste artigo, mas há também outros aspectos bastante importantes que devem ser abordados.
Um dos maiores impactos que os sintetizadores virtuais estão criando diz respeito à mudança no seu
processo de produção. Um instrumento "real" é produzido e montado numa fábrica, com estrutura
industrial complexa, gerenciamento de estoque de matéria-prima, controle de preços de insumos, custos
de energia, embalagem, armazenamento, frete etc. Já o sintetizador virtual é "impalpável". Ele não possui
componentes, e se for vendido por download na Internet, nem precisa ser estocado! Obviamente, seu
custo de produção é muito mais baixo – embora o preço final ainda não seja proporcionalmente menor.
Seria até engraçado fazermos uma comparação entre uma fábrica de teclados e uma empresa que produz
sintetizadores virtuais. Na primeira, imaginamos um galpão, longe do centro urbano, com máquinas
industriais, trabalhadores especializados, almoxarifado com pessoas encarregadas de controlar estoques
de peças, e toda a parafernália de uma... fábrica! Adicione a isso as exigências ambientais, trabalhistas,
pressão do sindicato da categoria e outros complicadores.
E como seria uma fábrica de sintetizador virtual? Uma sala com alguns computadores e engenheiros de
1
software, talvez um designer para projetar a interface gráfica (o que, aliás, a fábrica convencional
também precisa).
Não estou me colocando contra qualquer dos dois processos de produção de sintetizador, mas pense bem
nas diferenças entre ambos. É muito interessante, não acha?
Os sintetizadores virtuais também podem ser atualizados com facilidade, permitindo ao usuário carregar
uma nova versão, com mais recursos, pagando apenas uma pequena taxa ou mesmo gratuitamente. No
passado, alguns fabricantes de sintetizadores "convencionais" até ofereceram atualizações de sistemas
operacionais, expansões de memória, e outras possibilidades de se aprimorar um determinado
equipamento, mas isso tem sido cada vez mais raro nos últimos anos.
Apesar do que foi dito até agora, não me parece que os sintetizadores "de metal e plástico" vão deixar de
existir. Para um músico que toca ao vivo, os instrumentos convencionais ainda são mais práticos e mais
confiáveis. Mesmo que ele leve um notebook com um sintetizador virtual, precisará de um teclado físico
(ou outro dispositivo controlador) para fazê-lo tocar. Afinal, os músicos ainda tocam ao vivo, não tocam?
Creio que uma das grandes vantagens do sintetizador virtual seja a possibilidade de se trabalhar dentro
do domínio digital, integrado no mesmo ambiente do software de seqüenciamento e gravação. A
possibilidade de visualização gráfica de detalhes do processo de síntese e controle também é um benefício
inegável. Quanto ao preço, é provável que se reduza à medida que vão surgindo novos concorrentes.
Tecnicamente Falando...
Para que o sintetizador virtual possa gerar o som em tempo real (ao mesmo tempo que o músico toca as
notas), é necessário que o software gerencie adequadamente o enorme fluxo de dados de áudio digital.
Em muitos projetos são usados dois buffers para a concentração temporária dos dados, um contendo os
dados que já foram gerados pelo sintetizador, e aguardam o momento exato de serem reproduzidos na
saída (buffer de escrita), e outro contendo os dados referentes ao som que está efetivamente sendo
reproduzido naquele momento (buffer de saída ou de leitura). Nesses casos, o tamanho dos buffers
determina o atraso de tempo entre a geração dos dados do som e a sua execução propriamente dita. Por
exemplo, se a taxa de amostragem usada pelo sintetizador para gerar o sinal de áudio for 44,1 kHz, e os
buffers tiverem um tamanho de 4.096 samples, o atraso será da ordem de 93 milissegundos (sem contar
os atrasos do sistema operacional). Quanto menor o tamanho do buffer, menor será o atraso. Entretanto,
para se obter uma condição de "buffer mínima" (1 sample) é necessária uma temporização muito precisa
do processamento para manter o fluxo adequado dos dados. Isso requer não só um computador muito
rápido, mas também um software bem elaborado e um sistema operacional estável e que tenha um
comportamento previsível. Complicado, não?
No Windows, a ligação entre o sintetizador virtual e o hardware da placa de áudio é feita pelo "driver",
uma rotina de software que se encarrega de passar os dados corretamente. Na estrutura do Windows
existe ainda a API (Application Program Interface), que atua entre driver e o software aplicativo. Para
complicar ainda mais as coisas, existem várias APIs para aplicações de áudio: Microsoft MME (herança do
Windows 3.1), Microsoft DirectX, ASIO (usada pelo Cubase), EASI (usada pelo Logic) e GSIF (usada pelo
GigaSampler). Para que o desempenho de todo o processo de síntese seja aceitável, todos esses
componentes de software devem ser bem projetados, com o mínimo de processamento e o máximo de
estabilidade. A razão para existirem tantas APIs – que aparentemente deveriam fazer a mesma coisa – é
justamente o fato de um fabricante não poder confiar totalmente no projeto de outro. Por isso
proliferaram os "remendos" no Windows (veja mais adiante).
O novo modelo de driver da Microsoft - WDM - parece solucionar esta verdadeira "Babel" de drivers e
APIs. Os resultados que tenho observado, usando sintetizadores virtuais DXi através de driver WDM, são
de fato surpreendentes, com um atraso realmente mínimo e imperceptível.
Para quem trabalha com áudio no Windows, é sempre interessante saber um pouco mais sobre as
2
diversas tecnologias adotadas pelos softwares de gravação e síntese virtual. Por isso procuramos resumir
as características mais importantes de cada uma delas:
o DXi – DX Instruments: Apesar da sigla, não tem nada a ver com o Yamaha DX7. É o padrão da
Microsoft para plug-ins com sintetizadores virtuais no Windows, baseado na tecnologia DirectX. O
sintetizador DXi funciona acoplado a uma trilha de áudio, como se fosse um plug-in de efeito
comum, e uma vez acoplado aparece então como dispositivo de MIDI para as trilhas de áudio do
seqüenciador. Dessa forma, ele pode ser usado tanto para executar a gravação MIDI da trilha
quanto para tocar a execução do músico em tempo real, transmitida por um teclado externo. Para
que o desempenho seja aceitável, é necessário usar um dispositivo de áudio com driver WDM, pois
com os drivers antigos MME a latência é muito alta.
o ASIO – Audio Stream Input/Output: É uma API desenvolvida pela Steinberg para acessar o
hardware de áudio e possibilitar o uso de múltiplos canais de áudio simultâneos, e também de
vídeo, adequadamente sincronizados. Foi a solução encontrada pela Steinberg para viabilizar o
padrão VST, antes do advento do DirectX. A tecnologia ASIO está disponível para PC/Windows e
Mac, e o dispositivo de áudio precisa ter um driver específico.
o VST – Virtual Studio Technology: É o padrão de plug-ins da Steinberg, que permite a operação
de efeitos em tempo real. Popularizou-se bem por ser uma tecnologia disponível tanto na
plataforma PC/Windows quanto Macintosh. Embora os plug-ins VST não sejam compatíveis com
outras tecnologias, existe um "adaptador" de VST para DirectX, o FXpansion
(www.fxpansion.com), que permite usar um plug-in VST num software DirectX. Existe também o
VSTDX Wrapper da Spin Audio (www.spinaudio.com), que cria um plug-in DX a partir de um plug-
in VST.
o MAS – MOTU Audio System: É a tecnologia de plug-ins desenvolvida pela MOTU para ser usada
com seu software Digital Performer (Mac). Ela também permite efeitos em tempo real e mandadas
auxiliares, com o processamento dos efeitos (DSP) efetuados pelo software.
Um dos termos mais falados hoje entre os usuários de PC para áudio é a "latência", que é o atraso que
existe para que uma alteração no som feita no software seja efetivamente ouvida. Ela afeta a resposta
global do software de áudio à ação do usuário, e a grande tendência atual para o uso de sintetizadores
virtuais tem evidenciado a influência da latência na execução ao vivo.
Embora muitos fabricantes divulguem valores prováveis da latência em seus produtos, ninguém ainda
3
mediu esse parâmetro cientificamente. É certo que quanto menor ela for, melhor será o desempenho do
sistema, mas o problema é bem mais complicado do que parece. Existem três fatores principais que
atuam sobre a latência total na resposta do sintetizador virtual. Em primeiro lugar está o conversor D/A
do dispositivo de áudio, que pode criar um atraso da ordem de 1 a 2 milissegundos. O segundo vilão é o
atraso que ocorre entre o pedido de interrupção (IRQ) do hardware e o controle de recepção mais básico
do driver e que, de acordo com testes feitos nos EUA, pode ser de 1 a 100 milissegundos. Por fim, temos
o atraso decorrente do timing de processamento no sistema operacional e no próprio aplicativo. De
acordo com os projetistas da Cakewalk, é possível obter uma latência menor do que 5 milissegundos no
Windows 2000.
Os usuários de áudio no Windows finalmente podem ter um alto desempenho com menos complicação. O
WDM (Windows Driver Model), disponibilizado em 2000, é a opção da Microsoft para a simplificação do
desenvolvimento de drivers, e fornece um modelo unificado tanto para sistemas operacionais domésticos
quanto empresariais, prevendo também a possibilidade de migração para sistemas futuros.
O WDM é compatível com todas as plataformas a partir do Windows 98SE, e permite que os fabricantes
de hardware possam desenvolver um único driver. Ele tem uma influência considerável nas aplicações de
áudio, e oferece um componente de mixagem e resampleamento de áudio que facilita o acesso de várias
aplicações ao mesmo hardware. Além disso, o WDM também oferece suporte automático às APIs MME e
DirectX, de forma que uma vez que o fabricante de hardware tenha implementado o driver WDM, as
outras camadas do driver do sistema darão o suporte ao MME e DirectX.
Para os desenvolvedores de software, o Windows 2000 é o sistema mais indicado para áudio por causa de
sua menor latência de interrupção, e o gerenciamento avançado de arquivos (entrada/ saída assíncrona
no disco). Tendo o Windows 2000 um grande potencial para o áudio profissional, e o WDM é o modelo de
driver para ele, é inevitável uma grande tendência em se adotar o WDM.
Embora na estrutura original do WDM haja algumas limitações de desempenho, devido à bufferização
interna do recurso de mixagem, já foi adotada uma solução adequada, graças à previsão para extensões
dentro do próprio WDM. No NAMM Show de 2000, a Cakewalk promoveu o primeiro debate anual
"Windows Professional Audio Roundtable", que contou com a participação de representantes das
empresas de maior destaque do setor de áudio em PCs. Na ocasião foi apresentada uma proposta para a
padronização de soluções.
Com o novo modelo WDM, o aplicativo pode ter acesso às APIs do Windows, como MME/ Wave e
DirectSound – o que permite suporte para aplicativos antigos – e para ter baixa latência e alto
desempenho, os aplicativos podem se comunicar diretamente com o driver adaptador. Os aplicativos
específicos que precisem acessar hardware com APIs do tipo ASIO ou EASI também poderão continuar a
fazê-lo sobre o WDM.
Clique aqui para mais detalhes sobre WDM.
4
Um dos instrumentos virtuais mais conhecidos é o GigaSampler que, como o nome sugere, é um sampler
que funciona totalmente por software. Produzido pela NemeSys, ele foi praticamente o primeiro sampler
virtual bem sucedido, graças ao seu excelente desempenho e baixa latência. É um instrumento autônomo,
que pode ser controlado via MIDI por um teclado externo ou por um software seqüenciador, rodando no
mesmo computador. Um dos pontos fortes do GigaSampler, além da sua conhecida qualidade sonora, é
que ele dispõe de uma vasta biblioteca de samples, e pode carregar arquivos também de outros samplers
(ex: Akai). Como já foi dito acima, o GigaSampler requer a instalação de um driver especial, mas diversas
placas de áudio oferecem esse suporte. Outra opção de sampler virtual é o VSampler, que além de poder
usar samples em formato WAV e SoundFont, também possui recursos de síntese FM. É uma alternativa
barata e "leve", pois funciona muito bem dentro do ambiente DXi, sem sobrecarregar o computador.
Dos fabricantes "convencionais" de sintetizadores, a Roland foi a que obteve a melhor situação no mundo
virtual. Lançou o Virtual Sound Canvas há mais de cinco anos atrás, e hoje dispõe de um produto de
altíssima qualidade e excelente estabilidade, que é o VSC DXi, um sintetizador multitimbral com o
conjunto de timbres do padrão GS/GM que pode atingir até 128 vozes de polifonia. Ele roda como plug-in
DirectX (formato DXi) e já vem incluso no Cakewalk Sonar. É uma excelente opção para quem quer fazer
uma produção de baixo custo, sem comprometer a qualidade do trabalho.
Existem ainda vários outros sintetizadores virtuais, inclusive algumas recriações em software de
instrumentos lendários, como o Prophet-5, um plug-in VST produzido pela Native Instruments, que
também tem um clone virtual do Hammond B3, chamado B4.
A seguir, temos uma lista com alguns dos vários sintetizadores virtuais, e onde podem ser encontrados na
Internet:
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001
5
Parte 10: Fontes de consulta
por Miguel Ratton
Para concluir nossa série de artigos sobre os instrumentos musicais eletrônicos, nada melhor do que
apresentar algumas das fontes de referência que foram pesquisadas.
Livros e revistas
• A Practical Approach to Digital Sampling – Terry Fryer (Hal Leonard, USA, 1989). Este livro foi
publicado há mais de dez anos, mas os conceitos sobre samplers e como utilizá-los continuam
bastante válidos. A abordagem é clara, e as explicações técnicas são feitas em linguagem
acessível, mesmo para quem está iniciando no assunto. Obviamente, os exemplos utilizam
equipamentos que já estão obsoletos para os padrões atuais, mas é uma obra bastante rica em
informação.
• Electronic Music Circuit Guidebook – Brice Ward (Tab Books, USA, 1977). Traz vários
diagramas esquemáticos de circuitos utilizados em sintetizadores analógicos.
• Electronic Music Production – Alan Douglas (Tab Books, USA, 1974). Um dos primeiros livros
que consegui sobre música eletrônica. É uma abordagem técnica, com vários diagramas
esquemáticos de circuitos eletrônicos – analógicos – para uso em sintetizadores e processadores
de efeitos.
• The A-Z of Analogue Synthesizers – Peter Forrest (Susurreal, England, 1996). Esta é talvez a
obra mais completa sobre sintetizadores analógicos. O autor catalogou uma enorme quantidade de
instrumentos, de vários fabricantes e países. Embora a edição tenha sido feita de forma
econômica, o livro traz fichas técnicas com muita informação e avaliações sobre qualidade e
recursos de cada instrumento.
• Vintage Synthesizers – Mark Vail (Miller Freeman, USA, 2000). Outro livro essencial para quem
gosta de sintetizadores em geral. É uma compilação de textos já publicados pela revista Keyboard,
e contém entrevistas com Bob Moog, Keith Emerson e outras personalidades importantes do meio
musical tecnológico.
Além dos livros, alguns artigos foram “garimpados” em diversas revistas, dentre eles SY77 Music
Synthesis, de Mike Barnes, publicado na revista Electronics Today International, em setembro de 1990, e
The Complete Guide To Software Synths, de Dennis Miller, publicado na Electronic Musician, em julho de
2000. E para não dizer que no Brasil não se escreve sobre o assunto, existe o artigo Modelagem Física:
uma Nova Era Para a Síntese de Sons, de minha autoria, publicado na revista Música & Tecnologia, em
1994.
Informação Online
A Internet é hoje uma excelente fonte de material para consulta, com muita informação disponível. Mas é
preciso avaliar com muito cuidado a origem do conteúdo, pois como qualquer um pode publicar qualquer
coisa, também fica fácil de se colocar um texto com informações erradas. É recomendável sempre,
portanto, verificar se o autor é confiável. A seguir vai uma lista de alguns dos sites mais interessantes:
1
• 120 Years Of Electronic Music – Homepage com resumo dos acontecimentos mais importantes
na música eletrônica desde 1870 (EUA).
• Harmony Central – Site com conteúdo bastante abrangente sobre equipamentos musicais (EUA).
• IRCAM – Instituição de pesquisa no campo da arte e da música, e uma das maiores referências
mundiais em música eletrônica (França).
• Moog Archives – Homepage com coletânea de fotos, diagramas, e artigos sobre os mais famosos
sintetizadores analógicos (EUA).
• Synth & MIDI Museum – Homepage com referências sobre modelos raros de sintetizadores e
outros equipamentos de música eletrônica (EUA).
• Synth Zone – Site bastante completo sobre sintetizadores analógicos e digitais, e outros
equipamentos musicais (EUA).
• The Hammond Zone – Homepage com bastante informação sobre os órgãos Hammond
(Inglaterra).
• Vintage Synth Explorer – Outro site bastante completo sobre sintetizadores analógicos e
digitais, e outros equipamentos musicais (EUA).
• Virtual Synthesizer Museum – Mais um site com muitas informações e imagens sobre
sintetizadores e equipamentos musicais (EUA).
Este artigo foi publicado originalmente na revista Música & Tecnologia em 2001