U1 Musica y Tecnologia

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

UNIDAD UNO: MÚSICA Y

TECNOLOGIA
EL SONIDO GRABADO Y REPRODUCIDO

Desmond Shawe-Taylor, historiador británico ha dividido la historia de la

fonografía en cuatro períodos:

1. De 1876 a 1900. Es una época de descubrimientos y experimentación.

2. De 1900 a 1925. Es un período de realización de las primeras grabaciones

comerciales en serie, acaba con la aparición del sistema de registro eléctrico.

3. De 1925 a 1950. Acaba con la aparición del disco de larga duración, el long

Play (LP), por medio del microsurco.

4. De 1950 hasta nuestros días. Se produciría la aparición de la estereofonía, el

perfeccionamiento de los aparatos magnetofónicos, la invención del casete y la

difusión del sistema cuadrafónico.

GRABACIÓN DEL SONIDO

EL PORQUÉ

Al ser humano siempre le ha obsesionado la idea de dejar una huella de sus

actividades. La memoria visual encontró un soporte hace milenios -las pinturas de

Altamira dan elocuente testimonio de ello -, pero la memoria auditiva tuvo que

esperar hasta el siglo XIX para conocer el suyo. Del fonógrafo al MINIDisc,

pasando por el gramófono y el reproductor de disco compacto, sólo en un siglo, la

reproducción del sonido ha alcanzado su perfección gracias a las técnicas digitales.

HISTORIA

En 1881 Thomas Edison (1847-1931) creó un aparato capaz de transformar la

energía acústica en mecánica: el fonógrafo. Los sonidos se grababan en un cilindro

de cera; para escucharlos, una aguja, unida a un audífono de considerable diámetro,

debía recorrer los surcos para poder recoger las ínfimas vibraciones allí escritas.
En 1888, Emile Berliner (1851-1921) terminó

su gramófono, en el que el cilindro de Edison

era sustituido por un disco. Gracias a las

válvulas electrónicas, inventadas en 1925, fue

posible amplificar el sonido antes y después

de grabar disco.

Basándose en una idea lanzada en 1888 por el

estadounidense O. Smith, el danés Valdemar

Poulsen (1869-1942) patentó en 1900 el

telegráfono, que grababa los sonidos en un

hilo de metal que se desplazaba entre polos de

un electroimán.

Nacía así la grabación magnética. El alemán Pfeumer hizo más práctico el

procedimiento al inventar en 1928 la primera banda magnética con base de papel, a

la que sucedería una banda de plástico recubierta por una capa ferromagnética. A

pesar de estos progresos, hasta la Segunda Guerra Mundial no se perfeccionaron

los procedimientos mecánico y magnético, gracias a los discos de vinilo de los 16,

33 y 45 revoluciones por minuto (1948, disco de microsurcos de larga duración;

1958, disco estereofónico). Para la grabación se emplea un disco de aluminio

recubierto de acetato y buril (rubí tallado) que se desplaza según las vibraciones

sonoras. En 1965, apareció la cinta magnética, con distintos formatos. Hoy en día,

para la grabación del sonido se emplean esencialmente dos técnicas: la grabación

por rayo láser y el procedimiento magnético. Asistimos también al desarrollo de

tratamiento digital de señales por medio de microprocesador.

El proceso de transformación de energía acústica en mecánica y magnética se

basaba en un procedimiento analógico. Las vibraciones producidas por los sonidos

eran representadas por surcos y niveles de imantación cuyas variaciones eran

semejantes a las de los sonidos percibidos. En micrófonos y altavoces pronto hubo

enormes progresos. Sin embargo, los soportes, (pre) amplificadores y cables


seguían alternando el sonido original. Los ingenieros intentaron solucionarlo

aplicando el principio del ordenador a la reproducción sonora.

En los sistemas digitales, se toman muestras del sonido hasta 48.000 veces por

segundo. Las características de cada una de estas “porciones” de sonido se

convierten en largas series intangibles de 0 y 1. El disco compacto y la cinta de

audio digital (DAT) son lo más avanzado en el campo de la alta fidelidad, además de

técnicas como el surround sound (sonido envolvente) y el tratamiento digital de las

señales.

EL DISCO COMPACTO

Este pequeño disco plateado de 12 cm constituye en realidad un subproducto de

videodisco que fue inventado por Philips en 1976. En 1980 Philips y Sony (que

contribuyó a la elaboración de los sistemas de corrección de errores y modulación)

presentaron un procedimiento de grabación óptica que iba a modificar, no sólo la

cadena HIFI, sino también las técnicas de grabación de datos. Las cadenas de

“porciones” de sonido (series de

0 y 1) se almacenan en el disco

en forma de superficies y

surcos microscópicos (milésimas

de grosor de un cabello). Se

completan con datos de servicio.

El disco compacto también

llamado Compact Disc, que tiene un grosor total de 1,2 mm, está constituido por

una base de cloruro de polivinilo con microsurcos, recubierta a su vez por una capa

de aluminio reflectante. Esta última refleja el rayo láser producido por el emisor

del reproductor de CD. La reproducción se realiza desde el centro (500 r`,) hasta

la periferia (200 rpm) con una densidad de información que resulta sesenta veces

mayor a la de un disco analógico. El CD requiere un convertidor digital analógico,

con el fin de que las señales recogidas por los rayos láser puedan ser transmitidas

a los dispositivos analógicos y de aquí a los altavoces (las vibraciones de sus


membranas son transmitidas al aire y a continuación a nuestro tímpano.) Con este

sistema, la transmisión resulta perfecta.

SONIDO ANALÓGICO Y DIGITAL

El sistema analógico se emplea para grabar y reproducir el sonido en los disco de

vinilo. La grabación analógica consiste en registrar sobre un disco con una aguja

grabadora las ondas que produce un sonido. El movimiento que efectúa la aguja

grabadora sobre la superficie

del disco produce una huella

(microsurco) de profundidad

proporcional a la intensidad del

sonido.Esto da lugar al término

analógico, que se utiliza para

aquellos sistemas en los que la

representación del sonido

difiere poco del original.

La tecnología digital quiere decir que las ondas que produce un sonido se pueden

representar gráficamente dando un valor numérico a la intensidad del sonido y al

tiempo en el que se produce. La onda sonora se convierte en una serie numérica

correspondiente a su valor a lo largo del tiempo. Esta serie numérica se graba

mediante un láser sobre la superficie de un disco compacto. La reproducción del

sonido grabado se realiza también mediante otro láser que detecta la información

numérica.

El Sintetizador

El sintetizador es un laboratorio sonoro. Es una máquina que nos permite generar y

manipular el sonido. Actuando sobre sus propiedades básicas y combinando entre sí


sonidos diferentes, podemos llegar a imitar los instrumentos convencionales o

crear sonoridades completamente nuevas.

Los Secuenciadores. El Midi.

Los secuenciadores son programas informáticos que imitan las funciones de un

estudio de grabación. Básicamente consiste en una mesa de grabación de 16, 32 o

hasta 64 pistas en las que podemos grabar y controlar separadamente otros tantos

instrumentos o grupos de ellos.

El sistema Midi (Musical Instruments Digital Interface) són dispositivos para la

comunicación de los instrumentos musicales digitales.

Edición de sonido: WAV, MID, MP3.

El formato WAV es el formato que se utiliza en los programas secuenciadores para

manipular el sonido. Permite cualquier modificación y guardándolo con unas

características determinadas se puede escuchar en cualquier equipo de sonido. El

inconveniente es que ocupa mucho espacio en el disco duro.

El formato MID es el formato que menos ocupa, pero la calidad de sonido así como

de los instrumentos que intervienen es muy baja. Los programas secuenciadores

permiten guardar las pistas en este tipo de formato.

El formato MP3 es el formato

por excelencia. Es un formato

comprimido de música. La gran

ventaja es que ocupa poco

espacio guardando la calidad

original. En este tipo es apto

para la publicación de música en

internet ya que ocupa poco pero

con calidad.
MUSICA ELECTRÓNICA

Un instrumento electrófono o electrónico es un instrumento musical que produce

sus sonidos usando la electrónica. Es decir, son aquellos instrumentos en los cuáles

el sonido se genera o se modifica mediante corrientes o circuitos eléctricos.

Los instrumentos electrófonos, son la última familia en integrarse a la clasificación

Sachs-Hornbostel, aproximadamente en 1940.

Los electrófonos se dividen en 2 grupos:

 Instrumentos tradicionales eléctricamente amplificados, el instrumento es

como el acústico, pero la amplificación se realiza por medios electrónicos.

Por ejemplo, el Clavecín eléctrico o la guitarra eléctrica.

 Instrumentos con generación

eléctrica completa. Tanto la

vibración inicial como la

amplificación se realizan

electrónicamente. El generador

sonoro acústico (cuerda, etc.) es

sustituido por otro de tipo

electrónico que produce una señal

oscilatoria armónica.

Los electrófonos de generación eléctrica completa se dividen en 2 subgrupos:

 Instrumentos radio-eléctricos. Son los instrumentos en donde el sonido es

producido totalmente a partir de oscilaciones eléctricos. Por ejemplo,

Ondas Martenot, sintetizadores o samplers.

 Instrumentos mecánico-eléctricos. Son los instrumentos musicales que

mezclan elementos mecánicos y eléctricos para generar el sonido. Por

ejemplo, Órgano Hammond o Melotrón.


Se denomina Música electrónica en general a aquella música interpretada por medio

de aparatos electrónicos. Este concepto también incluye la música creada con

cintas magnetofónicas, la música electrónica en vivo (creada en tiempo real con

sintetizadores y otros equipos electrónicos), la música concreta (creada a partir

de sonidos grabados y luego modificados) y la música que combina las anteriores.

Creada por músicos destacados y conocidos a nivel mundial, acompañados de la

vanguardia tecnológica. En la actualidad, la música electrónica se puede encontrar

en muchas ramificaciones de estilos claramente definidos. Hoy están en uso otras

terminologías como "música por computadora", "música electroacústica" o "música

radiofónica", definiciones que suelen referirse más a la estética que a las

tecnologías utilizadas.

Antecedentes históricos

En la década de 1910, los futuristas italianos, liderados por el compositor Luigi

Russolo, concibieron una música creada con ruido y cajas de música electrónicas.

Fue entonces cuando aparecieron los primeros instrumentos musicales electrónicos

comerciales. No obstante, ciertos compositores visionarios como Alexander

Skriabin o Henry Cowell habían soñado una música creada solamente por medios

electrónicos, aunque este tipo de música electrónica no fue un hecho real hasta el

desarrollo de la tecnología de la grabación de sonidos durante la II Guerra

Mundial.

El compositor e ingeniero francés Maurice Martenot

presentó en 1928 un instrumento electrónico llamado

Ondas Martenot, un generador de bajas frecuencias

manejado con un teclado de piano. En las décadas de

1940 y 1950 nacieron varios estudios de grabación,

asociados a los nombres de figuras destacadas, cuyos

objetivos eran específicamente artísticos. En Francia,


el ingeniero de sonido y compositor Pierre Schaeffer fundó el estudio de Radio

Francia (RTF) en París, compuesto por varias grabadoras, micrófonos y equipos

para la edición de cintas. Las principales técnicas utilizadas para crear música

consistían en cortar, pegar, empalmar o recorrer hacia atrás distintos fragmentos

de la cinta grabada. Estas técnicas de manipulación de las cintas dieron lugar a un

nuevo tipo de montaje de sonido, elaborado con mucho esfuerzo a partir de las

grabaciones de sonido provenientes del mundo real. Schaeffer calificó los

resultados como música concreta, un término que aún se sigue utilizando

ampliamente, sobre todo en Francia. Su primer experimento en este nuevo género

utilizaba sonidos de grabaciones de trenes. Todas sus obras de esa época eran

breves estudios sobre sonidos y tienen títulos evocadores como la Sinfonía para un

hombre solo, compuesta en colaboración con su colega (más joven que él) Pierre

Henry. Los experimentos prácticos de Schaeffer en la composición de música

electrónica se basaban en algunos escritos teóricos sobre el tema que influyeron

en él. El estudio de Henry y Schaeffer atrajo a diversos compositores, entre los

cuales destacaba Pierre Boulez.

A finales de la década de 1940 Werner Meyer-Eppler, físico y director del

Instituto de Fonética de la Universidad de Bonn, presentó por vez primera el

Vocoder, un dispositivo que conseguía sintetizar la voz humana. Su trabajo teórico

influyó en los compositores relacionados con el estudio de la Radio de Alemania

Occidental en Colonia (fundada en 1953), y cuyo interés giraba en torno a la

síntesis electrónica de los sonidos

mediante generadores de sonido y

otros aparatos. El primer director

del estudio de Colonia, Herbert

Eimert, ejerció una gran influencia

por su forma de utilizar el

serialismo total como base para la

construcción de obras electrónicas.

Según este método, todos los


aspectos de la música, incluidos el tono, el ritmo y el volumen relativo, quedaban

bajo el control de unos principios definidos numéricamente. Los sonidos y aparatos

electrónicos brindaban la precisión y el control necesarios para la realización de

este concepto. Compositores como Bruno Maderna y Karlheinz Stockhausen

elaboraron piezas electrónicas cortas, llamadas síntesis aditiva (véase la sección

de síntesis del sonido más adelante). Estas obras se componían enteramente a

partir de sonidos electrónicos.

A finales de los años cincuenta ya se habían establecido gran parte de los

estudios de música electrónica de Europa. Los más importantes eran el de la RAI

en Milán, fundado por Luciano Berio y Maderna, el Instituto de Sonología de

Utrecht y el estudio EMS de Estocolmo. La división entre la música concreta y la

música electrónica pura fue un fenómeno básicamente europeo. Si bien en EEUU

surgieron varios estudios en aquella época las distinciones estéticas eran allí menos

importantes. En la década de

1950 en Nueva York los

compositores Otto Luening y

Vladimir Ussachevski crearon

músicas para cinta

magnetofónica con un equipo de

estudio muy rudimentario. Su

música transformaba los sonidos

grabados de instrumentos y voces mediante técnicas de manipulación de cintas y

simples unidades de reverberación. A finales de la década se asociaron con el

Centro de Música Electrónica de Columbia-Princeton, en el cual el compositor

Milton Babbitt empleaba una enorme computadora RCA para crear una música

compuesta con los mismos principios seriales que Eimert y Stockhausen en Colonia.

Su obra Philomel (1964) fue una de las primeras composiciones para soprano solista

y cinta magnetofónica. El desarrollo de la tecnología informática en las décadas de

1950 y 1960 llevó al establecimiento de una serie de estudios dedicados en


exclusiva a la música por ordenador en universidades estadounidenses y, en menor

medida, en Europa.

Durante los años sesenta y setenta los estadounidenses Lansky y Barry Vercoe,

entre otros, desarrollaron paquetes de programas para música (programas

informáticos diseñados para la manipulación y creación de sonido), que se

entregaban gratuitamente a los compositores interesados. Esta tradición de

software en las universidades de Estados Unidos ha contribuido en gran medida al

crecimiento de la música por computadora en todo el mundo. Tanto el Centro para

la Investigación Informática en Música y Acústica (CCRMA) de la Universidad de

Stanford, en el estado de California, como el Institute de Recherche et de

Coordination Acustique/Musique (IRCAM) de París (fundado por Pierre Boulez en

1977), utilizaron los ordenadores de forma significativa y continúan siendo centros

influyentes en la composición de música electrónica en la actualidad.

El rápido desarrollo de la tecnología informática durante los últimos 15 años ha

conducido a una revolución en la música por computadora y en la música electrónica

en general. Los ordenadores son ahora más asequibles, y los programas

informáticos, que antes eran muy lentos, funcionan ahora en cuestión de segundos

o incluso de forma simultánea a los instrumentos. Son muchas las universidades

actuales equipadas con un estudio de música por ordenador y varios países tienen

estudios nacionales, dedicados a la composición de música electrónica. Además, los

músicos trabajan cada vez más de forma independiente, en estudios particulares.

A principios del siglo XX se inventaron

instrumentos electrónicos como el

Telharmonium o el Theremin, pero eran muy

rudimentarios en su construcción y complicados

en su funcionamiento. Los sintetizadores e

instrumentos electrónicos con amplificación,

susceptibles de ser utilizados en las actuaciones en vivo, se perfeccionaron en la


década de 1960. La computadora central RCA fue en esencia uno de los primeros

sintetizadores electrónicos. El aparato contenía todos los recursos necesarios para

generar y modificar los sonidos por medios electrónicos. En los sesenta, Robert

Moog, Don Buchla y los fabricantes británicos EMS, entre otros, comenzaron a

producir sintetizadores que utilizaban el control de voltajes. Se trataba de un

medio electrónico para variar el tono o el volumen, y se empleaba para crear,

filtrar y modificar, sonidos electrónicos. Pronto aparecieron sintetizadores que

ofrecían una serie de sonidos y efectos pregrabados. Éstos serían utilizados cada

vez más con propósitos comerciales, desde los anuncios de la televisión hasta la

música para películas de ciencia-ficción. Hoy existe una amplia variedad de

sintetizadores, capaces de imitar casi cualquier sonido y de crear gamas tonales y

timbres completamente nuevos.

Los nuevos instrumentos musicales electrónicos de la década de 1960 también

contribuyeron al crecimiento de la música electrónica en vivo, en la cual la creación

y la manipulación electrónica del sonido ocurren en tiempo real (es decir, que se

tocan y se escuchan en el momento). Al mismo tiempo, ciertos compositores

creaban música electrónica en vivo con equipos

fabricados por ellos mismos. La obra Solo de

Stockhausen (1966), por ejemplo, utilizaba un

complejo sistema de retardo de la grabación que

requería cuatro ayudantes para su interpretación.

Durante la década de 1960 surgieron numerosos

grupos de música electrónica en vivo, muchos de los cuales interpretaban música

improvisada de carácter teatral. En años recientes, la revolución tecnológica

también se tradujo en la aparición de numerosos instrumentos electrónicos y

programas de ordenador diseñados para las actuaciones en directo. Destacan,

entre otros, el músico y diseñador de instrumentos Michel Waisvisz, que trabaja

en los estudios STEIM de Holanda, inventor de diversos instrumentos como el

llamado The Hands (las manos), en el cual el movimiento de las manos del

intérprete en el espacio activa sonidos complejos y permite manipulaciones sónicas.


El compositor-intérprete estadounidense George Lewis combina la improvisación al

trombón con programas personalizados de composición por ordenador que trabajan

de forma simultánea. La estación de trabajo de procesamiento de señales

desarrollada en el IRCAM permite una manipulación muy compleja en tiempo real

de los sonidos instrumentales y sintéticos. Además de estos interfaces (superficie

de contacto) altamente especializados, muchos compositores e intérpretes utilizan

algunas cajas de efectos disponibles en el mercado, diseñadas pensando en el

mercado de la música popular.

La evolución del sintetizador y la guitarra eléctrica a partir de los años

cincuenta también ha influido en gran medida en el mundo del pop y la música rock.

Los avances tecnológicos fueron acogidos con entusiasmo por grupos como The

Grateful Dead, Pink Floyd y la Velvet Underground. En la década de 1980 se

in

ventó una nueva forma de trabajar con instrumentos de música electrónica dirigida

al mercado popular: el llamado MIDI (interface digital de instrumentos musicales).

El MIDI no es un instrumento musical, sino un medio que permite a los

sintetizadores y otros equipos comunicarse unos con otros mediante el envío de

instrucciones digitales. Por ejemplo, mediante el MIDI un intérprete puede hacer


que varios sintetizadores respondan cuando se toque uno de ellos. El uso de la

tecnología musical en la música pop y rock es tan importante que la naturaleza de

los instrumentos y las otras tecnologías musicales relacionadas con la música

electrónica están dictadas, en gran medida, por las necesidades de la industria del

rock.

La síntesis del sonido y las técnicas de procesamiento

Las diferentes técnicas utilizadas para crear música electrónica pueden

dividirse entre las que se usan para crear nuevos sonidos y las que se utilizan para

modificar, o transformar, sonidos ya registrados. En épocas pasadas se usaban

osciladores y filtros de control por voltaje, pero estas funciones las realiza hoy el

ordenador. La creación de sonidos completamente nuevos obtenidos por la

superposición o la mezcla de sonidos puros es un proceso llamado síntesis aditiva.

Por otra parte, el modelado de sonidos o filtración de ruido se conoce como

síntesis sustractiva. El compositor francés Jean-Claude Risset ha diseñado muchos

timbres por síntesis aditiva en obras como Mutations I (1979), mientras que el

estadounidense Charles Dodge usa la síntesis sustractiva con gran efectividad en

su obra Cascando (1983). La síntesis por frecuencia modulada (FM), documentada

por vez primera por el compositor estadounidense John Chowning en la década de

1960, se emplea como vía para crear sonidos sintéticos complejos. Su pieza para

cinta Stria (1976) está compuesta de varios timbres FM mezclados. Se pueden

usar filtros de diferentes tipos para acentuar tonos o armonías específicas, y los

sonidos pueden prolongarse en el tiempo, o elevarse y bajarse de tono, gracias a

técnicas como el vocoding de fase o codificación predictiva lineal. Las Seis

fantasías sobre un poema de Thomas Campion de Paul Lansky (1979) son una obra

pionera en este área. Además, se usan técnicas de reverberación para añadir ecos

o un cierto retardo a los sonidos grabados o sintetizados, mientras que se utilizan

técnicas de simulación de espacios o salas para imitar el carácter acústico de las


grandes salas de conciertos y otros espacios. Todas estas técnicas, aisladas o

combinadas, son de uso frecuente entre los compositores de música electrónica.

Música por ordenador y música electroacústica

La música por ordenador se caracteriza por el empleo de la tecnología digital. Si

la música creada mediante el corte y pegado de cintas utilizaba grabadoras y

dispositivos analógicos, los ordenadores almacenan la información de forma digital,

como números que pueden manipularse mediante procesos matemáticos usando

programas informáticos. Desde la década de 1960 los términos música

electroacústica y por ordenador se refieren, respectivamente aunque no de forma

constante, a la música analógica y a la digital. Hoy esos términos se usan casi de

forma equivalente, dado que casi toda la música electrónica utiliza ahora tecnología

digital.

Son hoy muchos los compositores que

escriben música electrónica, en una

gran variedad de estilos. En alguno de

estos casos la tecnología digital ofrece

la oportunidad de crear una música para

cinta magnetofónica que explore los

sonidos del entorno natural. El

compositor francés Luc Ferrari ha

escrito una serie de piezas, Presque Rien nº 1-3, usando grabaciones directas de

los sonidos del mar o del campo. Otros compositores, como Denis Smalley en el

Reino Unido o el argentino Horacio Vaggione, continúan la tradición de la música

concreta en la que los sonidos grabados son sometidos a un procesamiento y una

edición muy intensas. Este tipo de música, en la que los sonidos grabados son

tratados como objetos sonoros abstractos, es conocido como acusmática. Para

compositores como el canadiense Robert Normandeau es importante cómo se


presenta la música de cinta en una actuación. Su obra Spleen (1993) ha de

interpretarse con varios altavoces.

Avances futuros

La música electrónica es, con relación a la música en general, un campo muy

nuevo que ha sabido adaptarse a los rápidos avances tecnológicos. En años

recientes ha habido enormes avances en la tecnología interactiva y multimedia, de

gran influencia en el carácter de la música electrónica y en su interpretación. La

disponibilidad de cada vez mayor tecnología de comunicaciones como Internet y

otras redes informáticas han permitido a los compositores intercambiar programas

de música e incluso sonidos grabados. Si se observa este género de forma aislada,

tanto desde el punto de vista de los compositores como del público, se apreciarán

las diferencias tecnológicas y estéticas con respecto a la música convencional. Hoy

son muchos los practicantes de este género que ven la música electrónica como una

parte del todo que constituye la música. Muchas obras combinan sonidos

electrónicos y acústicos (instrumentales). Buen número de compositores de este

género trabajan en colaboración con otros medios como el vídeo, el cine o la danza.

Quizá en el futuro el término música electrónica desaparezca, una vez que tanto la

tecnología electrónica como la informática estén plenamente integradas en el

mundo del compositor.

INFORMÁTICA MUSICAL

Como es de suponer hoy en día se

utilizan los ordenadores para

crear o retocar una canción o

composición musical en cualquier

tipo de género musical (clásico,

pop, rock…). Esto puede

producirse en el momento de la

creación, de la interpretación o

de la reproducción de la obra musical. Gracias al uso de estas tecnologías, la


información y la comunicación musical se han visto ampliadas de forma

extraordinaria en las últimas décadas.

Equipo básico

El equipo básico que se necesita para oír o crear tu música es: un ordenador

estándar multimedia (con tarjeta de sonido y unidad lectora de CD-ROM).

Si se quiere utilizar las capacidades musicales de los ordenadores necesitaremos

programas específicos: editores musicales, aplicaciones multimedia o programas de

entrenamiento.

Para aprovechar mejor sus posibilidades conviene completar el ordenador con

periféricos musicales, como teclados MIDI o módulos de sonido.

El MIDI

El acrónimo MIDI (Interconexión Digital para Instrumentos Musicales). Es un

aparato que te permite saber como se ha de reproducir una determinada pieza

musical, pero no transmite sonidos. Sería el equivalente informático a la partitura

Periféricos

-Unidades de CD-ROM: Un CD-ROM es una unidad que puede incluir, textos,

gráficos, música codificada, animaciones y vídeo digital.

-Tarjetas de sonido: Es un dispositivo interno que incorpora dos funciones: Un

sintetizador musical, que puede reproducir música codificada por el sistema MIDI,

y la posibilidad de registrar y reproducir sonidos reales. La tarjeta de sonido

presenta entradas y salidas. Las más usuales son: salida de auriculares o altavoces,

entrada de micro, entrada y salida de línea y un conector para joystick que también

puede servir como interface MIDI.

-Controladores MIDI: los controladores son aparatos mecánicos que imitan las

formas de los instrumentos tradicionales, y sirven para convertir la interpretación

musical en información MIDI.


-Distintos controladores: teclados, flautas, guitarras, arpas… Incluso hay

controladores MIDI que no se corresponden con ningún instrumento conocido:

cañones de luz, sensores de movimiento…

Generadores de sonido:

-Los módulos de sonido o racks: son sintetizadores que convierten en sonido los

mensajes que llegan por el puerto MIDI. Es necesario que estén conectados a otro

aparato que les envíe información MIDI (ordenadores, secuenciadores o

controladores) y a un dispositivo de amplificación de sonido.

-Los sintetizadores con teclado: estos instrumentos incorporan un controlador

MIDI (el teclado) y un sintetizador interno. La mayoría de funciones de selección y

edición de timbres son accesibles desde diversos botones de órdenes, y

acostumbran a llevar también una pantalla de cristal líquido donde se muestran las

diferentes opciones seleccionadas.

También podría gustarte