Audio Inmersivo para Conciertos Silenciosos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 83

UNIVERSIDAD DE LAS ARTES

Escuela de Artes Sonoras

Proyecto técnico

Audio inmersivo para conciertos silenciosos

Previo la obtención del Título de:

Licenciado en Producción Musical y Sonora

Autor:

Carlos Andrés Rada Hurtado

GUAYAQUIL - ECUADOR
Año: 2019

1
Declaración de autoría y cesión de derechos de publicación de la tesis

Yo, Carlos Andrés Rada Hurtado declaro que el desarrollo de la presente obra es
de mi exclusiva autoría y que ha sido elaborada para la obtención de la Licenciatura en
Producción Musical y Sonora. Declaro además conocer que el Reglamento de
Titulación de Grado de la Universidad de las Artes en su artículo 34 menciona como
falta muy grave el plagio total o parcial de obras intelectuales y que su sanción se
realizará acorde al Código de Ética de la Universidad de las Artes. De acuerdo al art.
114 del Código Orgánico de la Economía Social de los Conocimientos, Creatividad E
Innovación* cedo a la Universidad de las Artes los derechos de reproducción,
comunicación pública, distribución y divulgación, para que la universidad la publique
en su repositorio institucional, siempre y cuando su uso sea con fines académicos.

Firma del estudiante

*CÓDIGO ORGÁNICO DE LA ECONOMÍA SOCIAL DE LOS CONOCIMIENTOS, CREATIVIDAD E INNOVACIÓN (Registro


Oficial n. 899 - Dic./2016) Artículo 114.- De los titulares de derechos de obras creadas en las instituciones de
educación superior y centros educativos.- En el caso de las obras creadas en centros educativos, universidades,
escuelas politécnicas, institutos superiores técnicos, tecnológicos, pedagógicos, de artes y los conservatorios
superiores, e institutos públicos de investigación como resultado de su actividad académica o de investigación
tales como trabajos de titulación, proyectos de investigación o innovación, artículos académicos, u otros análogos,
sin perjuicio de que pueda existir relación de dependencia, la titularidad de los derechos patrimoniales
corresponderá a los autores. Sin embargo, el establecimiento tendrá una licencia gratuita, intransferible y no
exclusiva para el uso no comercial de la obra con fines académicos.

2
Miembros del tribunal de defensa

Darío Buitrón Merlo


Tutor del Proyecto Interdisciplinario

Diego Benalcázar
Miembro del tribunal de defensa

Daniel Orejuela
Miembro del tribunal de defensa

3
Agradecimentos:

Mi más sincero agradecimiento en


primer lugar a Dios quien me ha dado
salud y fortaleza durante todo este
proceso, a mi familia quienes han sido
un pilar fundamental de apoyo dentro
de mi carrera, a mi tutor Darío Buitrón
que estuvo guiándome y formando
profesionalmente durante todo el
semestre, a los docentes Adina Izarra y
Rubén Riera: excelentes músicos y
personas que ayudaron con su
presentación dentro de mi concierto, a
Carlos Mejía y Remigio Vásconez que
estuvieron ayudándome con los
espacios y los equipos necesarios para
las prácticas y realización del concierto
silencioso, a mi enamorada Vanessa
Quimí quien me dio ánimos y ayudó
con parte de la logística de todo mi
proyecto y a mis amigos que
colaboraron con la movilización y
préstamos de equipos; a todos ellos,
infinitas gracias, que Dios multiplique
su generosidad y les conceda éxito en
su vida profesional.

4
Dedicatoria:

El presente proyecto lo dedico a mi


papá Carlos Humberto Rada Peralta,
apoyo incondicional durante mi
carrera universitaria, la persona que
siempre confió en mi talento desde
el principio de mis estudios
superiores y estuvo conmigo en todo
momento sin inmportar la situacion
en la que me encuentre y a mi tío
Widin Orellana quien me dio ánimo
para culminar mi carrera, me
aconsejó y asesoró en mi trabajo.

5
Resumen

Los conciertos silenciosos tienen la particularidad de usar audífonos para su

escucha sin preocuparse por el uso de suelo o el traslado y montaje de amplificación de

sonido; además de manejar diferentes mezclas de instrumentos o dispositivos que son

enviados hacia el público por medio de sistemas de monitoreo alámbricos o

inalámbricos, esta experiencia poco convencional permite manejar el control de

volumen independiente por persona y sentir un mayor grado de inmersión que en un

concierto común.

El presente proyecto ofreció un concierto silencioso, denominado Guayaquil

Silente, donde el público tuvo a su disposición audífonos con una mezcla en sonido 3D

en vivo, experiencia que sirvió para la implementación de un manual técnico para el

montaje, creación y diseño de prácticas posteriores. A partir de esta investigación y

pruebas, este trabajo ofrece otra forma de disfrutar un concierto que no genera un

impacto ambiental acústico y que, con ayuda de nuestro manual de montaje, sea más

viable seguir las instrucciones establecidas para la realización del mismo.

Palabras claves: Conciertos silenciosos, Ambisonics, Sonido 3D, Escucha binaural.

6
Abstract

Silent concerts have the particularity of using headphones to listen without

worrying about the use of soil or the transfer and assembly of sound amplification,

besides handling different mixes of instruments and devices that are sent to the public

through wired or wireless monitoring systems, this unconventional experience allows us

to manage the control of independent volume per person and feel a greater level of

immersion than in a common concert.

The present project offered a silent concert called ‘’Silent Guayaquil’’ where

people had at their disposal headphones with a live 3D mix, an experience that served

for the implementation of a technical mounting, creation and design of subsequent

practices. From this investigation and technical manual for mounting, this project offers

another way of enjoying a concert that avoids generating an acoustic environmental

impact and that, with the help of our mounting manual for the concert, be more viable to

follow the mentioned instructions for the realization of the plan.

Keywords: Silent concerts, Ambisonics, 3D audio, binaural listening.

7
ÍNDICE GENERAL

Agradecimientos…………………………………………………………………………4

Dedicatoria………………………………………………………………………………5

Resumen…………………………………………………………………………………6

Abstract…………………………………………………………………………………..7

1. Introducción…………………………………………………………………………11

1.1. Delimitación del problema………………………………………………...12

1.2. Justificación………………………………………………………………..13

1.3. Objetivos:…………………………………………………………………..14

1.3.1. Objetivo general………………………………………………….14

1.3.2. Objetivos específicos…………………………………………….15

1.4. Alcance y limitaciones del estudio………………………………………...15

1.4.1 Alcances…………………………………………………………..15

1.4.2. Limitaciones……………………………………………………...16

1.5. Metodología………………………………………………………………..16

1.6. Tiempo y lugar de estudio…………………………………………………18

1.7. Terminología………………………………………………………………18

2. Marco Teórico……………………………………………………………………….19

2.1. El sonido en un medio elástico…………………………………………….19

2.2. Percepción de escucha……………………………………………………..20

2.3. Curvas Isofónicas de Fletcher y Munson…………………………………..22

2.4. Fase………………………………………………………………………...23

2.5. Polaridad…………………………………………………………………...25

2.6. Transmisión de audio, flujo de señal………………………………………26

2.7. Escucha binaural…………………………………………………………...27

8
2.8. Breve historia del desarrollo de los sistemas de reproducción…………….31

2.9. Ambisonics………………………………………………………………...39

2.10. Códecs para audio digital…………………………………………………46

2.11. DAW, Software y Plugins………………………………………………..46

2.11.1. Reaper…………………………………………………………..46

2.11.2. Max/MSP……………………………………………………….47

2.11.3. FB360 Spatialiser……………………………………………….48

2.11.4. FB360 Converter………………………………………………..50

2.11.5. FB360 Control………………………………………………….51

3. Desarrollo del concierto silencioso “Guayaquil silente”……………………………52

3.1. Listado de equipos…………………………………………………………52

3.2. Listado de entradas………………………………………………………...54

3.3. Listado de salidas…………………………………………………………..55

3.4. Mezclas…………………………………………………………………….56

3.5. Flujo de señal………………………………………………………………57

3.6. Montaje / Diagrama de escenario………………………………………….58

3.7. Repertorio “Guayaquil Silente” …………………………………………...58

4. Resultados…..……………………………………………………………………….59

4.1. Manual de implementación de sistema de audio inmersivo para concierto

silencioso…………………………………………………………………..59

4.2 Manual de implementación de sistema de audio inmersivo para

concierto silencioso en la Universidad de las Artes……………………………59

4.3. Encuestas realizadas a cada uno de los asistentes al concierto……………59

4.2.1. Datos estadísticos sobre las encuestas……………………..…….60

5. Conclusiones y recomendaciones……………………………………………………61

9
5.1. Conclusiones……………………………………………………………….61

5.2. Recomendaciones…...……………………………………………………..61

6. Bibliografía………………………………………………………….……………….63

7. Anexos……………………………………………………………………………….67

10
1. Introducción

Este proyecto realiza el montaje para un concierto silencioso en el que se

presentan dos docentes de la Universidad de las Artes, recreando atmósferas sonoras en

3D, para brindar una experiencia inmersiva por medio de audífonos, que son dispuestos

para cada uno de los espectadores con control de volumen independiente para el

monitoreo del show. Además, no existan inconvenientes con la contaminación acústica

debido a las características que tiene el evento, como menciona Gabriel Albornoz,

manager del departamento profesional de Audio-Technica, «Comenzaremos a través de

cascos y otros sistemas inalámbricos. Así un concierto podría llevarse a cabo en un

museo, por ejemplo, sin molestar a nadie.»1

Para este concierto se hacen las conexiones respectivas y se emplean plugins

para el uso de tecnología Ambisonics. Algunos de estos pertenecen al paquete de

Facebook 360 Spatial Workstation, el cual decodifica las señales para ubicarnos en un

espacio 3D con ayuda de un DAW y monitoreo por audífonos. Así mismo, se dispone

de un manual de montaje que contiene la información necesaria para replicar dicho

show con iguales o similares características o producir un concierto inmersivo

obteniendo facilidades de implementación para este tipo de espectáculos.

La experiencia recreada para los espectadores brinda métodos poco

convencionales para conciertos de música ya que, gracias a la mezcla en vivo en 3D

para audífonos, los asistentes tienen un sonido más envolvente y enriquecedor sin temor

a dañar sus oídos o a no escuchar con “buena” definición desde cualquier punto en el

recinto del evento.

1
Juan Scaliter, «Los conciertos serán silenciosos», Artículo en línea La Razón (6 de junio. 2018),
https://www.larazon.es/tecnologia/los-conciertos-seran-silenciosos-JE18589123.

11
1.1. Delimitación del problema

En el afán de estar a la vanguardia de las experiencias inmediatas que ofrecen las

redes sociales y los nuevos medios, este dinamismo emergente en lo que respecta a la

inmersión de audio en el mercado, ha sido poco aplicado dentro de Guayaquil y la

difusión que se le ha dado ha sido mínima en cuanto al potencial que tiene y a la calidad

de performance que puede proveer. Con la elaboración de este trabajo se pretende dar

mayor impulso al método de uso de tecnología Ambisonics para obtener este tipo de

show y performance y poder plasmarlo en un manual que será de fácil entendimiento y

accesibilidad para el usuario.

El uso de suelo es uno de los principales problemas que tienen los conciertos

para llevarse acabo debido a su alta contaminación acústica, creando incomodidad y

malestar a los sectores cercanos del lugar del evento, además de los costos elevados de

alquiler o adquisición de equipos de amplificación para conciertos convencionales. El

punto de escucha óptimo suele ser un problema para los espectadores debido a las

cancelaciones de fase que se encuentran en ciertos puntos del recinto, impidiendo

disfrutar al 100% del espectáculo. Por otro lado, refiriéndose a la percepción de escucha

del público, puede ser variable: desde no percibir el sonido en 3D hasta una inmersión

completa. Debido a estos puntos mencionados, se crean los siguientes

cuestionamientos:

¿Cómo se logrará obtener un sonido en 3D para una mezcla binaural para un

concierto silencioso en vivo? ¿Se podrá percibir la espacialidad necesaria para que el

espectador note el sonido en tres dimensiones?

12
Con la implementación de un sistema de monitoreo para conciertos silenciosos

se cubren todos estos inconvenientes, además de brindar una experiencia inmersiva y

una propuesta innovadora de hacer un performance poco convencional para el

espectador, utilizando tecnología Ambisonics, la cual se realizará una breve encuesta

donde se evaluará a cada uno de los espectadores para obtener una retroalimentación de

cuál fue su experiencia inmersiva durante el concierto.

1.2. Justificación

Dentro de este proyecto, se buscó experimentar con la reproducción de audio

binaural, utilizando sonido envolvente y ampliando el panorama sonoro para el oyente,

mediante un concierto silencioso (Silent Concert), el cual se pudo escuchar en vivo por

medio de audífonos dispuestos para el público asistente. Con esto se logró crear un

ambiente de inmersión para los oyentes, sin llegar a usar amplificación de audio para

promover una forma de entretenimiento diferente a la convencional con respecto a

conciertos en vivo. Además que muchas veces en ciertas zonas no permiten el sonido a

alto volumen por el miedo a la contaminación acústica que se percibe en los lugares

aledaños causando molestias y problemas con el sector ajeno al evento. También el

público fue capaz de plasmar su nivel de satisfacción al haber asistido al concierto ya

que se le facilitó una encuesta donde se midió el grado de inmersión obtenido durante el

evento.

El sonido proveniente de los docentes en escena contó con una mezcla de sonido

en 3D a través de audífonos, evitando cancelaciones de fase que se dan generalmente

cuando se mueve el oyente en zonas diferentes dentro del sistema de reproducción,

13
perdiendo la esencia de la obra sonora y/o musical así como también el contenido de

frecuencias.

Tal como afirma Andrés Nacrur (cocreador de iniciativa para conciertos

silenciosos en Chile) en una entrevista para la agencia de noticias EFE que: «En un gran

concierto el sonido que recibe el público depende mucho de la ubicación en la que se

encuentre. Con los audífonos escuchas todo con claridad independientemente de donde

estés situado.»2. Es evidente que con esto se llevó al público a escuchar fielmente la

presentación en vivo que brindaron los artistas en escena.

Con todo lo mencionado anteriormente, se logró dar una opción poco

convencional para la producción de conciertos en los que los asistentes experimentaron

otro ambiente sonoro gracias a la inmersión creada, además de poder obtener un manual

de implementación del sistema de audio inmersivo para el montaje de futuros conciertos

silenciosos y con ello optimizar tiempo y recursos para producir con mayor efectividad

este tipo de eventos y conseguir buenos resultados para el público con tan solo seguir

cada instrucción mencionada dentro de este documento, llegando a dar una opción

innovadora para la producción de conciertos.

1.3. Objetivos

1.3.1. Objetivo general

Diseñar y ejecutar un procedimiento para el uso de herramientas de audio

inmersivo en conciertos silenciosos en vivo utilizando sistemas de monitoreo binaural.

2
Patricia López Rosell, «Los conciertos “silenciosos” llevan la música a los edificios públicos de Chile»,
Agencias EFE (11 de mayo. 2019), https://www.efe.com/efe/america/cultura/los-conciertos-silenciosos-
llevan-la-musica-a-edificios-publicos-de-chile/20000009-3973708#.

14
1.3.2. Objetivos específicos

• Obtener nuevas experiencias inmersivas, con ayuda de plugins y herramientas

destinadas para trabajar y codificar el audio inmersivo.

• Dar alternativas para eventos sin preocupación del uso de suelo evitando niveles

altos de contaminación acústica.

• Decodificar las señales de audio en tiempo real para experimentar la inmersión

de forma binaural.

• Elaborar un manual de implementación de sistema inmersivo binaural para

conciertos silenciosos.

1.4. Alcance y limitaciones de estudio

1.4.1 Alcances

Con este proyecto se consigue mantener una mezcla igual para cada asistente al

concierto silencioso, además de configurar el sistema de monitoreo de los músicos en

escena de tal forma que se sientan cómodos y puedan desarrollar su performance de la

mejor forma.

En el edificio Humberto Salgado, salón Salgado 101, dentro de las instalaciones

de la Gobernación (Universidad de las Artes), al implementar todo el sistema de

monitoreo para el concierto silencioso y dado que se encuentran oficinas cercanas al

salón, igualmente se podrá disfrutarlo de manera tranquila y ordenada.

Un punto importante dentro de este proyecto es crear un documento guía para el

montaje del concierto silencioso donde en un futuro cualquier persona: ya sea de la

universidad o ajena a ella, pueda realizar este tipo de espectáculo y llevarlo a cabo con

éxito sin mayores dificultades.

15
También, gracias al uso de la tecnología Ambisonics mediante plugins del

paquete de FB360 Spatial Workstation como FB360 Spatialiser, FB360 Control entre

otros, lograremos codificar y decodificar el audio totalmente en vivo para realizar la

mezcla para los espectadores.

En adición, este concierto silencioso se experimenta totalmente en vivo con el

paneo de la señal (a cargo del operador del sistema de audio en algunas piezas

musicales) de una guitarra electroacústica y en ciertos temas del manejo del ambiente

generado por uno de los artistas en escena, todas las acciones podrán ser percibidas por

los asistentes a lo largo del concierto.

1.4.2 Limitaciones

El evento tiene una capacidad máxima de 24 personas debido a la carencia de

audífonos y sus respectivos amplificadores por lo que solo se dispone de tal cantidad

para la realización. De igual forma, cada juego de audífonos son alámbricos ya que no

se cuenta con un presupuesto alto como para alquilar un sistema de monitoreo

inalámbrico.

1.5. Metodología

La siguiente es una investigación de carácter cualitativo debido a que se

estuvieron analizando las formas de conectividad y enlace de las señales de audio para

realizar la configuración para la espacialidad del sonido en 3D, además de calificar la

calidad de recepción sonora y que información se va a captar de manera binaural. De

igual modo, este proyecto posee un método cuantitativo ya que se estudió el grado de

inmersión que hubo dentro del concierto y qué tanto el espectador logró percibir la

espacialidad del audio durante su ejecución.

16
Se realizó una investigación sobre Ambisonics, escucha binaural y sus

antecedentes; qué llevó a realizar y desarrollar dicha tecnología. Adicionalmente se

analizaron y probaron diferentes plugins que ayudaron a codificar y decodificar el audio

para el evento (concierto silencioso) en vivo.

Los docentes de la Escuela de Artes Sonoras de la Universidad de las Artes,

Adina Izarra y Rubén Riera brindaron un concierto silencioso, el cual no utilizó

amplificación sino que se conseguió amplificadores de audífonos y audífonos

(alámbricos) para que los asistentes puedan usarlos y obtuvieran una inmersión de audio

de manera binaural. Además, se instalaron luces para ambientar el lugar y se dispuso de

una laptop con una consola digital de audio para el respectivo enlace y monitoreo de la

señal durante el concierto.

Se utilizaron DAWs como Protools, Cubase, Reaper, el protocolo de audio

digital DANTE (DANTE Controller) para el enrutamiento de las señales, también

diferentes plugins como el FB360 Spatialiser y el FB360 Control de FB360 Spatial

Workstation para las pruebas previas a la configuración que se definió para el concierto

final.

Dentro del concierto se instalaron dos micrófonos dispuestos hacia la audiencia

para capturar las reacciones del público en general y enviar dicha señal en vivo hacia los

auriculares de los asistentes para generar un ambiente de concierto con el sonido de los

mismos. Previo al evento, se realizaron varias pruebas de conexiones, envíos de señal y

formas de mezclar los canales; 4 canales de salida de los docentes para los audífonos del

público.

También se elaboró un manual instructivo especificando como realizar las

conexiones necesarias para la implementación de un concierto silencioso, con

diagramas de flujo de señal.

17
Finalmente, se documentará en audio y video todo el concierto silencioso para

posteriormente entregarlo en un DVD.

1.6. Tiempo y lugar de estudio

El presente trabajo tuvo un periodo de 8 meses de investigación y pruebas que

fueron importantes para la culminación del mismo. Se realizó dentro de la Universidad

de las Artes y tuvo como escenario el aula Salgado 101 del campus centro en la ciudad

de Guayaquil, Ecuador.

1.7. Terminología

 Ambisonics: tecnología aplicada al audio espacial para sistemas multicanal.

 Binaural: recreación de sonido en 3 dimensiones mediante 2 canales.

 DAW: Estación de trabajo de audio digital destinada para la grabación, edición,

mezcla y masterización del audio.

 Códecs: programa o dispositivo hardware destinado a codificar y decodificar

datos digitales o señales de audio y video dentro de un contenedor.

 Psicoacústica: estudio científico de la percepción del sonido donde el cerebro

analiza la relación entre las ondas acústicas que llegan al pabellón auditivo y la

percepción de la imaginación del espacio sonoro que experimentan los receptores.

 In Ear: sistema de monitoreo personal conformado por un receptor y auriculares

especializados para obtener la referencia del artista, banda y/o pista.

18
2. Marco teórico

Dado que nuestra forma de percepción auditiva es compleja, conllevando puntos

muy importantes para entender el trasfondo del concierto a realizar, es fundamental

mencionar y recordar contenido relevante para el desarrollo de nuestro proyecto; así se

garantizaría el éxito del montaje con ayuda de nuestro manual de implementación,

donde se detallará la información necesaria para llevar a cabo este proyecto.

2.1. El sonido en un medio elástico

El sonido se origina cuando una fuente sonora vibra y provoca movimiento de

las moléculas a través de un medio elástico como los líquidos, gases y sólidos; esto

ocurre por la compresión y descompresión de las ondas sonoras que viajan

longitudinalmente. Generalmente, escuchamos el sonido a través del aire el cual se

compone de moléculas con propiedades elásticas generando ondas longitudinales que

chocan entre sí empujándose para provocar una oscilación desde un punto fijo.

Así como describen Rumsey y Mc Cormick sobre como viaja el sonido en el

aire:

La velocidad a la que se aleja depende de la densidad y elasticidad de la

sustancia que atraviesa. En el aire esta velocidad es relativamente baja,

comparada con la velocidad a la que el sonido viaja a través de la

mayoría de los sólidos. La velocidad es relativamente baja, comparada

con la velocidad a la que el sonido viaja a través de la mayoría de los

sólidos. La velocidad del sonido en el aire es, aproximadamente, 340 m/s,

aunque ello depende de la temperatura del aire. A la temperatura de

congelación la velocidad se reduce hasta estar próxima a los 330 m/s. En

19
el acero, para dar un ejemplo de sólido, la velocidad del sonido está

alrededor de los 5100 m/s.

La longitud de onda y la frecuencia se relacionan entre sí muy

fácilmente, siempre que se conozca la velocidad de onda (representada

normalmente por la letra c).3

La velocidad de la transmisión sonora depende directamente del medio en el que

se transmita y esto es directamente proporcional a la densidad del mismo: a mayor

densidad mayor será la velocidad de transmisión del sonido.

2.2. Percepción de escucha

Es necesario entender de una manera más precisa como actúan nuestros oídos a

determinadas fuentes sonoras, por lo tanto, explicaremos detalladamente su anatomía de

la siguiente manera:

Estructura del oído humano 4

Figura 1

3
Francis Rumsey y Tim Mc Cormick, Introducción al Sonido y la Grabación. (IORTV), 19
4
Figura tomada de Federico Miyara, CONTROL DE RUIDO, 1999.

20
Linares manifiesta lo siguiente:

El sistema para la escucha se compone de un órgano de toma de datos

(oído externo y medio), un órgano de conversión analógica digital (oído

interno) y un sistema de memorias u ordenador central (cerebro). Así, las

ondas acústicas del entorno inciden sobre el pabellón auditivo penetrando

por el canal y poniendo a vibrar el tímpano. Posteriormente se convierten

esos impulsos mecánicos en excitaciones nerviosas que llegan al

cerebro5.

El funcionamiento del oído se basa en la transformación de energía acústica en

energía mecánica, luego termina generando impulsos eléctricos enviados al cerebro,

para percibir dicha información del sonido.

El oído externo al recibir el sonido a través de sus pliegues, puede localizar la

fuente sonora. El conducto auditivo resuena en torno a los 3kHz, creando mayor

sensibilidad en el rango de frecuencias donde se encuentra la inteligibilidad de la voz

humana. El tímpano cumple una de las tareas más importantes, ya que es el encargado

de trasformar la energía acústica en energía mecánica. Los tres huesillos (Martillo,

Yunque y Estribo) que conforman el oído interno proporcionan el ajuste de impedancias

necesarias para que la onda sonora del medio acústico pase al fluido del oído interno.

Una parte fundamental dentro del oído interno es la cóclea; la cual percibe la amplitud y

la frecuencia del sonido, convirtiendo estas vibraciones en impulso eléctrico para luego

ser enviados al cerebro y a las neuronas a través de fibras nerviosas.

5
J. Linares, Acústica arquitectónica (México: Editorial LIMUSA 2007), 350.

21
2.3. Curvas Isofónicas de Fletcher y Munson

El oído humano se comporta de una forma no lineal refiriéndose a la frecuencia

y al nivel de presión sonora (SPL) por lo que los físicos estadounidenses Harvey

Fletcher y Wilden A. Munson crearon un conjunto de curvas Isofónicas, las cuales

mostraban el comportamiento del oído humano con ayuda de señales senosoidales

Rumsey y Mc Cormick mencionan que:

A partir de estos resultados pudieron dibujarse curvas con el promedio de

«igual sonoridad», que indican para cada frecuencia el SPL necesario

para que un sonido se perciba con un determinado nivel sonoro (ver

figura). El nivel se mide en fonios, siendo la curva de cero fonios aquella

que pasa por 0 dB de SPL para 1kHz; en otras palabras, esta es la curva

de umbral de audición. Cualquier punto a lo largo de la curva de 0 fonios,

tendrá el mismo nivel sonoro, si bien, como puede verse claramente, en

los extremos del espectro se requiere un SPL mayor que en el centro.6

Con esto se logró representar la sensibildad del oído humano con diferentes

frecuencias para todo el rango audible (20hz – 20 kHz), sometiendo con experimentos a

un gran número de personas quienes ajustaban el nivel de intensidad de diferentes tonos

de prueba hasta que lograran sentir una igualdad sonora de referencia con una

frecuencia de 1kHz; dando como resultado el diagrama:

6
Francis Rumsey y Tim Mc Cormick, Introducción al Sonido y la Grabación, 45.

22
Ilustración de las curvas isofónicas de Fletcher y Munson7

Figura 2

2.4. Fase

Cuando dos ondas correspondientes a la misma frecuencia se encuentran “en

fase”, se debe a que sus semiciclos de compresión (+) y descompresión (-) coinciden

exactamente en el tiempo y espacio. Si estas dos señales en fase e igual amplitud se

superponen se obtiene como resultante la misma frecuencia pero al doble de amplitud. 8

Onda sinusoidal en fase

Figura 3

7
Figura tomada del libro Introducción al Sonido y la Grabación, 45.
8
F. Alton Everst, Ken C. Pohlmann, Master Handbook of Acoustics. (New York: Mc Graw Hi, 2009), 9.

23
Por otro lado cuando estas dos señales coinciden entre sí con su semiciclo

positivo y otra con el negativo, la resultante que se obtiene es igual a cero; es decir que

no habrá señal alguna.

Onda sinusoidal desfasada 180

Figura 4

Las diferencias de fase entre señales se deben a la diferencia de tiempo que hay

entre sí, es decir que si una señal parte desde un punto y la segunda desde otro punto la

resultante dependerá de la magnitud de este retraso.

Onda sinusoidal desfasada en tiempo

Figura 5

24
Generalmente la fase se representa en grados como 0, 90, 180, 270 y 360˚ y está

relacionada con la forma de una onda sinusoidal.

2.5. Polaridad

Se define como el positivo y negativo de una señal o también de una forma

binaria en 0 y 1. Para que todos los equipos trabajen de manera óptima se referenció

una señal eléctrica con una acústica.

Como menciona el ingeniero Eduardo Sacerdoti:

De esta manera se fijó que cuando un frente de presión positiva se aplica

al diafragma de un micrófono la tensión que crea a la salida debe ser

positiva. Análogamente si una tensión positiva se le aplica a un

altoparlante el cono o diafragma debe moverse hacia afuera (hacia el

oyente). En los altoparlantes se define entonces que aplicando una

tensión positiva al terminal rojo o +, el diafragma debe moverse hacia

fuera.9

Analógicamente, sucede lo mismo cuando microfoneamos un redoblante por

ambos parches, se debe invertir la polaridad de uno de los micrófonos ya que cada

parche va a reaccionar diferente que el otro (uno hacia arriba y el otro hacia abajo) y se

hace esto para evitar la cancelación de la señal.

9
Ing. Eduardo Sacerdoti, «Fase y Polaridad» (9-julio-2017), http://www.equaphon-university.net/fase-y-
polaridad/.

25
Arriba: señal original. Abajo: Señal con polaridad invertida 10

Figura 6

2.6. Transmisión de audio, flujo de señal

Toda transmisión de audio necesita una vía por la cual viajar, para que así pueda

pasar de un punto a otro. En cuanto a la transmisión electrónica para audio, utilizamos

los cables y el aire como medio acústico, no obstante existen otras formas magnéticas y

mecánicas. Este proceso de transmisión entre diferentes medios se denomina

transducción. La distancia física que se necesita para tener un ciclo completo en un

determinado medio se llama longitud de onda y regularmente se mide en metros o pies.

El tamaño de esta forma de onda dependiendo de la frecuencia, es proporcional a la

velocidad de transmisión que posee el medio en el que viaje la onda.

Bob McCarthy señala que:

La naturaleza física del componente de amplitud de la forma de onda es

dependiente del medio. En el caso acústico, el medio es el aire y las

vibraciones se expresan como cambios en la presión. La mitad del ciclo

que es mayor que la presión ambiental se llama presurización, mientras

10
Imagen tomada de http://www.equaphon-university.net/fase-y-polaridad/

26
que la parte de baja presión se llama rarefacción. El movimiento de un

altavoz hacia adelante en el aire crea una presurización y el movimiento

hacia detrás crea rarefacción. 11

El sonido tiene diferentes formas de transmitirse a través de diferentes medios y

es así como podemos escucharlo de manera electroacústica.

2.7. Escucha binaural

La escucha binaural es un punto de relevancia significativa dentro de la

psicoacústica refiriéndose a cómo reacciona el cuerpo humano frente a una fuente

sonora. La audición se produce mediante varios componentes del sistema auditivo por

medio de dos canales independientes denominados oídos. La información sonora, que es

llevada al cerebro mediante un complejo enlace de órganos y sistema nervioso, la

mayoría del tiempo es captada de manera diferente debido a que las fuentes sonoras no

siempre están en el plano central (sweet spot) equidistantes, siendo que ambos oídos se

encuentran físicamente separados entre sí por la cabeza. Esta diferencia en la posición

de los oídos es la que permite y ayuda al cerebro a localizar inmediatamente la fuente

sonora. Esta cualidad fisionómica se denomina escucha binaural. 12

Dentro del sistema auditivo, la sensación tridimensional está relacionada con la

diferencia entre intensidad y fase que percibe cada oído. Por lo tanto, la localización de

los sonidos en el entorno se logra con el procesamiento de dicha fuente por separado de

la información que recibe cada oído.

11
Bob McCarthy, Sistemas de Sonido: Diseño y Optimización (Editorial Alvalena, 2009), 24.
12
Jorge Andrés Torres Viveros, Aplicación de técnica de grabación y mezcla binaural para audio
comercial y/o publicitario (Bogotá D.C.: Pontificia Universidad Javeriana, 2009), 26.

27
Planos característicos13

Figura 7

Por esto obtenemos diferentes formas de cómo nuestros oídos reaccionan:

 ILD (Interaural Level Difference): Es la diferencia de intensidad entre las

señales que arriban a cada oído; puesto que, por la forma de nuestra cabeza, el

sonido es difractado alrededor de ella, es decir que el sonido viaja alrededor de

la cabeza para llegar al otro oído y por lo tanto deberá recorrer una distancia

extra y gastará más energía. Las ondas sonoras que posean una longitud de onda

(λ) menor a 35cm (frecuencias mayores 1kHz) sufrirán esta diferencia de

intensidad entre los dos oídos.14

 ITD (Interaural Time Difference): Se refiere a la diferencia de tiempo de llegada

de la fuente sonora con respecto a cada oído. Es posible detectar esto para

longitudes de onda elevadas como las frecuencias bajas (dependiendo de la

persona: menores a un rango entre 800 y 500Hz.) Con esto somos capaces de

13
Imagen extraída de Lorena Armenta Flores, Diseño y construcción de una cabeza binaural, 19.
14
Lorena Armenta Flores, Diseño y construcción de una cabeza binaural, (México D.F.: Escuela superior
de Ingeniería Mecánica y Eléctrica, 2011), 27

28
identificar rápidamente la ubicación de la fuente sonora con respecto a nuestra

cabeza.15

 HRTF (Head-Related Tranfer Functions): Es la forma en como nuestra cabeza y

oídos perciben el sonido, esto depende de la forma de nuestras orejas, el canal

auditivo, el tamaño y forma de nuestra cabeza, la densidad de la cabeza, el

tamaño y forma de las cavidades oral y nasal. Todas estas características que

varían en cada persona, transforman el sonido y afectan directamente a nuestra

percepción; potenciando algunas frecuencias y atenuando otras. La función

HRTF vendría a ser la mezcla del ILD y el ITD que altera la forma de onda

acústica y con ello nos permite encontrar la posición de la fuente sonora en

específico.16

 Efecto Doppler: Consiste en los cambios de longitud de onda ocasionados por el

movimiento de la fuente sonora, este cambio suele ser relativo acorde a como lo

percibe su observador. Un ejemplo muy claro, encontramos cuando una

ambulancia se acerca con la sirena sonando. El sonido emitido por esta cambia

conforme se va acercando al receptor, empieza sonando agudo luego en el

momento en que se encuentra en frente nuestro suena normal para finalmente

sonar más grave cuando se va alejando. 17

 Efecto Hass: la forma de captación de nuestros oídos no solo se basa en la

intensidad de la fuente sonora, sino en el tiempo en el que demora en llegar

dicho sonido, nuestro cerebro procesa esta información a través de nuestros

oídos y por medio de esto es posible localizar de dónde viene la fuente sonora, si

esta se encuentra muy alejada, nuestro cerebro no puede percibir la dirección de

15
Jorge Andrés Torres Viveros, Aplicación de técnica de grabación y mezcla binaural para audio
comercial y/o publicitario, 27.
16
FACEBOOK 360, Spatial Workstation user guide, 1.
17
Jorge Andrés Torres Viveros, Aplicación de técnica de grabación y mezcla binaural para audio
comercial y/o publicitario, 33.

29
donde proviene debido a la llegada de varios sonidos independientes con un

valor inferior a 50 ms, este termina mezclando los sonidos interpretándolo como

uno solo.18

 La Localización: de una fuente sonora permite a las personas ubicar dicha fuente

en el espacio donde se encuentran. Si la fuente de sonido se encuentra ubicada a

la derecha del oyente, se dice que el oído izquiero se halla en el área de sombra

provocada por la cabeza en referencia a la fuente.

Sombra acústica19

Figura 7

Por consiguiente, la señal que percibe el oído derecho posee mayor intensidad

que la del oído izquierdo, ya que está directamente relacionado con el ITD que

hay entre estos dos oídos.

 La Lateralización: es usada para identificar la forma y la ubicación de la fuente

sonora permitiendo escuchar la percepción espacial dentro de la cabeza a lo

largo del eje interaural entre los oídos. Para obtener la sensación de percepción

18
Francis Rumsey y Tim Mc Cormick, Introducción al Sonido y la Grabación, 50.
19
Figura tomada de Lorena Armenta Flores, Diseño y Construcción de una cabeza binaural, 19.

30
espacial se aplica diferencias de tiempo o de intensidad interaural sobre los

audífonos del oyente.

Lorena Armenta indica que:

La posición donde se ubica la imagen sonora a lo largo de una línea

imaginaria trazada entre los oídos, se denomina lateralización de la

imagen. (…) Un sonido presentado idénticamente a ambos oídos a través

de auriculares, llamado estímulo diótico, se lateraliza en el centro de la

cabeza. Se puede lograr que la imagen se mueva al oído derecho, por

ejemplo, introduciendo un retardo de tiempo a la derecha del oído

izquierdo o bien haciendo más intensa la señal del oído derecho.20

Debido a diferentes experimentos psicoacústicos, la laterización se ha podido

manejar modificando estos parámetros con ayuda de procesadores de señal,

dando la sensación que la fuente se mueve de un oído a otro.

2.8. Breve historia del desarrollo de los sistemas de reproducción

El 21 de noviembre de 1877 el inventor francés Thomas Alva Edison creó el

Fonógrafo: dispositivo mecánico, el cual permitía grabar y reproducir el sonido de

manera monofónica. Este sistema funcionaba por medio de un transductor acústico

mecánico que vibraba al captar las ondas sonoras. Estas ondas, movían un estilete que

tallaba unas ranuras sobre un cilindro de cera sólida (al principio se usaban cilindros de

carbón parafinado y/o cilindros de estaño.)21

En 1888 el alemán Emilio Berliner inventó el Gramófono el cual se volvió

popular rápidamente y como mencionan Rumsey y Mc Cormick:

20
Lorena Armenta Flores, Diseño y construcción de una cabeza binaural, 21.
21
Guillermo Picomell Pérez, Evolución de los sistemas técnicos de reproducción musical (Madrid:
Universidad Politécnica de Madrid, 2015), 30-31.

31
Se trataba de un sistema que utilizaba una pequeña bocina terminada en

un diafragma flexible y alargado. Este, a su vez, estaba unido a una aguja

capaz de trazar un surco de profundidad variable sobre una lámina de

hojalata maleable (…). Durante la reproducción las ondulaciones del

surco hacían vibrar la aguja y el difragma, provocando que el aire dentro

de la bocina se moviera en simpatía creando sonidos. El margen de

frecuencias era limitado y el sonido tenía excesiva distorsión. 22

Ya que se grababa en un disco plano de una sola cara con un diámetro de 7

pulgadas, a partir de la matriz era posible replicar miles de copias fácilmente ayudando

a que la industria musical empiece a crecer.

Con el pasar de los años y la implementación de transductores eléctricos-

acústicos y viceversa se desarrolló el disco de vinilo el cual estaba hecho de goma laca

proveniente de la secreción del escarabajo tropical de India y Malaya. Luego,

encontraron la forma de hayar un sustituto de este material llegando a utilizar

copolímero de cloruro de vinilo y acetato de vinilo siendo este, más resistente que los

discos anteriores permitiendo realizar más surcos sobre él. Debido a las nuevas

cararcterísticas de de estos discos, el tamaño de los surcos era mucho menor junto con

la reducción del ruido de la superficie llegando a mejorar la relación señal/ruido y

realzar la señal que se grababa. Por lo tanto, permitía a los ingenieros de sonido y

productores grabar más información dentro del mismo tamaño del disco por medio de

una reducción de velocidad mejorando la salida del sonido.23

En el siglo XX, con el avance de la tecnología, la grabación musical tuvo un

auge con la implementación de la cinta magnética (cinta de papel recubierta de óxido

22
Francis Rumsey y Tim Mc Cormick, Introducción al Sonido y la Grabación, 53.
23
Guillermo Picomell Pérez, Evolución de los sistemas técnicos de reproducción musical, 35-36.

32
de metal) inventada por Fritz Pfluemer en 1928 y lanzada comercialmente por la

compañía alemana AEG en 1934. El inconveniente con esta cinta era que tenía una

limitada repuesta de frecuencia y sus grabaciones sonaban con mucha distorsión.

Seguidamente al pasar la Segunda Guerra mundial, se fabricó una versión

mejorada de la cinta a cargo de la compañía 3M además de un dispositivo llamado

Ampex creado por una compañía más pequeña en California.

Luego ocurre una de las renovadas y más importantes versiones de esta cinta

como señala Guillermo Pérez:

La mejora más importante vendría de la mano de lo que se conoce como

grabadores de cinta polarizados con corriente alterna (AC-biased), que

trajeron consigo una buena calidad de sonido y la posibilidad de editar.

Además estos modelos incluían ya plásticos en vez de papel, que se

deterioraba menos y eran de manejo fácil. 24

Con esto, los editores y productores tenían la opción de cortar y editar con esta

cinta ya sea en medio de las grabaciones (facilitando las sesiones de grabación sin tener

que hacer una toma entera de la canción) o como medios de masterización.

Para 1963, la danesa Philips mejora la cinta magnética y da a conocer el casete

compacto, el cual se convertiría en el nuevo estándar mundial para grabar y escuchar

música. Luego Sony inventa el primer reproductor estéreo con auriculares llamado:

Walkman (1979) el cual tenía una calidad aceptable con una pequeña señal del

amplificador además que funcionaba con baterías. Después las empresas Phillips y Sony

lanzan el disco compacto que tiene una excelente acogida por su fácil reproducción en

varios dispositivos y por consiguiente Sony crea el Discman. 25

24
Guillermo Picomell Pérez, Evolución de los sistemas técnicos de reproducción musical, 38.
25
Guillermo Picomell Pérez, Evolución de los sistemas técnicos de reproducción musical, 75-76.

33
A finales del siglo XX, nace la grabación digital que se va convirtiendo con el

tiempo en nuevos formatos físicos, como el CD, el DVD y el Blu-Ray. Todos ellos con

cada vez mayor capacidad que el otro. Esta música se almacenaba codificada en ceros y

unos.

Si queremos irnos adentrando en el sonido en tres dimensiones, es necesario

revisar algunos puntos relevantes en la historia del cine para entender como este tipo de

configuraciones de parlantes se codifican luego a una mezcla binaural.

En la industria del cine en las primeras décadas paralelamente se proyectaron

películas mudas donde los productores cinematográficos enviaban una orquesta para

combinarla en vivo a las imágenes de la película. Invención que permitió tener música y

sonido ambiental mientras se reproducía la película obviando la interpretación en vivo

de una orquesta. Fue “Photokinema” el sistema de sonido utilizado para cortos en 1921

el cual utilizaba un disco similar a los discos de vinilo, donde se grababa el audio y este

tenía que ser reproducido durante la proyección. Dicha tecnología fue usada por primera

vez en la película “La calle de los sueños”, de D. W. Griffith (director de cine

estadounidense). Seguidamente en 1926 Fox realizó algo diferente lo cual consistía en

grabar el sonido directamente en la película obteniendo una sincronización más precisa

entre el audio y las imágenes. Esta nueva tecnología llamada Movietone fue usada por

primera vez en la película “El precio de la gloria”. 26

En todo este lapso de la década de los años 20 y 30, todas las películas tenían

sonido monofónico (reproducción de audio en un canal), para esto, algunos visionarios

de la industria como Walt Disney quisieron aumentar la calidad del sonido para el cine

implementando una banda sonora, interpretada por la Orquesta de Filadelfia, dentro de

26
Juan Carlos López, «De uno a 64 altavoces: la evolución del sonido en el cine a lo largo de los años»,
Azataka (30 de septiembre. 2014), https://www.xataka.com/audio/de-uno-a-64-altavoces-la-evolucion-
del-sonido-en-el-cine-a-lo-largo-de-los-anos.

34
la película “Fantasía”, llegando así a nacer el Fantasound que era un sistema de sonido

estéreo hecho para esta película. El sonido se consiguió grabar en 8 pistas: 6 para

distintas secciones de la orquesta, otra para la mezcla de estas 6 pistas y la última para

toda la orquesta cuyo fin era captar la reverberación del entorno donde se grabó.

Finalmente se mezclaron en 3 pistas ópticas sonoras de doble ancho para luego

imprimirlas en una tira de 35 milímetros que se reproducía por separado en sincronía

con la película. 27

En 1953 llegó CinemaScope quien creó el uso de cuatro canales de sonido:

central, izquierdo, derecho y un canal de efectos envolventes todos almacenados en

bandas magnéticas separados del rollo de película, pero más adelante acabó

integrándose junto con la copia de la película. En 1954 se creó Perspecta, tecnología

que consiguió simular sonido estéreo utilizando solo un canal monofónico enviando el

audio de forma selectiva a los diferentes canales de sonido central, izquierdo o derecho.

Después en 1974 nació Sensurround, con el fin de generar más tensión en los

espectadores incrementando la presencia de las frecuencias bajas y como era de

esperarse, fue un éxito en esta época cuando se lo aplicó a la película de Mark Robson:

“Terremoto”.28

Uno de los grandes avances dentro de la industria cinematográfica fue llevado

acabo por Dolby Stereo con la película La guerra de las galaxias, en la que resolvieron

el problema de integrar las pistas de sonido en el rollo de película ya que su espacio era

muy limitado, para lo que los ingenieros de Dolby lograron codificar cuatro canales de

sonido (central, izquierdo, derecho y efectos traseros) en tan solo dos pistas por medio

27
Asociación nacional de tiendas especialistas en audio y video, Evolución del Sonido en el Cine,
(SUSTRAI), 5.
28
Camera & light, «Un breve recorrido por la historia del sonido en el cine», Revista técnica
Cinematográfica (20 de enero. 2014), https://www.cameraandlightmag.com/noticias/un-breve-recorrido-
por-la-historia-del-sonido-en-el-cine/1#.

35
de un sistema óptico reemplazando al magnético. Debido a la experiencia adquirida

durante la época del Dolby Stereo, crearon una tecnología de reducción de ruido que

permitía mejorar la calidad de sonido de las películas de 70 mm dispuestas en pistas de

audio magnéticas, logrando lanzar en 1978 Dolby Stereo de 70 mm, innovando con el

sonido envolvente 5.1, como lo conocemos actualmente, que permitía crear una

sensación de inmersión más fiel y superior a las otras tecnologías que se encontraban en

el medio.29

En el año 1990 las empresas Kodak y Optical Radiation Corporation crearon el

sistema CDS (Cinema Digital Sound) consiguiendo codificar 5.1 canales utilizando

tecnología digital, y permitir reducir el ruido de las pistas analógicas. Un año más tarde

llegó Dolby Digital (Tecnología de compresión de audio AC-3), tecnología diseñada

para optimizar de una mejor formar el espacio dispuesto dentro de los rollos de

películas, permitiendo incluir una pista de sonido analógico de seguridad por si se tenía

problemas al recuperar la información digital. Dolby Digital posee hasta un total de 6

canales de audio, con 5 canales de ancho de banda completa de 20Hz a 20kHz para sus

altavoces además de un canal destinado para los sonidos de baja frecuencia.

Para el año 1993 aparecieron dos nuevas tecnologías de sonido: DTS que

permitía almacenar el sonido multicanal digital (6 canales independientes de audio

comprimidos en una sola señal) en un soporte óptico llamado CD-ROM necesario para

poder sincronizar junto con las imágenes (código de tiempo) y SDDS (Sony Dynamic

Digital Sound) que logró superar los 5.1 canales que se venía utilizando y diseñar esta

tecnología para ocho canales de audio: cinco en la parte delantera, dos canales laterales

29
Juan Carlos López, «De uno a 64 altavoces: la evolución del sonido en el cine a lo largo de los años»,
Azataka.

36
y uno exclusivo para la reproducción de frecuencias graves. Esta tecnología se

encuentra dentro de los márgenes de las películas estándar de 35 mm. 30

En 1999 Dolby creó la tecnología Digital Sorround EX que adicionaba a la

configuración 5.1 (Dolby Digital) un canal trasero ayudando a mejorar más la inmersión

de los espectadores dentro del espacio sonoro. La primera película que usó esta

configuración fue “La amenaza fantasma” del primer capítulo de “La guerra de las

galaxias”. La tecnología Sorround 7.1 en el año 2010 renovó con gran éxito el audio

inmersivo logrando añadir dos canales independientes en la parte posterior de la sala

dentro del sistema principal de sonido 5.1.

Galaxy Studios en colaboración con el fabricante de proyectores profesionales

Barco dio a conocer el sistema “Auro 11.1”. Dicho sistema era similar al 5.1 ya

conocido, pero este añadió cinco canales adicionales dispuestos en altura para conseguir

sumergir a los espectadores de una forma más convincente en el sonido.

Seguidamente Dolby Atmos empezó a imponerse en el mercado de audio

cinematográfico con su espectacular tecnología que permitía manejar hasta 128 pistas

de audio (10 destinados para los “Beds” y 118 para pistas de objetos) más los

metadatos de descripción espacial de audio asociadas, para configurar los datos de

ubicación y automatización de los paneos, que se distribuirían en los cines para obtener

una representación óptima y dinámica en los altavoces basados en las capacidades del

teatro. Dolby Atmos posee el manejo de los llamados “Beds” que son sub-mezclas o

Stems basados en canales destinados generalmente para ambientes (configuraciones en

5.1, 7.1 o 9.1 incluyendo arreglos de altavoces sobre cabeza) los cuales, en combinación

con los “objetos” (sonidos puntuales con salida de hasta 64 altavoces), agregan mayor

realismo dentro de la mezcla. Estos sistemas poseen sonidos que se originan sobre la

30
Asociación nacional de tiendas especialistas en audio y video, Evolución del Sonido en el Cine, 8-13.

37
cabeza, sus procesadores mejoran la calidad de audio y la coincidencia de timbre y se

tiene mayor control y resolución espacial al poder dirigir específicamente un objeto

destinado a un solo altavoz de la sala. 31

Si bien antes en el mundo del audio se reproducía el sonido de una manera

monofónica, Alan Blumlein fue el que sugirió el uso de un “Sistema binaural” para

diferenciar el sonido directo de las reflexiones creadas por las paredes de los recintos y

darle una mayor direccionalidad al sonido emitido por la fuente sonora. En marzo de

1932, Bell Laboratories llevó a cabo la grabación de la Orquesta de Filadelfia mediante

un sistema estereofónico, utilizando dos micrófonos conectados a dos agujas grabadoras

dispuestas sobre la misma cara del disco en diferentes canales. Luego en 1933 Bell

Laboratories lanzó al público una demostración de un sistema estereofónico de tres

canales con la Orquesta de Filadelfia. Seguidamente, en 1940 se mostró de igual manera

el sistema de tres canales para la reproducción de música grabada en tres pistas ópticas

encima de una cinta de cinematografía. Adicionalmente, una cuarta pista anclada con

una señal para la compresión del rango dinámico. En el año 1968, Peter Scheiber

(músico estadounidense) inventó una fórmula matemática la cual permitía comprimir

cuatro pistas análogas discretas y restaurarla a través de un decodificador de fases. Al

cabo de todo este proceso y experimentación dio como resultado lo que hoy se

denomina cuadrafonía. Entre las grabaciones más conocidas codificadas en un sistema

cuadrafónico se encuentran: The Dark Side of the Moon”y Wish You Were Here de Pink

Floyd. 32

31
Dolby, Dolby® Atmos® Next-Generation Audio for Cinema (Dolby Laboratories, 2014), 4-8.
32
Victor Perales, «Antecedentes de los sistemas de sonido envolvente para la reproducción de

música», Wordpress (oct. 2015), https://victorperales.wordpress.com/tag/estereofonia/.

38
2.9. Ambisonics

En la década de 1970, un grupo de investigadores británicos, bajo el auspicio de

la British NRDC (National Research and Development Centre), desarrolló una nueva

tecnología para el sonido envolvente de esfera completa llamado “Ambisonics”, la cual

permitía manipular y reproducir el audio en sistemas de altavoces convencionales y de

esta manera los oyentes puedan percibir los sonidos ubicados en un espacio

tridimensional. Esto se puede realizar a lo largo de un escenario horizontal de 360

grados (sistemas pantofónicos) o a lo largo de una esfera completa (sistemas

perifónicos). Su principal precursor fue Michael Gerzon quien dispuso un arreglo de

cuatro paralantes (Lb-Lf-Rb-Rf) alrededor del oyente para así reproducir un sonido

envolvente y causar una sensación Surround. La teoría matemática principal utilizada

en Ambisonics es la teoría de los armónicos esféricos proveniente de la analogía de las

series de Furier donde se reconstruye una señal por medio de la suma de componentes

individuales.

Luego M. Gerzon ideó un arreglo de 3 micrófonos cardioides coincidentes

ubicándolos de tal manera que formen un ángulo de 120 grados entre sus cápsulas para

así evitar problemas de fase debido su alta concordancia entre las mismas. Fue la

empresa Calrec Audio la que desarrolló un micrófono llamado Soundfield que

evolucionó su técnica de captura ya que constaba de 4 cápsulas cardioides que

capturaban el sonido en un A-Format para luego ser codificadas a un B-Format el

mismo que se usaba para decodificar la señal para ser usada en distisntos arreglos de

monitores.33

En función del estudio de Ambisonics se pudo crear un nuevo formato a parte

del B-Format: formato básico de Ambisonics conformado por las señales W, X, Y y Z,

33
Jhosimar Andrés Aguacía, Diego Armando Pardo y Carlos Andrés Lozano, Diseño de atmósferas
tridimensionales utilizando Sistemas Ambisonics, (Bogotá D.C.: Universidad de San Buenaventura sede
Bogotá, 2014), 23-24.

39
donde W es la salida de un micrófono de Omnidireccional y los canales X, Y y Z son la

salida de micrófonos bidireccionales (figura 8) dispuestos en los ejes de un espacio

tridimensional, con su cara positiva en dirección al frente, la izquierda y arriba

respectivamente. El B-Format resulta de sumar y restar las señales provenientes de las

cápsulas de los mircrófonos por medio de un circuito llamado Módulo AB que usa una

matriz lineal en el tiempo:

X = ½ ( - Lb. + Lf + Rf – Rb )

W = ½ ( Lb + Lf + Rf + Rb)

Y = ½ ( Lb + Lf – Rf – Rb )

Z = ½ ( -Lb + Lf – Rf + Rb )34

Sistema de coordenadas del Formato B 35

Figura 8

34
Michael Gerzon, Ambisonics. Part two: Studio techniques, (Studio Sound, 1975), 3.
35
Figura tomada de Ken Farrar, SoundField Microphone. (Wireless World, 1979), 48.

40
A partir de esta teoría y su aplicación al diseño sonoro es posible proponer un sistema

de grabación y reproducción de un campo sonoro tomando como punto la

descomposición en funciones armónicas esféricas de las ondas que la conforman.

Así como afirma Victor Perales:

Inferir que la resolución de dicho campo será tanta como el orden

máximo de las armónicas esféricas que se puedan grabar y reproducir, y

proponer que la grabación y la reproducción sean independientes una de

la otra, de tal manera que el número de canales disponibles para ésta no

limite la resolución de aquella. 36

Toda la información captada por estos canales simboliza una aproximación al

campo sonoro envolvente los cuales dan alusión a sus armónicos esféricos.

Armónicos esféricos37

Figura 9

36
Victor Perales, «Ambisonics como alternativa de sonido inmersivo», Wordpress (nov. 2015),
https://victorperales.wordpress.com/2015/11/02/ambisonics-como-alternativa/.
37
Imagen tomada de Moreau, S., Daniel, J., & Nicol, R. Further Investigations Of High Order
Ambisonics And Wavefield Synthesis For Holophonic Sound Imaging. (AES 114th Convention
Amsterdam, 2003)

41
Aguacía, Pardo y Lozano comentan sobre la teoría de Ambisonics y sus

armónicos que:

La cantidad de armónicos es lo que se conoce como orden en la teoría de

Ambisonics, entendiendo como orden cero la función omnidireccional, el

primer orden incluye el orden cero y las señales X, Y, Z, el segundo

orden además de estos cuatro incluye otros cinco armónicos R, S, T, U y

V, y así sucesivamente entre mayor sea el orden mayor será el número de

armónicos. Dentro de los avances más notorios se encuentran las

codificaciones fuentes puntuales, dando muy buenos resultados en la

localización de la fuente.38

Se puede expandir el sistema a órdenes superiores de armónicas esféricas para

sistemas perifónicos de segundo y tercer orden. Es por eso que Ambisonics de orden

“n” puede reproducir un ambiente sonoro con tanta presición como canales haya

disponibles para definirlo.

En 1980, Hugo Zucarelli, un científico argentino creó la holofonía gracias a su

curiosidad por descubrir cómo reacciona el oído a las distintas fuentes sonoras que se

encuentran dentro de un entorno. Se dio cuenta que todavía no se había investigado

sobre el oído interno y mediante diferentes pruebas logró crear un micrófono

(Micrófono holofónico monoaural) que captara de forma fiel lo que el oído humano

percibe y poderlo reproducir en un sistema tridimensional.

Zuccarelli menciona dentro de su hipótesis que la holofonía se diferencia de la

técnica de Head-related transfer function (HRTF) en que esta última trata de

representar mediante el procesamiento de la señal agregando retardos interaurales y

38
Jhosimar Andrés Aguacía, Diego Armando Pardo y Carlos Andrés Lozano, Diseño de atmósferas
tridimensionales utilizando Sistemas Ambisonics, 26-27.

42
diferencias espectrales entre los dos canales, lo que la holofonía registra de una manera

más puntual y directa.

Llegué a la conclusión de que el oído humano podía emitir sonidos y que

esa era la clave de su localización en el espacio. Me propuse fabricar un

tímpano artificial, y lo logré en 1980. 39

La industria que maneja la realidad virtual ha adoptado Ambisonics como una

tecnología estándar para brindar audio en 3D junto con juegos, videos y experiencias de

realidad virtual. La mayoría de veces el usuario generalmente escucha esto mediante

auriculares por lo que se creó una nueva tecnología de audio binaural llamada el “UHJ

Format” la cual permite que la mayoría de información horizontal de las señales W, X y

Y del B-Format se codifiquen en una matriz para crear una señal estéreo.40

En la actualidad, Facebook se ha adentrado en el mundo del audio 360 y ha

desarrollado un paquete de plugins (FB360 Spatial Workstation) para trabajar el audio

360; entre ellos está el Spatialiser el cual con ayuda de un DAW (Digital Audio

Workstation) puede recrear un ambiente sonoro completamente inmersivo con tan solo

usar auriculares. Esta conversión binaural decodifica los canales Ambisonics para cierta

cantidad de parlantes de una matriz, para después enviarlo a altavoces reales, estos

canales se envían a un procesador binaural quien los ubica en la dirección en la que el

hablante real los habría transmitido para que así finalmente el oyente pueda

experimentar mediante audífonos un campo de sonido esférico inmersivo. 41

39
David Pérez, «El inventor olvidado que pudo cambiar la historia de la música con la holofonía», El
Confidencial (1 Enero, 2014) https://www.elconfidencial.com/tecnologia/2014-01-15/el-inventor-
olvidado-que-pudo-cambiar-la-historia-de-la-musica-con-la-holofonia_76168/.
40
Victor Perales, «Ambisonics como alternativa de sonido inmersivo», Wordpress (nov. 2015),
https://victorperales.wordpress.com/2015/11/02/ambisonics-como-alternativa/.
41
Maitane Vicuña Zubiria, Diseño, grabación y reproducción de paisajes sonoros mediante Ambisonics.
(Pamplona: Universidad Pública de Navarra, 2018), 14-15.

43
Otro acontecimiento importante fue los llamados Silent Events los cuales

empezaron a salir a la luz gracias a una película finlandesa de ciencia ficción Ruusujen

Aika42. En esta película fue la primera ocasión donde se observó a un grupo de personas

usando auriculares y bailando mientras escuchaban música, todo esto para evitar y

minimizar la contaminación acústica. 43 En mayo del año 2000, la BBC Live Music

realizó un concierto silencioso en el Chapter Arts Centre de Cardiff, donde el público

escuchó por auriculares a un grupo llamado Rocketgoldstar y también a varios Dj. Esta

fue la primera vez en la que la audiencia asistió y disfrutó de un evento así en la que se

utilizó esta tecnología de los eventos silenciosos.44

Sin embargo como señala Esther Redondo para Radio Madrid en su artículo:

Suena a nuevo pero lo cierto es que este innovador sistema ya se impuso

en los años 80 "Lo que entendemos por conciertos silenciosos empezó en

el año 2005. Sin embargo, el movimiento como tal se inició mucho antes.

Todo comenzó en los 80 con la utilización de los walkman. La gente de

forma espontánea se reunía para escuchar música con sus auriculares

propios", explica Kyron Russ, responsable de la empresa británica 'Silent

Arena'. 45

A partir de estos eventos se empezaron a crear discotecas silenciosas usando este

mismo método, en el que el público, baila mientras escucha música a través de

42
En español: El tiempo de las rosas
43
Risto Jarva, «Ruusujen Aika», película rodada en 1969, video en YouTube, 1:11:20. Acceso el 10 de
junio de 2019. https://www.youtube.com/watch?v=_VIXdNGshWg
44
BBC, «BBC Music Live events unfold», BBC News (may. 2000),
http://news.bbc.co.uk/2/hi/uk_news/wales/764290.stm.
45
Esther Redond, «El Orgullo Gay tendrá conciertos en Chueca con auriculares».

44
auriculares inalámbricos, además de poder seleccionar uno de entre 2 a 3 canales

diferentes de reproducción de música a cargo de los Dj.46

En cuanto a referencias de conciertos silenciosos que han sido relevantes

tenemos:

La banda de rock Metallica, ofreció en el año 2013 un concierto silencioso para

un reducido público en la Antártida ubicado en el helipuerto de la Base Carlini,

concierto que se realizó dentro de una carpa transparente cuyas medidas eran de quince

metros de diámetro y una altura de 6,6 metros, más dos carpas pequeñas que estas

fueron utilizadas para los equipos de audio, video y staff. Por su estructura esférica

especial, los asistentes al concierto pudieron soportar vientos y acumulaciones de nieve.

Para llevar a cabo el show obtuvieron la energía por medio de paneles solares y el

concierto fue transmitido a través de auriculares inalámbricos sin amplificación de

instrumentos para preservar el medio ambiente y fauna del lugar. 47

Por otro lado, tenemos al Museo de Historia Natural situado en Santiago de

Chile, ¨Kuervos del Sur¨, un grupo de rock que brindó un concierto durante una hora

para un aproximado de casi cien personas, los visitantes quedaron sorprendidos al

presenciar el concierto silencioso en donde el público disfrutó del show por medio de

audífonos inalámbricos dispuestos para cada uno de ellos. 48

En la explanada del centroparque Parque Araucano localizado en Chile,

participaron dos bandas musicales formando parte del evento Life Concert, un concierto

silencioso, donde los asistentes debían descargar la aplicación que fue creada por los

46
El Universo, «La tendencia de discotecas silenciosas gana espacio», The New York Times, (jul. 2015),
https://www.eluniverso.com/vida-estilo/2015/07/12/nota/5012686/tendencia-discotecas-silenciosas-gana-
espacio.
47
Coca-Cola, «Coca-Cola Zero lo hizo posible: Música Zero presentó Metallica en la Antártida», Coca-
Cola Journey (dic. 2013), https://www.coca-colamexico.com.mx/sala-de-prensa/Comunicados/coca-cola-
zero-lo-hizo-posible-m-sica-zero-present-metallica-en-la-ant-rtida.
48
Patricia López Rosell, «Los conciertos “silenciosos” llevan la música a los edificios públicos de Chile»,
Agencias EFE (11 de mayo. 2019).

45
organizadores para iPhone y Android y así la música sea ejecutada por medio de

audífonos inalámbricos puestos y no por los tradicionales parlantes. 49

2.10. Códecs para audio digital

El término códec viene de las iniciales de las palabras: Codificador y

Decodificador y consiste en llevar a un tipo de lenguaje digital, el cual necesita tener el

mismo decodificador que sepa analizar dicho lenguaje para poder leer la información.

El códec después del muestreo y de la cuantifización de los datos coge todos estos ceros

y unos y los lleva a un lenguaje, mientras que el decodificador transduce este lenguaje

para hacer posible su reproducción.

En cuanto a códecs de audio; conllevan un conjunto de algoritmos que permiten

codificar y decodificar la información digital para disminuir la cantidad de bits que

ocupa el fichero de audio. Estos códecs sirven para comprimir los ficheros de audio con

un flujo de datos, con el fin de ocupar el menor espacio posible sin perder tanto la

calidad del archivo, y descomprimiendo para ser reproducidos o usados en un formato

más acorde a la necesidad del usuario.

2.11. DAW, Software y Plugins

2.11.1. Reaper

Reaper es un software completo usado para producción de audio digital para

computadoras, el cual proporciona múltiples herramientas de grabación, edición,

procesamiento, mezcla y masterización de audio y multipista de varios canales. Esta

herramienta es compatible con una gran infinidad de hardware, formatos digitales y

plugins, además que permite ampliar, crear scripts y editarlos de una manera eficiente.

49
LA TERCERA, «Los Tres y Los Jaivas darán conciertos silenciosos en Parque Araucano», LT finde.,
(may. 2019), http://finde.latercera.com/panorama/life-concert-los-tres-los-jaivas/2019-05-05/.

46
Este DAW posee gran flexibilidad y estabilidad para el procesamiento de audio digital,

así como también estudios comerciales y domésticos, transmisión, ciencia e

investigación, educación, diseño de sonido, desarrollo de juegos y mucho más. 50

Dentro de sus caracteísticas principales encontramos el potente enrutamiento de

audio y MIDI con soporte multicanal en todo, soporte completo de hardware y software

MIDI, automatización, modulación agrupación, envolvente, scripting VCA, superficies

de control, skins personalizados, diseños y OSC. Se puede procesar el audio interno en

64 bits, además de importar, grabar y renderizar en diferentes formatos de medios a casi

cualquier profundidad de bits y frecuencia de muestreo. Es compatible con diversos

efectos de plugins e instrumentos virtuales, inlcuidos VST, VST3, AU, DX y JS. 51

2.11.2. Max/MSP

Max/Msp es un software de desarrollo gráfico hecho para la creación de música

y multimedia mediante la programación permitiendo controlar audio y video digital en

tiempo real además de permitir la conectividad con controladores MIDI, proyectos de

video, placas Arduino, sintetizadores, etc.

Este software utiliza una plataforma enfocada en la visualización y organización

de cuadros con objetos donde se escribe la acción que se desea realizar. Se divide en 3

partes fundamentales: Max el cual se encarga de realizar las operaciones de cálculo y

MIDI, MSP procesa el audio y las señales programadas dentro del software y Jitter que

permite manipular gráficos y videos.52

En la página de internet de Max/MSP mencionan que:

Max es un lenguaje de programación visual para las necesidades

especializadas de artistas, educadores e investigadores que trabajan con

50
Reaper, 2019, https://www.reaper.fm/.
51
Reaper, Up and Running A REAPER User Guide v 5.979, (Version 5.979: junio. 2019)
52
Musiki, «Max/MSP», cc3 musiki 2016, (jun. 2019), http://musiki.org.ar/Max/Msp.

47
audio, medios visuales y computación física. Es el único software que te

permite hacer todo esto. Crear un instrumento de placas de cobre. Usar

un teléfono para controlar un algoritmo de síntesis cruzada. Utilice un

Arduino para crear una trompeta wah-wah. Interactúa con el sonido

mediante el control de gestos.53

Por las carcaterísticas que posee este programa muchos músicos que hacen

canciones electrónicas optan por el uso de Max además de ser utilizadado para video,

videojuegos, obras interactivas investigaciones, etc.

Para poder llevar a cabo el concierto se necesitó de algunos plugins del paquete

de Facebook 360 Spatial Workstation como:

2.11.3. FB360 Spatialiser

Captura de pantalla VST: FB360 Spatialiser

Figura 7

53
Max/MSP, Cycling '74, San Francisco, https://cycling74.com/.

48
Este plugin no es como otros plugins convencionales sino que éste nos ayuda a

tener una ubicación completa de la imagen estéreo en tres dimensiones, además que

posee parámetros de atenuación y modelado de ambientes. Para el corrrecto

funcionamiento de este plugin se deberá usar como último complemento dentro del

canal de audio. Cualquier otro procesamiento como ecualización y compresión, deberá

usarse antes.

Todos los canales que posean este plugin agregado deberán enviarse por medio

de un canal auxiliar el cual tenga el plugin Control FB360.

Dentro de los parámetros más relevantes que tiene este plugin tenemos:

 Azimut: permite ubicar el sonido en el plano horizontal. 0 grados es cuando la

fuente de sonido está directamente en frente del oyente, 90 grados es a la

derecha, - 90 grados es a la izquierda y +/- 180 grados es detrás.

 Elevación: se refiere a la posición del sonido en el plano vertical. 0 grados es

cuando la fuente está fernte al oyente, 90 grados es arriba o sobre la cabeza del

oyente y -90 es debajo.

 Distancia: con este parámetro se puede ubicar en metros la fuente de sonido

desde el oyente. Los parámetros de modelado de la habitación y de atenuación

de la distancia se ven afectados por este valor.54

54
Facebook 360 Spatial Workstation user guide, 2018. Edición en PDF, 6-7.

49
2.11.4. FB360 Converter

Captura de pantalla VST: FB360 Converter

Figura 8

El plugin Converter es un procesador muy útil y fácil de manejar el cual se

deberá insertar entre el FB360 Spatialiser y el FB360 Control permitiendo la rotación

en 360 grados de la salida del FB360 Spatialiser.

El formato de entrada de este plugin se puede escoger entre el Formato B ambiX

de segundo orden y el de 8 canales de Spatial Workstation. El formato de salida puede

configurarse en Binaural, B-Format ambiX (1er. orden), Spatial Workstation 8 channel

(si la entrada también es Spatial Workstation 8 channel), B-Format ambiX (2do. orden),

B-Format ambiX (3er. orden). La salida de audio rotará acorde al número de grados que

se escoja.

Se puede ubicar este plugin en cualquier lugar de la cadena de señal o en

combinación de ellos:

50
En un track después del plugin FB360 Spatialiser para rotar las fuentes

contenidas en esta pista, como por ejemplo: rotar una mezcla completa en 5.1 sin tener

que automatizar cada fuente del altavoz por separado.

En un bus de segundo orden Ambisonics de 9 o 10 canales que recibe la salida

de varios tracks con el plugin FB360 Spatialiser. Esto ayudaría a girar la mezcla

espacial para todas estas pistas.

En la misma pista con el plugin FB360 Control (debe estar ubicado antes del

plugin FB360 Control) para girar la mezcla espacial completa y transmita el audio

espacial al plugin Control.

El plugin FB360 Converter también puede ser usado para convertir una mezcla

de Spatial Worstation 8 channel a B-Format ambiX (2do orden). Esto es útil para

cuando se desee incluir stems de audio espaciales mezclados con una versión anterior de

Spatial Workstation.55

2.11.5. FB360 Control

Captura de pantalla VST: FB360 Control

55
Facebook 360 Spatial Workstation user guide, 2018. Edición en PDF, 9.

51
Figura 9

Este plugin debe usarse por medio de un canal auxiliar que reciba el audio de

todos los canales espacializados dentro del proyecto. Todo procesamiento como

masterización, compresión o ecualización debe aplicarse a la señal antes que llegue a

este plugin. FB360 Control permite controlar globalmente el tamaño de la sala, sin

embargo las reflexiones de modelado de sala son mezcladas con la salida de segundo

orden Ambisonics (ambiX) y por lo tanto, existe una mezcla de exportación junto con

cualquier otro efecto aplicado antes del plugin Spatialiser. Los controles de enfoque y

orientación del oyente se proporcionan para mezclar y previsualizar el audio y no se

aplican a la mezcla de exportación del audio espacial. El enfoque y la orientación del

oyente se aplican en tiempo real durante la reproducción del video. 56

3. Desarrollo del concierto silencioso “Guayaquil silente”

Dentro de esta sección encontraremos puntos claves para el montaje y

realización de nuestro concierto silencioso usando los equipos de la Universidad de las

Artes y tomando como referencia el manual anexo adicional a nuestro objeto de estudio.

3.1. Listado de equipos

Para la realización de este concierto silencioso se deberá contar con el siguiente

listado de equipamiento:

56
Facebook 360 Spatial Workstation user guide, 2018. Edición en PDF, 10.

52
LISTADO DE EQUIPOS PARA CONCIERTO SILENCIOSO
CANTIDAD EQUIPO ESPECIFICACIONES
1 Conosola digital YAMAHA QL1
1 Yamaha Rio1608-D Dante I/O
Mínimo 1GHz del
procesador, 512Mbyte de
1 Laptop RAM
Amplificadores de audífonos BEHRINGER Para 8 audífonos por
2 HA8000 amplificador
2 Amplificadores de audífonos BEHRINGER P1
1 Amplificador de audífonos Para 4 audífonos
2 Micrófonos SHURE SM81 Público
20 Audífonos SHURE SRH440
10 Extensiones de audífonos Preferible de 3m mínimo
5 Cajas directas
Mínimo con 9 knobs y 4
1 Controlador MIDI faders
2 Cables Ethernet (RJ45) 1 de 15m y otro de 1m
20 Cables XLR
5 Cables TS
6 Adaptadores de XLR hembra a TRS macho
3 Pedestales con boom para micrófono
1 Adaptador de audífonos de 1 a dos salidas estéreo
8 Extensiones eléctricas 2 de 10m y 6 de 5m
3 Regletas eléctricas de 6 tomas
1 UPS
4 Cables de poder
1 Consola DMX (Iluminación)
4 Tachos LED
3 Mesas Mínimo de 1.5m x 0.50m
Robustos capaces de
estabilizar y soportar cada
3 Atriles amplificador de audífonos
23 Sillas

53
3.2. Listado de entradas

INPUT LIST “Guayaquil Silente”

Canal Instrumento Micrófono / DI. Envíos

1 Salida 1 interfaz DI. Mix bus 1

2 Salida 2 interfaz DI. Mix bus 2

3 Salida 3 interfaz DI. Mix bus 3

4 Salida 4 interfaz DI. Mix bus 4

5 Guitarra electroacústica DI. Mix bus 5

6 Presentador SHURE Sm58 ST

7 Público L SHURE Sm 81 ST

8 Público R SHURE Sm 81 ST

54
3.3. Listado de salidas

OUTPUTS

Salidas Descripción Observaciones

Dante 1 Matrix 1 Envío ST L (Amp. Audífonos 1)

Dante 2 Matrix 2 Envío ST R (Amp. Audífonos 1)

Dante 3 Matrix 3 Envío ST L (Amp. Audífonos 2)

Dante 4 Matrix 4 Envío ST R (Amp. Audífonos 2)

Dante 5 Matrix 5 Envío ST L (Bodypack Adina)

Dante 6 Matrix 6 Envío ST R (Bodypack Adina)

Dante 7 ST L Bodypack Rubén (Guitarrista)

Dante 8 ST R Bodypack Rubén (Guitarrista)

Omni 1

Omni 2

Omni 3

Omni 4 Retorno Guitarra Rubén Procesado por interfaz de Adina

Omni 5 Matrix 7 Envío ST L (Amp. Audífonos 3)

Omni 6 Matrix 8 Envío ST R (Amp. Audífonos 3)

Omni 7

Omni 8

55
3.4. Mezclas

MEZCLAS

Mix Descripción Observaciones

1 Canal 1 de inmersión Post fader

2 Canal 2 de inmersión Post fader

3 Canal 3 de inmersión Post fader

4 Canal 4 de inmersión Post fader

5 Canal GTR de inmersión Post fader

56
3.5. Flujo de señal

57
3.6. Montaje / Diagrama de escenario

3.7. Repertorio “Guayaquil Silente”

1. John Downland, remix

2. Desde una ventana con loros

3. Guinguirigongo

4. Summer time, remix de Gershwin

58
4. Resultados

Acorde a las pruebas realizadas junto con la realización del concierto silencioso,

pudimos obtener dos manuales con los que se describe como realizar el montaje,

conexiones y enrutamiento de las señales para un sistema de audio inmersivo con una

mezcla binaural en 3 dimensiones. Además, encontraremos las encuestas que se

realizaron a cada uno de los asistentes al finalizar el evento.

4.1. Manual de implementación de sistema de audio inmersivo para concierto

silencioso

Revisar en los Anexos

4.2. Manual de implementación de sistema de audio inmersivo para concierto

silencioso en la Universidad de las Artes

Revisar en los Anexos

4.2. Encuestas realizadas a cada uno de los asistentes al concierto

Revisar en los Anexos

59
4.2.1. Datos estadísticos sobre las encuestas

1. ¿Asitió alguna vez a un Concierto


Silensioso o escuchó hablar de él?

SI NO

2. ¿Qué grado de inmersión sintió durante


este show?

Inmersión completa No se percibía la espacialidad del campo sonoro Nula

4. ¿Recomendaría asistir a este tipo de


conciertos silenciosos?

SI NO

60
5. Conclusiones y recomendaciones

5.1. Conclusiones:

 Acorde a las pruebas que realizamos durante todo el periodo de preparación del

presente proyecto, obtuvimos un satisfactorio resultado logrando crear un

ambiente inmersivo en 3D a través de audífonos donde los espectadores de

nuestro concierto silencioso pudieron notarlo sin problemas.

 La mezcla creada con ayuda del paquete de plugins de Spatial Workstation de

Facebook fue realizada por medio de 4 canales provenientes de los docentes de

la Universidad de las Artes. En estos canales también pudimos manejar la

espacialidad en el campo estérero durante la presentación totalmente en vivo de

manera que se pudo experimentar junto con las improvisaciones de los músicos

en escena haciéndonos parte del show en determinadas ocaciones.

 El documento de implementación creado con este proyecto técnico podrá ser

utiizado como archivo guía para futuros conciertos en los que se quiera obtener

los mismos resultados de inmersión.

 En adición al manual de implementación, se creó otro manual anexo que

describe el proceso de implementación para un concierto silencioso usando los

equipos de la Universidad de las Artes

5.2. Recomendaciones

 Ajustar la ganancia adecuada dejando un headroom de -6 dB para que así se

pueda manejar la dinámica dentro de la mezcla.

 Cuidar el nivel de mezcla del público ya que en las partes en las que existe

mayor intensidad de volumen puede ser molestoso para los oídos del público.

61
 Recordar que cuando se está usando el Spatialiser y se dirije al centro de la

mezcla, el nivel de ganancia sube conciderablemente llegando a saturar la señal

si no se la controla adecuadamente.

 Si se usan sistemas de monitoreo alámbrico tratar de esconder los cables y

extensiones de audífonos que están cercanos al público para evitar accidentes o

daño de los auriculares. Si se tiene la posibilidad de contar con sistemas

inalámbricos para audífonos, sería lo más recomendable.

 Usar un controlador MIDI que tenga mayor sencibilidad en el Velocity ya que

con esto se logra tener un mejor control sobre los parámetros previamente

enlazados al plugin.

62
6. Bibliografía

Andersen, Asbjoern. «Bienvenido al maravilloso mundo de Ambisonics: una

introducción de John Leonard». A Sound Effect (7 enero. 2016)

https://www.asoundeffect.com/ambisonics-primer/.

Aguacía, Jhosimar Andrés. Diego Armando Pardo y Carlos Andrés Lozano. Diseño de

atmósferas sonoras tridimensional utilizando Ambisonics. Bogotá: Universidad

de San Buenaventura sede Bogotá, 2014.

Armenta Flores, Lorena. Diseño y construcción de una cabeza binaural. México D.F.:

Escuela superior de Ingeniería Mecánica y Eléctrica, 2011.

Audinate. Dante Controller User Guide, (dic. 2018).

BBC. «BBC Music Live events unfold», BBC News (may. 2000).

http://news.bbc.co.uk/2/hi/uk_news/wales/764290.stm.

Camera & light. «Un breve recorrido por la historia del sonido en el cine». Revista

técnica Cinematográfica (20 de enero. 2014).

https://www.cameraandlightmag.com/noticias/un-breve-recorrido-por-la-

historia-del- sonido-en-el-cine/1#.

Coca-Cola. «Coca-Cola Zero lo hizo posible: Música Zero presentó Metallica en la

Antártida». Coca-Cola Journey (dic. 2013). https://www.coca-

colamexico.com.mx/sala-de-prensa/Comunicados/coca-cola-zero-lo-hizo-

posible-m-sica-zero-present-metallica-en-la-ant-rtida.

Dolby, Dolby® Atmos® Next-Generation Audio for Cinema. Dolby Laboratories, 2014.

El Universo. «La tendencia de discotecas silenciosas gana espacio». The New York

Times, (jul. 2015). https://www.eluniverso.com/vida-

estilo/2015/07/12/nota/5012686/tendencia-discotecas-silenciosas-gana-espacio.

63
FACEBOOK 360, Spatial Workstation Guide, Release 3.1.1 Mar 09, 2018. Edición en

PDF.

García Riber, Adrián. Técnica de control de sonido en directo. Madrid: Ediciones

Paraninfo, SA, 2017.

https://books.google.com.ec/books?id=zOKMDgAAQBAJ&lpg=PA12&dq=cur

vas%20isof%C3%B3nicas%20de%20fletcher%20y%20munson&pg=PA12#v=o

nepag e&q& f=false.

Gerzon, Michael. Ambisonics. Part two: Studio techniques, Studio Sound, 1975.

Jarva, Risto. «Ruusujen Aika». Película rodada en 1969. Video en YouTube, 1:11:20.

Acceso el 10 de junio de 2019.

https://www.youtube.com/watch?v=_VIXdNGshWg.

LA TERCERA. «Los Tres y Los Jaivas darán conciertos silenciosos en Parque

Araucano». LT finde.. (may 2019). http://finde.latercera.com/panorama/life-

concert-los-tres-los-jaivas/2019-05-05/.

Linares, J. Acústica Arquitectónica. México: Editorial LIMUSA, 2007

López, Juan Carlos. «De uno a 64 altavoces: la evolución del sonido en el cine a lo

largo de los años». Azataka (30 de septiembre. 2014).

https://www.xataka.com/audio/de-uno-a-64-altavoces-la-evolucion-del-

sonido-en-el-cine-a-lo-largo-de-los-anos.

López Rosell, Patricia. «Los conciertos “silenciosos” llevan la música a los edificios

públicos de Chile», Agencias EFE (11 de mayo. 2019).

https://www.efe.com/efe/america/cultura/los-conciertos-silenciosos-llevan-la-

musica-a-edificios-publicos-de-chile/20000009-3973708#.

Max/MSP. Cycling '74. San Francisco. https://cycling74.com/.

Musiki, «Max/MSP», cc3 musiki 2016, (jun. 2019), http://musiki.org.ar/Max/Msp.

64
McCarthy, Bob. Sistemas de Sonido: Diseño y Optimización. Editorial Alvalena, 2009.

Mc Cormick, Tim y Francis Rumsey. Introducción al Sonido y la Grabación. IORTV.

Moreau, S., Daniel, J., & Nicol, R. Further Investigations Of High Order Ambisonics

And Wavefield Synthesis For Holophonic Sound Imaging. AES 114th Convention

Amsterdam, 2003.

Perales, Victor. «Ambisonics como alternativa de sonido inmersivo», Wordpress (nov.

2015). https://victorperales.wordpress.com/2015/11/02/ambisonics-como-

alternativa/.

Perales, Victor. «Antecedentes de los sistemas de sonido envolvente para la

reproducción de música». Wordpress (oct. 2015).

https://victorperales.wordpress.com/tag/estereofonia/.

Perez, David. «El inventor olvidado que pudo cambiar la historia de la música con la

Holofonía», El Confidencial (1 de enero, 2014)

https://www.elconfidencial.com/tecnologia/2014-01-15/el-inventor-olvidado-

que- pudo-cambiar-la-historia-de-la-musica-con-la-holofonia_76168/

Pulkki, Ville. y Matti Karjalainen. Communication acoustics: An introduction to speech

audio and psychoaoustics, Finland: Aalto University, 2015. ProQuest Ebook

central. https://ebookcentral.proquest.com/lib/uartes-

ebooks/reader.action?docID=1840832&query=ambisonics

Quintero Higuera, Sebastián. Síntesis binaural dinámica para posicionamiento de

fuentes sonoras en tiempo real. Bogotá D.C.: Pontificia Universidad

Xaveriana, 2018

Reaper. 2019, https://www.reaper.fm/.

Reaper, Up and Running A REAPER User Guide v 5.979, Version 5.979: 2019.

65
Redondo, Esther. «El Orgullo Gay tendrá conciertos en Chueca con auriculares». Radio

Madrid (20-06-2011).

https://cadenaser.com/emisora/2011/06/20/radio_madrid/1308527416_850215.ht

ml.

Scaliter, Juan. «Los conciertos serán silenciosos». Artículo en línea La Razón (6 de

junio. 2018). https://www.larazon.es/tecnologia/los-conciertos-seran-

silenciosos- JE18589123.

Suzuki, Yoiti, Douglas Brungart, Yukio Iwaya, Densil lida, Hiroake Kato. Principles

and applications of spatial hearing. World Scientific, 2009. ProQuest Ebook

central. https://ebookcentral.proquest.com/lib/uartes-

ebooks/reader.action?docID=840567&query=Ambisonics

Torres Viveros, Jorge Andrés. Aplicación de técnica de grabación y mezcla binaural

para audio comercial y/o publicitario. Bogotá D.C.: Pontificia Universidad

Salesiana, 2009.

Vicuña Zubiria, Maitane. Diseño, grabación y reproducción de paisajes sonoros

mediante Ambisonics. Pamplona: Universidad Pública de Navarra, 2018.

Waves, «Ambisonics Explained: A Guide for Sound Engineers». (10 octubre, 2017)

https://www.waves.com/ambisonics-explained-guide-for-sound-engineers.

66
7. Anexos

 Encuestas:

67
68
69
70
71
72
73
74
75
76
77
78
79
80
 Fotos

81
82
83

También podría gustarte