La bajada del precio de las cámaras de fotos en los últimos años ha provocado el aumento del número de fotógrafos aficionados y la aparición de portales para subir sus fotografías, como el conocidoInstagram. Sin embargo, aunque también las cámaras de vídeo han sido reducidas de precio, es más difícil encontrar en portales comoYoutube películas o cortos amateur con una alta calidad de sonido.
Este es un obstáculo con el que cualquier productor debe lidiar ytiene una naturaleza en parte neurocientífica.
Si tienes una cámara de video normalita y grabas una conversación entre dos personas en una parada de autobús, verás que al reproducirlo no se entiende nada de la conversación. Pero, ¿por qué si asistimos a una conversación real no tenemos este problema y con la reproducida si? Después de todo todos los sonidos de la grabación están, desde nuestro punto de vista, al mismo volumen. Vamos a hablar del procesamiento de la información espacial usando nuestro oído.
Cuando oímos un sonido nuestro cerebro es capaz de extraer varias informaciones sobre él, no solamente su interpretación sino también la localización espacial de su fuente de origen. Esta segunda habilidad es muy útil para nuestra supervivencia: muchas veces un peligro suele estar acompañado de un ruido fuerte (un depredador, un rayo…), por lo que saber rápidamente de donde proviene es importante para poder huir del mismo.
Para saber donde se sitúa un sonido usamos un sistema de triangulación parecido al de un GPS. Un GPS emite señales a los satélites cercanos y recibe una respuesta. Si sabemos el tiempo que tarda cada señal (de al menos tres satélites) en llegar, podremos señalar nuestra ubicación. De igual forma nuestro cerebro recibe los sonidos a través de dos oídos, si oímos un ruido a nuestra derecha, el sonido llegará ligeramente antes a nuestro oído derecho que al izquierdo. Interpretando ese desfase nuestro cerebro es capaz de señalar de donde procede este sonido.
Pero hay un detalle más importante, como he dicho, en un GPS necesitamos al menos tres satélites para señalar un punto, pero en nuestro caso solo tenemos dos orejas y no tres, lo que debería hacer imposible señalar la procedencia exacta de un sonido, ya que siempre tendríamos dos posibles fuentes. Por ejemplo, si cerramos los ojos y oímos un ruido justo delante de nosotros, el sonido llegaría a ambas orejas a la vez, pero también pasaría en caso de oír un ruido justo detrás. ¿Cómo sabemos entonces de donde procede exactamente la fuente del sonido?
Para solucionar este problema el cerebro se apoya en el resto de sentidos, especialmente en la vista. Por ejemplo, está comprobado que si vemos una bombilla iluminándose a la vez que suena un pitido, asociamos que el sonido sale de la bombilla aunque no sea así. Esta serie de atajos rápidos permiten mejorar la información que tenemos de nuestro entorno.
Volviendo a nuestra grabación de video casera, la cámara de video barata tiene un único micrófono para grabar los sonidos, y a través de este llegan las voces de los interlocutores pero también el ruido del entorno: los coches, el viento, etc. Cuando reproducimos el video todo sale de un mismo altavoz, teniendo menos recursos para filtrar los sonidos separándolos según su fuente de origen espacial y dirigir nuestra atención a la fuente sonora deseada resulta más difícil.
Para evitarlo, los equipos profesionales tienen micrófonos direccionales y micrófonos de corbata, que imitan al oído humano introduciendo filtros al sonido que les llega: recogen el ruido en un rango corto y a unas frecuencias adecuadas, aislando la fuente de importancia y disminuyendo el ruido del resto de fuentes.
Además, siempre están las tecnologías que imitan esta triangulación sonora, como la tecnología de sonido envolvente de los cines y algunos reproductores de DVD, e incluso algunos auriculares pueden tener la opción de escuchar la música en estéreo. Saber de qué forma nuestro cerebro interpreta los sonidos nos ha llevado a tecnologías que imitan este proceso. Para que luego se diga que la investigación básica no sirve de nada.
Publicado primero en Cultivandocultivos
Para saber mas:
- Rodríguez-Nodal F, Bajo-Lorenzana VM. La corteza auditiva en el procesamiento de la información espacial. Rev Neurol 2012; 55: 91-100
- Lee AKC, Deane-Pratt A, Shinn-Cunningham BG. Localization interference between components in an auditory scene. J Acoust Soc Am 2009; 126: 2543-55
- Best V, Gallum FJ, Ihlefeld A, Shinn-Cunningham BG. The influence of special separation on divided listening. J Acoust Soc Am 2006; 120: 1506-16