El sonido de tu smartphone puede parecerse al del cine gracias a la neurociencia: así es como Dolby ha integrado en él audio Atmos
Dolby Atmos, DTS:X y, en menor medida, Auro-3D, han cambiado las reglas del juego en lo que se refiere a la reproducción de bandas sonoras. Estas tecnologías de sonido envolvente nos ofrecen una inmersión en los contenidos mucho más profunda e impactante que los anteriores formatos de audio multicanal, como Dolby Digital, DTS, Dolby TrueHD o DTS-HD Master Audio.
Por el momento es Atmos, la propuesta de Dolby, la que cuenta con el mayor respaldo por parte de las productoras cinematográficas, las salas de exhibición y los fabricantes de electrónica de consumo. Pero lo más sorprendente es que durante los últimos tres años los usuarios hemos sido testigos del desembarco de esta tecnología en dispositivos en los que a priori parece imposible implementarla, como ordenadores portátiles y smartphones.
Si nos paramos a pensarlo, ¿cómo es posible que un teléfono móvil procese y reproduzca la misma banda sonora que en los cines y en nuestras casas exige llenar la sala de altavoces? Una de las peculiaridades de Dolby Atmos es que requiere la instalación de cajas acústicas en el techo, o bien emularlas utilizando unos altavoces especiales que recurren a las reflexiones de las ondas sonoras en el techo. A partir de aquí resulta difícil aceptar que un móvil, una barra de sonido o un portátil puedan reproducir audio Dolby Atmos. Y sí, lo hacen. Descubramos juntos cuál es el «truco».
Estas son las claves de Atmos: los objetos y los altavoces en el techo
Antes de que veamos cuáles son las tecnologías utilizadas por Dolby para trasladar la experiencia que nos ofrecen los equipos de cine y cine en casa con Atmos a nuestros portátiles, barras de sonido y smartphones es importante que repasemos en qué se diferencia realmente esta innovación de sus predecesoras. A diferencia de otras tecnologías de codificación de sonido multicanal, como Dolby Digital, Dolby TrueHD o DTS-HD Master Audio, Dolby Atmos no utiliza canales. Usa objetos.
Si somos realmente rigurosos debemos aceptar que Atmos, en realidad, también utiliza canales. De hecho, esta tecnología de codificación puede administrar el sonido de hasta 64 canales independientes, pero lo realmente importante es que pone a nuestra disposición un número virtualmente infinito de ellos. ¿Cómo lo hace? Utilizando objetos, que es el recurso con el que trabajan los creadores, que ya no tienen que preocuparse por asignar un sonido determinado a un canal concreto.
Para entender qué es un objeto solo tenemos que pensar en él como una fuente puntual emisora de sonido. Cuando vemos una película que tiene una banda sonora codificada en Dolby Atmos cualquiera de las personas, animales, vehículos, o cualquier otra cosa que puede emitir sonido es un objeto. De hecho, en una secuencia de una película podemos ver simultáneamente decenas de objetos emitiendo sonido a la vez.
Como os he explicado unas líneas más arriba, los cineastas y los ingenieros de sonido que crean las bandas sonoras de las películas ya no tienen que decidir qué canal debe reproducir cada uno de esos sonidos. Con Dolby Atmos pueden trabajar con mucha más libertad y flexibilidad porque solo tienen que preocuparse de mover cada uno de esos objetos por un espacio virtual tridimensional que representa la sala física en la que se va a reproducir la película, bien se trate de un cine, bien sea nuestra propia casa.
Dolby Atmos interpreta los objetos como fuentes puntuales emisoras de sonido que pueden desplazarse con total libertad por el espacio de audio virtual tridimensional
A partir de aquí es el procesado Atmos el que se responsabiliza de recoger toda esa información espacial y de audio para codificarla y dar forma a una banda sonora digital que posteriormente deberá ser decodificada y reproducida por múltiples dispositivos. En los cines de la decodificación se encarga un procesador de sonido que, además, debe decidir a qué canales físicos presentes en la instalación debe enviar cada sonido y en qué momento debe hacerlo.
El funcionamiento de Dolby Atmos en nuestros equipos de cine en casa no es muy diferente al de las salas de exhibición. En este caso de la decodificación de la banda sonora se encargan nuestros receptores de A/V y procesadores de sonido envolvente, pero lo demás es igual en la medida en que, de nuevo, son estos últimos los que deben decidir a qué canales físicos deben enviar cada sonido, y también en qué instante deben hacerlo. El objetivo es el mismo: recrear en nuestro hogar el mismo espacio sonoro tridimensional sobre el que han trabajado los técnicos que han creado la banda sonora.
Ya sabemos con bastante precisión cómo trabaja Dolby Atmos y por qué nos interesa identificar las fuentes de sonido como objetos, y no pensar en los canales. Pero aún nos queda abordar otro elemento esencial de esta tecnología de sonido envolvente: las cajas acústicas para el techo. Y es que para que la inmersión en el escenario sonoro virtual que nos propone Atmos sea creíble es necesario que el equipo de reproducción cuente, además de con las cajas acústicas habituales con topología 5.1, 7.1 o cualquier otra más ambiciosa, con altavoces en el techo.
Las cajas acústicas del techo dotan a Atmos de la capacidad de desplazar objetos en la dimensión vertical, y no solo en horizontal
Estas últimas cajas acústicas son estrictamente necesarias para dotar a Atmos de la capacidad de desplazar objetos en la dimensión vertical, y no solo en horizontal. Hasta la llegada de Atmos todos estábamos familiarizados con los sonidos que se proyectan desde delante y junto a la pantalla (o detrás de ella en los cines), desde los laterales y desde la parte trasera de la habitación. Pero estos canales solo nos ofrecen la posibilidad de desplazar los sonidos en el plano horizontal. Hacia delante y atrás, y hacia un lado y otro. Pero no hacia arriba y abajo.
Instalando cajas acústicas en el techo Atmos puede dotar a la banda sonora de esa precisión vertical que en los anteriores formatos de sonido envolvente no era posible. Podemos, por ejemplo, percibir cómo se eleva un helicóptero y pasa por encima de nosotros, y no únicamente cómo se desplaza de la parte delantera de la sala a la parte trasera. Eso sí, la precisión con la que el equipo de audio es capaz de posicionar un sonido en particular en el espacio que nos rodea depende en gran medida del número de cajas acústicas que tenemos, un dato que delimita el número de canales con el que Atmos está trabajando por debajo.
Así es como nuestro cerebro determina de dónde procede un sonido
Todos hemos leído o escuchado en alguna ocasión eso de que nuestro cerebro es la herramienta más compleja y poderosa que conocemos. Más incluso que el más sofisticado de los ordenadores que somos capaces de construir actualmente. Y es cierto. Lo que vamos a repasar en las próximas líneas refleja una de las muchas capacidades asombrosas que tiene este órgano tan interesante: cómo nos permite posicionar en el espacio que nos rodea la ubicación de una fuente de sonido.
Esta capacidad es posible debido a que tenemos dos orejas, y no solo una, y a que, además, están colocadas en ambos laterales de nuestra cabeza. Esta configuración no es fruto del azar; es el resultado de un proceso evolutivo que nos ha permitido adaptarnos al medio y sobrevivir. Gracias a la escucha binaural (esta palabra refleja que este proceso es factible gracias a la utilización de dos pabellones auditivos) nuestros antepasados pudieron percibir con el tiempo suficiente para huir la ubicación de sus depredadores. Y combinándola con la vista fueron capaces de identificar dónde se encontraban sus presas para poder cazarlas y alimentarse.
Os propongo que hagamos un experimento mental que refleja una situación que todos hemos vivido en alguna ocasión. Imaginemos que caminamos por la calle y, de repente, oímos que alguien grita nuestro nombre. Posiblemente de forma instintiva miraremos en la dirección de la que procede el sonido, incluso aunque esté por detrás de nosotros y a cierta distancia. E incluso si hay cierto nivel de ruido ambiental. En esta situación nuestros oídos se comportan como dos sensores que se responsabilizan de recoger los cambios de presión en el aire que identificamos como sonido y de entregar esa información a nuestro cerebro.
¿Cómo conoce entonces nuestro cerebro la ubicación de la persona que ha gritado nuestro nombre sin haberla visto previamente? Sencillamente, gracias a tres parámetros: el desfase temporal, la variación del nivel de presión sonora y la variación de la frecuencia. El primero de ellos, el desfase temporal, mide el tiempo que transcurre, por mínimo que sea, desde que una misma onda de sonido llega a cada una de nuestras orejas.
Nuestro cerebro es capaz de llevar a cabo con mucha rapidez los cálculos necesarios para identificar la ubicación espacial de una fuente de sonido
Asimismo, la variación del nivel de presión sonora o del volumen que se produce entre nuestras orejas también ofrece mucha información a nuestro cerebro. Un sonido procedente de una fuente situada a nuestra izquierda será percibido con más intensidad por nuestra oreja izquierda que por la derecha no solo por la diferencia de distancia, que también, sino debido a que nuestra cabeza absorbe y bloquea una parte de la energía acústica.
Y, por último, podemos intuir en qué consiste la variación de la frecuencia utilizando el mismo ejemplo del párrafo anterior. Un sonido procedente de una fuente situada a nuestra izquierda será percibido con una frecuencia ligeramente diferente por nuestras dos orejas. Las frecuencias más graves transportan más energía y sus variaciones son sutiles, por lo que pueden no ofrecer mucha información posicional a nuestro cerebro. Pero los agudos transportan menos energía y pueden quedar enmascarados de una forma más evidente.
Esas alteraciones de la frecuencia están provocadas por la energía acústica que es capaz de absorber nuestra cabeza, y quedan determinadas por la dirección en la que se propaga el sonido. Lo más asombroso de todo esto es que nuestro cerebro es capaz de procesar a una velocidad altísima toda la información que le proporciona nuestro sistema auditivo para ubicar en el espacio que nos rodea con una precisión enorme la fuente de sonido.
Pero esto no es todo. Además hay otros dos parámetros que permiten a nuestro cerebro determinar, también con bastante precisión, la distancia a la que se encuentra una fuente de sonido. El primero de ellos es la respuesta en frecuencia. Como hemos visto, las frecuencias más altas, los agudos, tienen menos energía, y, por tanto, pueden ser enmascarados con más facilidad por los objetos del entorno. Esto significa que si la fuente de sonido está muy lejos posiblemente percibiremos las frecuencias más bajas que emite, pero no las más altas.
Gracias al análisis de la respuesta en frecuencia y la reverberación nuestro cerebro es capaz de identificar con bastante precisión la distancia que nos separa de una fuente emisora de sonido
El otro parámetro es la reverberación, que es un fenómeno que hace acto de presencia cuando las ondas de sonido reflejadas en los objetos del entorno llegan a nuestros oídos muy poco tiempo después que el sonido directo, modificándolo. Si ese lapso de tiempo es lo suficientemente amplio percibimos las ondas reflejadas como un eco, pero si están muy próximas a las ondas directas las identificamos como reverberación. Y, una vez más, nuestro cerebro es capaz de medir no solo esa mínima diferencia de tiempos, sino también la cantidad de reverberación que se produce para obtener información acerca de la distancia a la que se encuentra la fuente de sonido.
Dolby ha conseguido introducir Atmos en nuestros móviles recurriendo a la neurociencia
En la sección de este artículo en la que hemos descrito cómo la codificación Dolby Atmos consigue recrear un campo sonoro inmersivo a nuestro alrededor ejercen un rol esencial las cajas acústicas dispuestas estratégicamente en las paredes frontal, posterior y laterales. Y también en el techo. Más cajas acústicas pueden proporcionarnos más precisión y continuidad al posicionar un sonido y desplazarlo por el espacio sonoro. Pero, ¿qué sucede cuando se reproduce una banda sonora Dolby Atmos en un dispositivo que carece de todos estos altavoces, como un smartphone, un televisor, una barra de sonido o un ordenador portátil?
Pues, sencillamente, que entra en juego la neurociencia. Esta disciplina se encarga del estudio de nuestro sistema nervioso desde todas las perspectivas posibles: funcionalidad, estructura, bioquímica, patología, farmacología, etc. Y, por supuesto, también se preocupa de entender cómo se relacionan entre sí los elementos que lo conforman, así como de identificar la base biológica de nuestra conducta y la manera en que los seres vivos procesamos tanto la información que recogen nuestros sentidos como el conocimiento adquirido.
Precisamente es esta última parte de la neurociencia, la que se ocupa de la cognición, la más relevante en el tema que estamos desarrollando. Y es que lo que los investigadores de Dolby han hecho para poder trasladar la experiencia de Atmos a aquellos dispositivos compactos a priori incapaces de generar un campo sonoro envolvente, como cualquiera de los que he mencionado dos párrafos más arriba, es entender cómo interpreta nuestro cerebro la información que recibe de nuestro sistema auditivo. ¿Con qué objetivo? Simplemente con el propósito de «engañarlo».
Si somos capaces de controlar con precisión los parámetros que utiliza nuestro cerebro para identificar la posición de una fuente de sonido y la distancia que nos separa de ella, podemos engañarlo para hacerle creer que un sonido procede de una región del espacio en la que, en realidad, no hay ningún altavoz. Lo interesante es que esos parámetros ya los hemos identificado. Son los que hemos abordado unos párrafos más arriba: el desfase temporal, la variación del nivel de presión sonora, la variación de la frecuencia, la respuesta en frecuencia y la reverberación.
Para indagar un poco más en esta tecnología hemos hablado con Brett Crockett, el Vicepresidente de Investigación y Desarrollo en Tecnologías de Sonido de Dolby. Su explicación acerca de la técnica que utilizan para procesar sonido Dolby Atmos en las barras de sonido no tiene desperdicio: «En las barras compatibles con Atmos, dado que no es posible contar con altavoces en el techo y por detrás de la posición de escucha, combinamos la instalación dentro de la propia barra de sonido de altavoces que proyectan el audio hacia arriba con nuestra sofisticada tecnología de virtualización para simular la presencia de los altavoces de sonido envolvente».
Precisamente es esa tecnología de virtualización la que recurre a nuestro conocimiento actual de la cognición para «engañar» a nuestro cerebro. En lo que concierne a los smartphones y las tablets, Crockett apunta lo siguiente: «En los teléfonos móviles y las tabletas, como tampoco contamos con altavoces en el techo ni por detrás del espectador, utilizamos una variante de nuestras tecnologías de virtualización que se apoya en nuestro conocimiento de la percepción humana para simular la presencia de altavoces por encima y detrás del oyente a partir de unos auriculares o de los altavoces estéreo integrados en estos dispositivos».
En respuesta a mi pregunta acerca de la importancia que tiene la neurociencia en la implementación de Dolby Atmos más allá de las salas de cine y los equipos de cine en casa, Brett Crockett me explicó lo siguiente: «Nuestro conocimiento de la percepción humana, acerca de cómo escuchamos y cómo interpreta los sonidos nuestro cerebro, es crítico para hacer posible la experiencia Dolby Atmos en barras de sonido y dispositivos móviles como los ordenadores portátiles, las tablets y los smartphones».
Por último, no podía dejar escapar la oportunidad de preguntarle acerca de la diferencia que existe en términos de direccionalidad del sonido y resolución entre la reproducción de una misma banda sonora Dolby Atmos en un equipo de cine en casa y un teléfono móvil o un ordenador portátil. Brett Crockett apuntó que «todos estos dispositivos reciben exactamente la misma información, por lo que es el renderizador Dolby Atmos, que contempla las limitaciones de cada sistema de reproducción, el responsable de ofrecer la mejor experiencia posible al usuario en cada uno de estos dispositivos».
Más información | Dolby
También te recomendamos
Kirin 980: todo lo que esconde el primer procesador de 7nm y con NPU dual
–
La noticia
El sonido de tu smartphone puede parecerse al del cine gracias a la neurociencia: así es como Dolby ha integrado en él audio Atmos
fue publicada originalmente en
Xataka
por
Juan Carlos López
.
Xataka
Enlace: El sonido de tu smartphone puede parecerse al del cine gracias a la neurociencia: así es como Dolby ha integrado en él audio Atmos