El sonido del futuro ya está aquí: audio adaptado a cada oído
Los oídos son como las huellas dactilares: no hay dos iguales. Por eso, muchas firmas de auriculares están desarrollando sistemas para ajustar su sonido a cada persona. Así funcionan
Si no hay dos personas con los oídos iguales (ni siquiera el izquierdo es igual que el derecho), ¿por qué los auriculares sí lo son? ¿Hasta qué punto influye esta homogeneidad de los diseños y la ecualización en la calidad de sonido que se obtiene con ellos? Para los expertos, mucho. Hasta ahora, los fabricantes se habían centrado en ofrecer distintas opciones de ajuste con almohadillas de tamaños y materiales en su esfuerzo para garantizar la mejor experiencia de escucha posible: si el canal auditivo no queda bien sellado, ...
Si no hay dos personas con los oídos iguales (ni siquiera el izquierdo es igual que el derecho), ¿por qué los auriculares sí lo son? ¿Hasta qué punto influye esta homogeneidad de los diseños y la ecualización en la calidad de sonido que se obtiene con ellos? Para los expertos, mucho. Hasta ahora, los fabricantes se habían centrado en ofrecer distintas opciones de ajuste con almohadillas de tamaños y materiales en su esfuerzo para garantizar la mejor experiencia de escucha posible: si el canal auditivo no queda bien sellado, seguirán entrando los ruidos del entorno y no se distinguirán bien los matices de la música. Pero en los últimos tiempos han ido un paso más allá: ahora consiguen adaptar también cómo suenan en función de la forma de las orejas o de la cabeza. Es la personalización en su máximo exponente.
El caso de Apple: audio espacial
Ejemplos ya hay muchos, cada uno con unas tecnologías y aplicaciones diferentes. En el caso de Apple, por ejemplo, esta característica se ha llamado audio espacial y se emplea para que la experiencia auditiva sea más inmersiva, de modo que cada usuario perciba el sonido en función del tamaño y la forma de su cabeza y orejas. De ahí que para utilizarlo haya que hacer un escáner previo con la cámara del iPhone de esta zona del cuerpo.
¿En qué se traduce? En que cuando se escucha música o ven películas y series en el iPhone, iPad, Mac y Apple TV, el sonido parece que llega de todas partes y, gracias al giroscopio y acelerómetro instalados en cada auricular, detectan cómo nos movemos y el sonido también se percibe diferente en función de la posición de la cabeza. Para ello se requiere, eso sí, unos auriculares AirPods Pro de 1ª o 2ª generación, unos AirPods Max, los AirPods de 3ª generación o unos Beats Fit Pro. Y además, la app desde la que se vaya a escuchar el sonido (música, contenido multimedia…) ha de ser compatible con esta función, que solo está operativa en teléfonos y tabletas de Apple con el sistema operativo 15.1 o superior, y en ordenadores Mac con procesador M1 o superior.
Algo similar hace Sony. En este caso, aplicando su tecnología 360 Reality Audio a la música y a la grabación de vídeos musicales en vivo: sitúa las voces, los instrumentos e, incluso, el sonido del público en un campo sonoro esférico y a una distancia y ángulo personalizados. Así, la sensación es como si se estuviera en el centro de la música.
La diferencia con Apple es que esta tecnología está integrada en múltiples sistemas de sonido; no solo de Sony, sino también de Amazon, Denon, Marantz, Audio Technica o Sennheiser. Y la música con este sonido envolvente está disponible desde plataformas como Amazon Music Unlimited o Tidal. De nuevo, una parte esencial de su éxito es que los dispositivos sean capaces de adaptar el sonido a las características físicas de cada persona. En el caso de los auriculares de Sony, por ejemplo, se analiza la forma de la oreja y las mejillas desde la app Headphones Connect (la que se emplea para gestionar el dispositivo desde el móvil) y ajusta la ecualización en función de ello.
Bose: escáner auditivo en cada uso
El ejemplo de Bose, por último, es algo diferente por tres razones: en lugar de escanear las orejas, se centra en el canal auditivo. Los propios auriculares repiten ese análisis cada vez que un usuario se los pone (sin que haya que hacer nada) y usan los resultados principalmente para mejorar el rendimiento del sistema de cancelación de ruido activo. El objetivo es conseguir el máximo silencio posible durante la reproducción del sonido.
Bose lo ha implementado en sus últimos auriculares inalámbricos, los QuietComfort Earbuds II. Para ello, los ingenieros de la firma se han inspirado en la tecnología AdaptiQ de sus barras de sonido y sistemas de cine en casa, que tienen en cuenta el tamaño de la habitación, la forma, los muebles, la alfombra y el material del suelo para ajustar el rendimiento del sistema. Su planteamiento es que, al igual que el sonido de un altavoz se ve alterado por la habitación en la que se encuentra y el lugar donde está colocado, el sonido de un auricular resulta modificado de manera diferente en el canal auditivo de cada persona. Y esas diferencias limitan la efectividad de la cancelación de ruido.
En la práctica, cada vez que se colocan los auriculares este escáner auditivo se pone en marcha emitiendo un sonido que viene y va: rebota en el interior del oído y es captado por los micrófonos integrados. Dura apenas un segundo, pero es suficiente para sintonizar el oído del usuario y poder, así, poder optimizar tanto la cancelación de ruido como el rendimiento sonoro para cada persona.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.