_
_
_
_

La inteligencia artificial ya puede crear vídeos inventados a partir de audios

La herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, detecta emociones en el audio y las asocia a expresiones faciales que representa en un vídeo

La habilidad de la inteligencia artificial para generar contenido falso está alcanzando límites preocupantes. Después de conseguir falsear vídeos para cambiar el discurso de distintos personajes públicos (entre ellos, el expresidente de los Estados Unidos Barack Obama) o de aprender a imitar voces conocidas, ahora, una herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, puede detectar emociones en un audio y asociarlas a expresiones faciales que representa en un vídeo. Es decir, analiza un archivo de audio y es capaz de generar un vídeo hiperrealista a partri de él donde aparece una persona recitando el audio.

¿Cómo funciona? La inteligencia artificial analiza primero las facciones de la cara de la persona que aparecerá en el vídeo final y almacena la pose y características del rostro del sujeto. Después, el algoritmo escucha el audio, el discurso que va a hacer pronunciar a esa persona, y analiza las emociones que se expresan en él. Al unificar las dos cosas, es capaz de generar un vídeo nuevo en el que la persona representa el audio falseado de forma hiperrealista, con expresiones faciales acordes a las emociones expresadas en el audio.  

La inteligencia artificial de SenseTime puede coger un clip de cualquier persona y hacer que diga lo que sea respetando la expresión facial del sujeto y sus movimientos, pero aplicando las expresiones faciales extraídas del clip de audio. Tal y como pudieron comprobar los autores del estudio, es complicado detectar a simple vista por los usuarios si es un vídeo auténtico o si es creado por un sistema de inteligencia artificial.

La existencia de estos vídeos falsos hiperrealistas, que utilizan técnicas de inteligencia artificial para editar los rasgos físicos de una persona y confundirla con otra, ha hecho saltar varias alarmas. No cabe duda de que las posibilidades que tendría esta tecnología en la difusión de noticias falsas son numerosas.Pero también tiene algunos usos útiles: un grupo de investigadores de la Universidad Noruega de Ciencia y Tecnología utiliza estas técnicas para anonimizar a ciertas personas. El anonimato facial suele utilizarse para proteger la identidad de un individuo como podrían ser denunciantes o víctimas, pero con las técnicas tradicionales, como el desenfoque o la pixelación, se pierden matices expresivos y, en algunos casos, puede llegar a descubrirse la identidad de la persona. Las redes generativas de confrontación —GAN, por sus siglas en inglés— recrean expresiones faciales en alta resolución y eliminan los rasgos originales del sujeto, con lo que ambos problemas quedan solucionados.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_