Más allá de Lola Flores: el peligro para los ciudadanos y para la democracia de los vídeos falsos hiperrealistas
La democratización de la inteligencia artificial permite que el número de los ‘deepfakes’ se duplique cada seis meses, según el sector
La palabra deepfake (literalmente, engaño profundo) ya se ha colado en nuestro día a día. Se refiere a los vídeos realizados mediante inteligencia artificial que muestran a una persona haciendo y diciendo cosas que en la realidad nunca hizo o dijo. El presidente de Estados Unidos, Joe Biden, y su predecesor, Donald Trump, han sido protagonistas de algunos de ellos. Con ayuda de la tecnología, se consigue que un texto leído por un actor pase por unas declaraciones de Barack Obama o que Jim Carrey sustituya a Jack Nicholson en la película El resplandor. También se han usado en películas de la saga Star Wars para resucitar a Carrie Fisher o, más recientemente, para rejuvenecer a Eduard Fernández en la serie 30 monedas. La última en utilizarlos ha sido la cervecera Cruzcampo, que recientemente lanzó un anuncio en el que la difunta folclórica Lola Flores pronunciaba palabras que nunca llegó a articular (al menos en ese orden) en sus 72 años de vida.
Número de vídeos falsos con IA detectados en Internet
Desde diciembre de 2018, el número de deepfakes que se pueden encontrar en Internet se duplica aproximadamente cada seis meses, según la compañía especializada Sensity. La democratización de la tecnología ha permitido que cualquier persona con acceso a un programa o app de edición pueda manipular o alterar una foto o vídeo. Diseñar estos engaños es más fácil de lo que parece. Hay herramientas, algunas incluso gratuitas, que permiten crearlos de forma rápida y sencilla. “Muchas de ellas no son muy profesionales, lo que facilita identificar que estamos ante un vídeo manipulado”, cuenta Ruth García, técnica de Ciberseguridad para Ciudadanos del Instituto Nacional de Ciberseguridad (INCIBE). “Pero aunque el resultado no sea perfecto, puede servir para engañar a buena parte de los usuarios, especialmente a las personas mayores o a cualquiera que haga un uso básico y poco crítico de la tecnología”.
Los deepfakes suponen un paso adelante en este tipo de manipulación por la perfección alcanzada. Pueden convertirse en un instrumento que afecte a la integridad de perfiles anónimos: como arma de venganza (el llamado revenge porn, simular escenas sexuales para vengarse de exparejas) o para un uso malicioso en el terreno empresarial. No son pocos los especialistas que alertan de que pueden llegar a convertirse en una peligrosa arma política usada para manipular la opinión pública o desestabilizar los sistemas democráticos.
“Creemos que los vídeos en sí no suponen un peligro”, aseguran portavoces del Centro Tecnológico Vicomtech. “Es el uso que se hace de ellos a lo que hay que prestar atención: no es lo mismo generar un vídeo para una campaña publicitaria que recrear a una persona pública transmitiendo ciertos mensajes que pueden tener un impacto muy grande en la población en general”. Julio Fuentes, fundador de Maldito Bulo, se reafirma en la idea. “No hay duda de que el peligro es claro, pero la cuestión es que ahora mismo los malos, los que desinforman, ganan dinero o buscan influir ideológicamente con desinformaciones, ni siquiera necesitan ese nivel de perfección para conseguir su objetivo”.
Su uso político es, por el momento, moderado, sin embargo, es previsible que vaya a más en un futuro. “Es solo cuestión de tiempo que estos vídeos se utilicen en un intento de manipular las elecciones”, aseguró recientemente Paul Scharre, director de Tecnología y Seguridad Nacional del Centro Para una Nueva Seguridad Americana (CNAS).
De momento, la diana está puesta sobre todo en el sector del entretenimiento: el 62,7% de los vídeos que se crean tiene que ver con esta temática. “Hemos identificado un notable aumento en el número de personalidades de Instagram, Twitch y YouTube que son objetivo de estos vídeos. También vemos que crece el número de aquellos relacionados con el ámbito empresarial o político. Rondan el 4%”, explica Giorgio Patrini, consejero delegado y científico jefe de Sensity.
Estos avances ya han demostrado ser una amenaza real para la ciberseguridad. En marzo de 2019, una empresa de energía con sede en el Reino Unido —de la que no ha trascendido el nombre— sufrió un ataque utilizando inteligencia artificial para recrear la voz del director general de la compañía. Los ciberdelincuentes diseñaron una grabación en la que el directivo solicitaba una transferencia urgente de 220.000 euros. La tecnología detrás de los deepfakes consigue recreaciones tan fidedignas que son capaces de hacer creer a los empleados que están escuchando a su propio jefe cuando en realidad se trata de una grabación falsa hiperrealista. El responsable de finanzas que recibió el mensaje de voz dijo que la imitación era tan real que percibió el acento y la entonación característicos del jefe de la empresa, según cuenta The Wall Street Journal.
Tanto los vídeos como las grabaciones de voz creadas con inteligencia artificial pueden ayudar a los atacantes a la hora de conseguir grandes sumas de dinero mediante transferencias fraudulentas. La clave del éxito de estas estafas radica en la confianza que el destinatario deposita en el supuesto solicitante (en este caso, su jefe) y lo convincente que resulta la grabación o el vídeo hiperrealista. “Un audio o vídeo falsos pueden aumentar la potencia y la efectividad de los ataques”, apunta Fernando Anaya, country manager de Proofpoint. “Mediante el deepfake, los atacantes pueden hacer que una solicitud de pago parezca todavía más legítima si dan muchos detalles del presunto solicitante, añadiendo un componente emocional a ese mensaje fraudulento”.
Este tipo de ataques en los que alguien se hace pasar por el responsable para exigir el pago de un pedido o cambiar una cuenta bancaria ya existían antes, pero se llevaban a cabo enviando un correo electrónico. “Los deepfakes sirven para potenciar ataques tradicionales”, explica Eusebio Nieva, director técnico de Check Point en España y Portugal. “Son un conjunto de ataques muy específicos, que requieren preparación y mucha elaboración previa porque están personalizados, así que se necesita tener acceso a imágenes o audios de la persona que se quiere suplantar. No vale con enviar un correo genérico, como sucede con el phishing [hacerse pasar por una persona, empresa o servicio de confianza para que la víctima haga acciones que no debería realizar]”.
Estos vídeos hiperrealistas también se pueden usar para extorsionar a usuarios anónimos. Hasta ahora, una de las tácticas habituales de los ciberdelincuentes es enviar correos asegurando que han grabado al usuario viendo porno y van a distribuir el vídeo si no les paga. La mayoría de las veces es mentira y esa grabación no existe, pero algunos se lo creen y acceden a pagar. Con estos vídeos falsos, los hackers pueden crear ese vídeo de la nada. “Aun sabiendo que el vídeo es falso, te obligan a pagar porque han puesto tu cara en una escena comprometida, ya sea viendo porno o incluso participando de él”, explica Ruth García, técnica de Ciberseguridad para Ciudadanos del INCIBE.
Es verdad que para crear este tipo de vídeos necesitan material en el que basarse, como imágenes y documentos de audio. Pero con herramientas como las stories de Instagram (los vídeos con fecha de caducidad que suben los usuarios) es muy fácil acceder a ese tipo de información. “Si haces declaraciones a menudo en las redes sociales y te sueles grabar en vídeo, ya sea porque eres influencer y promocionas algo o porque tienes un canal de recetas en YouTube, tienen material para poner en tu boca cosas que no has dicho y que puedan perjudicarte en el presente o a medio y largo plazo”, advierte García.
Esta situación puede hacer mucho daño a la imagen del usuario, sobre todo porque las declaraciones polémicas se viralizan muy rápidamente, pero las correcciones o aclaraciones sobre ese contenido no llegan tan lejos. “Lo más fácil es que la gente se quede con el vídeo polémico en lugar de con la realidad, también porque es muy difícil desmentirlo: los demás ya te han visto con sus propios ojos y el vídeo, aunque falso, es hiperrealista”, recuerda García.
¿Son legales? Sí, comenta el experto en derecho y tecnología Borja Adsuara. “En España los delitos nunca se catalogan por la tecnología utilizada, sino según la intención con que se hacen y al bien jurídico contra el que atentan”. Todo depende del contenido del vídeo. En este caso, apunta el jurista, entrarían en juego los delitos contra el honor, la intimidad, la integridad moral y las intromisiones ilegítimas. También pueden atentar contra el derecho al honor, la intimidad y la propia imagen, además del uso sin autorización de la imagen de una persona.
La inteligencia artificial está facilitando así que los cibercriminales creen nuevas amenazas. Aunque esta técnica aún no se ha implementado de forma generalizada como ciberataque, los expertos llaman la atención sobre su rápida expansión y su gran eficacia. “Dada la rapidez con la que la tecnología está evolucionando y a medida que los cibercriminales continúan innovando, debe ser tenida más en cuenta por parte de organizaciones y usuarios”, explica Anaya, de Proofpoint. Si la inteligencia artificial se vuelve cada vez más convincente al imitar la comunicación humana, es probable que estos ataques sean también cada vez más comunes.
El propio director general de Alphabet y Google, Sundar Pichai, ha llegado a declarar “que la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas” y que estas lecciones nos enseñan que tenemos que “estar alerta de lo que puede salir mal”. El ejecutivo admite que hay “preocupación real” sobre las potenciales consecuencias negativas de la inteligencia artificial, desde los estos vídeos hiperrealistas hasta los “usos viles” del reconocimiento facial. “No albergo dudas de que la inteligencia artificial ha de ser regulada; la cuestión es cómo”.
¿Cómo se genera un vídeo de 'deepfake'?
Para hacer un vídeo de estas características hacen falta otros dos vídeos, uno para la persona que se quiere suplantar y el otro para la persona suplantada, explica el Centro Tecnológico Vicomtech. El proceso automático de generación consiste en utilizar lo que se llama una red generativa adversarial (GAN) basada en inteligencia artificial entrenada con millones de imágenes de caras. Esta red neuronal se entrena con las caras de los dos vídeos, realizando ajustes por cada iteración y dentro de ella se produce un juego entre dos partes: la generativa y la adversarial. La primera crea el deepfake, y la segunda decide si esa cara es falsa o real. Cuando el sistema adversarial es engañado por el generativo, la cara se va suplantando en el vídeo fotograma a fotograma. Como normalmente el resultado del deepfake suele tener pequeños fallos, se aplican técnicas de retoque fotográfico por cada fotograma.
El origen del término
El término deepfake fue acuñado por primera vez por el usuario de Reddit u/deepfakes. Esta persona creó un foro de Reddit con el mismo nombre el 2 de noviembre de 2017, y lo destinó a comentar la creación y uso de software de aprendizaje profundo (el llamado deep learning) para llevar a cabo lo que en el argot se denomina faceswapping (intercambio de caras) en vídeos, sobre todo de mujeres famosas. La empresa eliminó este foro el 7 de febrero de 2018. Pero su uso ha explotado.
Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.