_
_
_
_

La guerra de los robots: la salvación antes de la era ‘fake’

La carrera 'armamentística' entre algoritmos que crean o detectan falsificaciones ya ha empezado

Todas las caras que se ven en esta foto son falsas; han sido generadas por el algoritmo StyleGAN.
Todas las caras que se ven en esta foto son falsas; han sido generadas por el algoritmo StyleGAN.Kerras et al. (EL PAÍS)
Jordi Pérez Colomé

El mundo de Instagram no es más bonito que el real por casualidad, sino porque la edición de foto es universal. Photoshop ya no es solo para profesionales, docenas de apps replican sus funciones y son fáciles de usar: "La gente las usa para cambiar el enfoque, encuadrar, puntos de luz, filtros, añadir o quitar objetos, darle apariencia vintage y, por supuesto, retocar la cara y el cuerpo", dice María Bretón, jefa de Social en Groupm. "Todas las fotos pasan por un editor", añade.

La realidad retocada de Instagram es solo un aperitivo de nuestro futuro. La inteligencia artificial permitirá crear realidad. Ya no solo podremos retocarla, podremos inventarla. En los últimos días se han anunciado novedades extraordinarias en la creación de fotos, textos y vídeos falsos. Son el prólogo de un mundo nuevo, donde la posición por defecto deberá ser no creer lo que vean tus ojos en una pantalla.

Pronto echaremos de menos a las simples 'fake news', que solo hay que contrastar

Nuestros ojos no sabrán distinguir si es falso un vídeo donde habla, por ejemplo, el presidente del Gobierno o si una pelea en el centro de la plaza del pueblo ocurrió o no. ¿Qué solución hay? ¿Igual que hay robots malos que crean falsificaciones podremos programar robots buenos que identifiquen la mentira? Es una esperanza, pero no es seguro. Es más seguro que pronto echaremos de menos a las simples fake news, que solo hay que contrastar.

El Instituto OpenAI, impulsado por Elon Musk, fue creado en 2015 para divulgar descubrimientos en inteligencia artificial. Ahora acaba de anunciar un modelo que sin entrenamiento es capaz de escribir textos a partir de un par de frases iniciales. Los investigadores no han querido publicar el código para complicar su réplica. Temen que se use para automatizar la creación de textos falsos que inunden internet, desde noticias falsas o posts de Facebook a reviews inventadas en TripAdvisor.

En diciembre la empresa Nvidia publicó los resultados de un trabajo donde creaban caras perfectas a partir de la combinación de rostros reales. En febrero, un ingeniero de Uber, Philip Wang, ha usado ese código para crear la web thispersondoesnotexist.com [estapersonanoexiste.com] que enseña cara tras cara perfectamente reales que no existen. "He decidido rascarme el bolsillo para llamar la atención sobre esta tecnología", explica Wang en Facebook. A partir del repositorio de Nvidia se pueden crear también gatos, coches y habitaciones. Wang ha creado otra web de gatos (thiscatdoesnotexist.com) pero no están tan refinados y suelen salir pequeños engendros.

A pesar de los obstáculos, la expansión es ya incontrolable. Hay tutoriales en internet para crear vídeos falsos. Hace unos días apareció un vídeo impecable de la actriz Jennifer Lawrence en una rueda de prensa a la que le habían incrustado la cara del actor Steve Buscemi. A estos vídeos se les llama deepfakes, "profundos falsos".

Habrá quien piense que esto ya existe. No. Ahora una política británica de extrema derecha puede escoger un vídeo de Alejandría (Egipto) de 2013, tuitearlo sin más contexto que los musulmanes son malos y acabar retuiteado por Donald Trump. Pero ese caso se corrigió rápido con una simple búsqueda en Google.

En la nueva era fake, las opciones se multiplicarán. Una figura pública grabada en una mala situación dirá que un enemigo ha creado ese "deepfake". Esa negativa será de repente plausible. ¿Qué político pillado en una declaración o escena desafortunadas no clamará "deepfake"?

Hay ya un campo de investigación que se dedica precisamente a detectar vídeos falsos: el Análisis forense digital. "Hay una carrera armamentística entre hacer falsificaciones digitales y detectar esas falsificaciones", dice Siwei Lyu, profesor de la Universidad de Albany (EE UU). Antes de 2017, este campo se centraba en Photoshop. Ahora los dos bandos aprovechan la inteligencia artificial.

Cómo funcionan estos modelos

El funcionamiento de estos modelos de inteligencia artificial no son ningún misterio. Un algoritmo así requiere de bases de datos inmensas. Para escribir, por ejemplo. Se le dan millones de frases y textos y el modelo aprende, dadas las palabras que ha visto en su base, cuál es el orden más probable. El algoritmo no es consciente de si eso que escribe tiene sentido o es verdad. Solo que se parece a lo que ha visto. Y no siempre acierta. Pero sus errores son a menudo menores y sino fácilmente corregibles: repite el proceso.

Ocurre igual con los vídeos deepfake. Necesita imágenes de un individuo con expresiones distintas, desde varios ángulos y hablando. El modelo observa cómo es una señora y resume ese conocimiento en una acción que la señora nunca antes ha hecho. O el presidente puede de repente decir que odia a los inmigrantes. El candidato puede aparecer besando a la cantante. O el futbolista puede beber y fumar en la barra de una discoteca. Solo hacen falta muchas imágenes de cada cual, aplicar el modelo y poder de computación.

No es la primera vez que habrá una guerra así: los virus y los antivirus siguen vigentes. Es un ejemplo, además, que prueba la eficacia del mal para sobrevivir. Hay toda una industria millonaria creada alrededor de los antivirus. Los fakes presentan un problema añadido respecto a los virus: su código no se publica. "Un grupo de hackers anónimos genera deepfakes y los detalles de su algoritmo quizá no estén disponibles como los de un ataque informático. Mientras, la tecnología de protección suele hacerse en la academia con papers públicos", dice Lyu.

Los tramposos saben cómo les persiguen. Es como si un ladrón de bancos va a robar con un GPS donde ve cómo se mueven los policías y los policías dependen solo de su intuición. "De aquí en adelante, los generadores de deepfakes se entrenarán para engañar a los detectives", dice Giorgio Patrini, fundador de Deeptrace, empresa dedicada a detectar vídeos falsos.

"Es mejor que tengamos alguna tecnología antes de que una persona pueda hacerse pasar por nosotros en una vídeollamada"

De momento, por tanto, no hay solución. Deeptrace se dedica a esto y pide más tiempo. "Ahora mismo no hay ninguna tecnología con un nivel de madurez suficiente para ser desplegada en el mundo real", dice Patrini. Y es mejor que llegue cuanto antes, cree, mientras las máquinas malas aún están aprendiendo cómo inventar escenas. Es decir, no solo mezclar dos rostros o poner una cabeza en un cuerpo ajeno y hacerla hablar, sino crear algo que nunca existió. "Es mejor que tengamos alguna tecnología antes de que una persona pueda hacerse pasar por nosotros en una vídeollamada solo descargándose un software", añade Patrini.

De momento la alternativa es educar a humanos: "Debemos empezar a detectar cuando se crean imágenes falsas de humanos. Nosotros hemos empezado entrenando a humanos. El próximo paso es entrenar inteligencia artificial", dice Jevin West, profesor de la Universidad de Washington.

A quien le falte imaginación para pensar aplicaciones de estas tecnologías, un científico del laboratorio nacional de Los Alamos tiene este ejemplo: pide al algoritmo una foto de tu vecino antipático con una pistola en la mano, implántalo en el vídeo de la cámara de seguridad de una farmacia y haz que le encarcelen.

Patrini es de los científicos que creen que hay tiempo para que los robots nos defiendan. Battista Biggio, profesor de la Universidad de Cagliari (Italia), cree que la opción más segura es acostumbrarse: "Con imágenes, vídeos, audios el malhechor puede básicamente cambiar todo casi sin vínculos. Será muy difícil defenderse técnicamente de estas amenazas", dice.

¿Su solución? Mejor acostumbrarnos a no creer lo que ven nuestros ojos. "Deberemos usar soluciones tecnológicas distintas para certificar la información desde el inicio, la fuente del dato", dice Biggio. Aunque, como saben los autores de certificados de software, también son sencillos de falsificar.

La guerra de robots para la era fake ya ha empezado. Quizá los buenos resistan. Pero no es mala idea entrenar ya la mirada con un escepticismo total.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Jordi Pérez Colomé
Es reportero de Tecnología, preocupado por las consecuencias sociales que provoca internet. Escribe cada semana una newsletter sobre los jaleos que provocan estos cambios. Fue premio José Manuel Porquet 2012 e iRedes Letras Enredadas 2014. Ha dado y da clases en cinco universidades españolas. Entre otros estudios, es filólogo italiano.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_