Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

‘Deepfake’

Una vez que los estafadores conozcan esos sistemas de detección, centrarán lo peor de sus esfuerzos en superarlos

Fotograma del 'deepfake' de Nicolas Cage simulando a Lois Lane.
Fotograma del 'deepfake' de Nicolas Cage simulando a Lois Lane. Youtube

Un concepto muy común en la biología evolutiva es el de la carrera de armamentos. La coraza de un cangrejo se hace cada vez más dura para impedir que la perfore un buey de mar, lo que fuerza al segundo a desarrollar unas pinzas cada vez más poderosas que a su vez llevan al cangrejo a reforzar su coraza y así sucesivamente hasta que predador y presa acaban con unas armas de ataque y defensa que rayan en el ridículo geométrico, y total para seguir comiendo lo mismo que antes. Algo muy similar está empezando a ocurrir en el espinoso asunto de las noticias falsas (fake news), y en especial en el subsector de los vídeos falsos, que están alcanzando unos niveles de sofisticación deslumbrantes.

Las últimas vídeo-estafas se llaman deepfakes (mentiras profundas), y utilizan los sistemas modernos de la inteligencia artificial, que son avanzados pero están al alcance de cualquier timador con una moral lo bastante escasa. El deep (profundo) viene de deep learning (aprendizaje profundo), la técnica de aprendizaje de máquinas que ha revolucionado el sector en años recientes. Por alguna razón, un blanco favorito de estos vídeos es Nicolas Cage, que lo mismo sale convertido en Terminator que asomado a la proa del Titanic o haciendo un discurso de Donald Trump. Uno de los deepfakes más logrados presenta a Barack Obama diciendo unas cosas que serían como para meterle en la cárcel. Este vídeo ha sido producido con buenos fines, pero desde luego consigue lo que se propone: asustar al público por su increíble realismo, y revelar los graves riesgos que supone esta tecnología, en la paz y en la guerra.

Y ahora viene la guerra de armamentos. El científico de la computación Hany Farid, del Dartmouth College de Hanover (New Hampshire), ha utilizado la inteligencia artificial para desenmascarar los fraudes perpetrados con esa misma tecnología. Vende sus sistemas a universidades, medios de comunicación y tribunales de justicia. Por perfecta que parezca una manipulación, una máquina entrenada puede detectar errores sutiles, como la falta de pestañeo o unos movimientos de los ojos carentes de naturalidad. Ambas cosas se deben a que la otra máquina, la estafadora, suele aprender a partir de fotos fijas. Otros errores frecuentes son unos movimientos extraños de la cabeza o un color de ojos raro.

Naturalmente, una vez que los estafadores conozcan esos sistemas de detección, centrarán lo peor de sus esfuerzos en superarlos. ¿Alguien se atreve a predecir qué tipo de buey de mar saldrá al final de esta carrera?

Puedes seguir EL PAÍS Opinión en Facebook, Twitter o suscribirte aquí a la Newsletter.