MIRADOR
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

‘Deepfake’

Una vez que los estafadores conozcan esos sistemas de detección, centrarán lo peor de sus esfuerzos en superarlos

Fotograma del 'deepfake' de Nicolas Cage simulando a Lois Lane.
Fotograma del 'deepfake' de Nicolas Cage simulando a Lois Lane.Youtube

Un concepto muy común en la biología evolutiva es el de la carrera de armamentos. La coraza de un cangrejo se hace cada vez más dura para impedir que la perfore un buey de mar, lo que fuerza al segundo a desarrollar unas pinzas cada vez más poderosas que a su vez llevan al cangrejo a reforzar su coraza y así sucesivamente hasta que predador y presa acaban con unas armas de ataque y defensa que rayan en el ridículo geométrico, y total para seguir comiendo lo mismo que antes. Algo muy similar está empezando a ocurrir en el espinoso asunto de las noticias falsas (fake news), y en especial en el subsector de los vídeos falsos, que están alcanzando unos niveles de sofisticación deslumbrantes.

Las últimas vídeo-estafas se llaman deepfakes (mentiras profundas), y utilizan los sistemas modernos de la inteligencia artificial, que son avanzados pero están al alcance de cualquier timador con una moral lo bastante escasa. El deep (profundo) viene de deep learning (aprendizaje profundo), la técnica de aprendizaje de máquinas que ha revolucionado el sector en años recientes. Por alguna razón, un blanco favorito de estos vídeos es Nicolas Cage, que lo mismo sale convertido en Terminator que asomado a la proa del Titanic o haciendo un discurso de Donald Trump. Uno de los deepfakes más logrados presenta a Barack Obama diciendo unas cosas que serían como para meterle en la cárcel. Este vídeo ha sido producido con buenos fines, pero desde luego consigue lo que se propone: asustar al público por su increíble realismo, y revelar los graves riesgos que supone esta tecnología, en la paz y en la guerra.

Y ahora viene la guerra de armamentos. El científico de la computación Hany Farid, del Dartmouth College de Hanover (New Hampshire), ha utilizado la inteligencia artificial para desenmascarar los fraudes perpetrados con esa misma tecnología. Vende sus sistemas a universidades, medios de comunicación y tribunales de justicia. Por perfecta que parezca una manipulación, una máquina entrenada puede detectar errores sutiles, como la falta de pestañeo o unos movimientos de los ojos carentes de naturalidad. Ambas cosas se deben a que la otra máquina, la estafadora, suele aprender a partir de fotos fijas. Otros errores frecuentes son unos movimientos extraños de la cabeza o un color de ojos raro.

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

Naturalmente, una vez que los estafadores conozcan esos sistemas de detección, centrarán lo peor de sus esfuerzos en superarlos. ¿Alguien se atreve a predecir qué tipo de buey de mar saldrá al final de esta carrera?

Regístrate gratis para seguir leyendo

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS