Columna

Ver para no creer

Cuando la realidad es indistinguible de la ficción, ¿cómo validamos lo que es real?

Un 'deepfake' de Jim Carrey como Jack Nicholson en 'El resplandor'.

Donald Trump anunció la erradicación del sida en el mundo hace un par de semanas. En realidad no fue él, sino un deepfake, un vídeo falseado con herramientas de inteligencia artificial. Una ONG francesa manipuló la imagen y la voz del presidente estadounidense para transmitir un mensaje que jamás salió de su boca. Al final del vídeo, un rótulo indicaba que se trataba de un montaje. A sus responsables les llovieron críticas por haber basado su campaña en un fraude, pero consiguieron millones de visitas en Internet.

Los deepfake, falsedades ultrarrealistas, nacieron apenas h...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Donald Trump anunció la erradicación del sida en el mundo hace un par de semanas. En realidad no fue él, sino un deepfake, un vídeo falseado con herramientas de inteligencia artificial. Una ONG francesa manipuló la imagen y la voz del presidente estadounidense para transmitir un mensaje que jamás salió de su boca. Al final del vídeo, un rótulo indicaba que se trataba de un montaje. A sus responsables les llovieron críticas por haber basado su campaña en un fraude, pero consiguieron millones de visitas en Internet.

Más información

Los deepfake, falsedades ultrarrealistas, nacieron apenas hace dos años. Se basan en la tecnología GAN (Generative Adversarial Networks, en inglés) o redes generativas antagónicas: en una explicación de brocha gorda, hay dos agentes que compiten entre sí. Uno genera contenido e intenta engañar al otro para que piense que es real; el otro discrimina lo que no le resulta creíble. Y así el sistema se va perfeccionando, aprende a crear contenido cada vez más realista.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

No se sabe cómo van a evolucionar estas redes de creación y suplantación. No existen estándares, no hay reglas sobre qué se puede simular y qué no. Unas GAN son buenísimas generando rasgos de personalidad en vídeo, otras imitando inflexiones de voz… En medicina, por ejemplo, se están usando para generar radiografías sintéticas casi indistinguibles de las reales con las que investigar.

El gran negocio con el uso de GAN, por ahora, es la pornografía. Miles de actrices y cantantes americanas, coreanas y británicas se han visto protagonizando vídeos sexuales falsos en Internet. Aterroriza pensar en cómo esta tecnología pueda ser usada por abusones de instituto para humillar a compañeras.

También empiezan a hacerse públicos timos financieros. En marzo, el responsable de una empresa energética en el Reino Unido recibió una llamada de su jefe en la que le pedía que hiciese una transferencia de 200.000 euros a un proveedor húngaro. En realidad la voz que ordenó el trámite había sido generada por ordenador, pero imitaba perfectamente el acento y la cadencia del jefe real. No existía el proveedor húngaro, era un ladrón, según informó The Wall Street Journal.

El Estado de California ha prohibido crear y distribuir vídeos deepfake 60 días antes de unas elecciones. Argumentan que bastante desafección existe ya en el electorado como para que proliferen mensajes falsos. Pero puede quedar en un parche inútil si no se educa a los ciudadanos para que tengan claro de quién se fían y por qué. Como tantos avances tecnológicos, este nos pone en un aprieto filosófico: cuando la realidad es indistinguible de la ficción, ¿cómo validamos lo que es real? Nuestros sentidos pronto nos engañarán, y nos veremos obligados a reflexionar antes de compartir, a contrastar antes de opinar. Tendremos que aprender a verificar lo que nos parecía evidente. @anafuentesf

Sobre la firma

Archivado En