Todo comenzó con la pornografía
'Deepfake' es otra nueva y potente arma en el arsenal que tienen a su disposición los mercaderes de la mentira
A finales del año pasado comenzaron a circular por Internet vídeos pornográficos cuyas principales protagonistas eran algunas de las actrices y cantantes más famosas de estos tiempos. Naturalmente, los vídeos se hicieron virales y fueron vistos por millones de personas en todo el mundo. A los pocos días se supo que Scarlett Johansson, Taylor Swift, Katy Perry y otras artistas de renombre no eran las verdaderas protagonistas de estos vídeos, sino las víctimas de una nueva tecnología que, utilizando inteligencia artificial y otros avanzados instrumentos digitales, permite insertar la imagen facial de cualquier persona en un vídeo.
Ese fue solo el comienzo. Muy pronto Angela Merkel, Donald Trump y Mauricio Macri también fueron víctimas de lo que se conoce como deepfake o falsificación profunda. Barack Obama fue utilizado, sin su consentimiento, para ejemplificar los posibles usos nefastos de esta tecnología. Vemos a Obama diciendo en un discurso lo que el falsificador quería que él dijera, y que el expresidente jamás había dicho. Pero el resultado es un vídeo muy real.
La manipulación de imágenes no es nada nuevo. Los gobiernos autoritarios tienen un largo historial haciendo “desaparecer” de las fotos oficiales a líderes caídos en desgracia. Y ya desde 1990 Photoshop permite al usuario alterar fotografías digitales.
Pero deepfake es diferente. Y mucho más peligroso. Diferente porque, desde que circularon los vídeos falsos de las actrices hasta hoy, esa tecnología ha mejorado muchísimo. La imagen corporal y la expresión de la cara son hiperrealistas y la imitación de la voz y la gestualidad de la persona son tan exactas que resulta imposible descubrir que es una falsificación, a menos que se cuente con sofisticados programas de verificación digital. Y el peligro de deepfake es que esta tecnología está al alcance de cualquier persona.
Un exnovio despechado y psicópata puede producir y diseminar anónimamente por las redes sociales un vídeo que imite perfectamente la voz, los gestos y la cara de la mujer que lo dejó y en el cual ella aparece haciendo o diciendo las más vergonzosas barbaridades. Las imágenes de policías propinando una brutal paliza a una anciana que participa en una protesta antigubernamental puede provocar violentos enfrentamientos entre los manifestantes y los agentes policiales. El respetado líder de un grupo racial o religioso puede instigar a sus seguidores a atacar a miembros de otra raza o religión. Algunos estudiantes pueden producir un comprometedor vídeo de un profesor a quien repudian. Extorsionadores digitales pueden amenazar a una empresa con divulgar un vídeo que dañará su reputación si la empresa no paga lo que le piden.
Los posibles usos de deepfake en la política, la economía o las relaciones internacionales son tan variados como siniestros. La divulgación de un vídeo mostrando a un candidato a la presidencia de un país diciendo o haciendo cosas reprobables poco antes de los comicios se volverá una artimaña electoral más comúnmente usada. Aunque el rival de este candidato no haya aprobado el uso de este indecente truco, sus seguidores más radicales pueden producir el vídeo y distribuirlo sin pedirle permiso a nadie.
El potencial de los vídeos falsificados para enturbiar las relaciones entre países y exacerbar los conflictos internacionales también es enorme.
Y esto no es hipotético; ya ha ocurrido. El año pasado el emir de Qatar, Tamim bin Hamad al-Thani, apareció en un vídeo elogiando y apoyando a Hamás, Hezbolá, a los Hermanos Musulmanes y a Irán. Esto provocó una furibunda reacción de Arabia Saudí, los Emiratos Árabes Unidos, Bahréin y Egipto, que ya venían teniendo fuertes fricciones con Qatar. Denunciaron el discurso del emir como un apoyo al terrorismo y rompieron relaciones diplomáticas, cerraron las fronteras y le impusieron un bloqueo de aire, mar y tierra. La realidad, sin embargo, es que el emir de Qatar nunca dio ese discurso; el vídeo que escaló el conflicto era falso. Lo que es muy real es el boicot que sigue vigente.
La amenaza que constituye deepfake para la armonía social, la democracia y la seguridad internacional es obvia. Los antídotos contra esta amenaza lo son mucho menos, aunque hay algunas propuestas. Todas las organizaciones que producen o distribuyen fotografías o vídeos deben obligarse a usar bloqueos tecnológicos que hagan que su material visual sea inalterable. Las personas también deben tener acceso a tecnologías que los protejan de ser víctimas de deepfakes. Las leyes deben adaptarse para que quienes difamen o causen daños a otros a través del uso de estas tecnologías tengan que responder ante la justicia. Hay que hacer más difícil el uso del anonimato en la red. Todo esto es necesario, pero insuficiente. Habrá que hacer mucho más.
Hemos entrado en una era en que la capacidad para diferenciar la verdad de la mentira, los hechos de las falsedades, se ha ido erosionando. Y con ello la confianza en las instituciones y en la democracia. Deepfake es otra nueva y potente arma en el arsenal que tienen a su disposición los mercaderes de la mentira. Hay que enfrentarlos.
@moisesnaim
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.