_
_
_
_

Cualquiera puede poner tu cara en un vídeo porno

La inteligencia artificial facilita que se creen vídeos falsos. Por ahora, las víctimas son mujeres que se ven a sí mismas como protagonistas de una película porno que nunca rodaron

Scarlett Johansson en la alfrombra roja de los Oscar el año pasado.
Scarlett Johansson en la alfrombra roja de los Oscar el año pasado. Xinhua/Sipa USA

Scarlett Johansson ya se ha resignado: “Nada puede impedir que alguien corte y pegue mi imagen o la de otra persona en otro cuerpo y haga que se vea tan realista como quiera”, explica en una entrevista en The Washington Post. La actriz habla con conocimiento de causa. Recientemente se han viralizado varios vídeos porno supuestamente protagonizados por ella. Los intereses son claros: aprovechar el morbo que despierta ver a un personaje público manteniendo relaciones sexuales para aumentar las visitas y hacer más dinero. Pero pasan por alto un ínfimo detalle: la persona que aparece en ese vídeo no es Johansson, sino el resultado de utilizar la inteligencia artificial para crear vídeos falsos e increíblemente realistas.

Como toda nueva tendencia, ya tiene su nombre en inglés: deep fakes. Y son el resultado de utilizar la IA para mimetizar la imagen original (el vídeo porno) con la falsificada (la cara de Scarlett Johansson) de forma que la luz se iguale en ambos archivos y se refracte de forma natural. También se utiliza para dar movimiento a las imágenes fijas. Así, se pueden trasladar las expresiones faciales y corporales de una persona a otra, tal y como sucede en este vídeo de Barack Obama que Buzzfeed creó de la nada para demostrar cómo de fácil es hacer decir al expresidente de los Estados Unidos lo que tú quieras.

Por ahora, esta práctica está dañando más a las mujeres. Las caras de actores y otros hombres famosos se insertan en los vídeos falsos como una broma: hay un vídeo que muestra la cara de Nicolas Cage superpuesta a la de Donald Trump durante un discurso. Está el de Barack Obama hablando sobre fake news. Pero los vídeos falsos de mujeres son predominantemente pornográficos, algo que resulta mucho más denigrante y que genera sentimientos de humillación y abuso. "Las falsificaciones son explícitamente detalladas, publicadas en sitios populares de pornografía y cada vez más difíciles de detectar", explican en The Lily.

Uno de los vídeos de Johansson ha sido visto más de 1,5 millones de veces. Pero no es la única a la que le ha pasado. The Lily asegura que la crítica de medios Anita Sarkeesian, que fue atacada por sus críticas feministas de la cultura pop y los videojuegos, fue insertada en un vídeo porno hardcore que se ha visto más de 30.000 veces en Pornhub. Y eso que este portal de vídeos porno prohibió los deep fakes en febrero del año pasado. Supuestamente, Google también sacó esas imágenes de sus resultados de búsqueda. Pero siguen ahí.

Y aunque las famosas sean la diana preferida por el momento, esto es algo que puede pasarle a cualquiera. El programador solo necesita imágenes y vídeos de la víctima que le sirvan de referencia y los puede encontrar fácilmente en cualquier red social que tenga un perfil público. Hay foros sobre deep fakes donde se reúne toda una comunidad de usuarios dispuestos a generar este tipo de contenido.

Por el momento, el vacío legal existente facilita que este contenido prolifere. Y, aunque hay algunas iniciativas privadas orientadas a combatirlo, por el momento no han resultado efectivas. La única opción en la que se está trabajando es en desarrollar un sistema para detectar las imágenes manipuladas. La misma tecnología que facilita la existencia de estos vídeos hiperrealistas pero falsos es la que hace posible que cualquier ciudadano de a pie pueda detectarlos con un smartphone. Varias startups han desarrollado aplicaciones móviles que utilizan algoritmos para averiguar si una fotografía o un vídeo han sido manipulados, como Serelay y Truepic, que utilizan algoritmos que verifican automáticamente las fotos cuando se captan.

Su idea es convertir algún día su tecnología de verificación en un estándar de la industria para las cámaras digitales. Si esto se aplicara a Facebook o Snapchat la repercusión sería mayor. "Una imagen inalterada publicada en las redes sociales podría recibir automáticamente una marca de verificación, como una credencial de verificación de Twitter, lo que indica que coincide con una imagen en su base de datos", explica el MIT.

Más información
Los ‘deepfakes’ complican la lucha contra las noticias falsas
Estas aplicaciones te ayudan a detectar imágenes y vídeos falsos desde tu móvil

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_