_
_
_
_
_

La red se llena de porno ‘deepfake’ de Taylor Swift y muestra el peligro de la IA para las mujeres

La plataforma X, donde las imágenes generadas con inteligencia artificial se han visto millones de veces, asegura que eliminará todos los contenidos falsos

Taylor Swift imágenes porno falsas IA
La cantante Taylor Swift a su llegada a la ceremonia de los Globos de Oro, este enero.ALLISON DINNER (EFE)

Las redes se han llenado de imágenes sexualmente explícitas de una de las personas más influyentes del momento: la cantante estadounidense Taylor Swift. Una vez más, como lleva pasando mucho en los últimos tiempos, no se trataba de fotos reales, sino de desnudos creados con inteligencia artificial (IA), deepfakes porno. Una de las publicaciones más destacadas en la red social X ha llegado a acumular más de 35 millones de visualizaciones, 24.000 reenvíos y cientos de miles de me gusta, antes de que la plataforma interviniera para suspender la cuenta del usuario —verificado— que compartió las imágenes, por violar las políticas de la red. Pero ha circulado durante casi un día, tiempo más que suficiente para volver a encender las alertas sobre el peligro de la proliferación de pornografía falsa generada por IA que ataca a las mujeres. Y sobre el desafío de detener su propagación: Swift estaría estudiando si demandar a la web que primero colgó las imágenes, según el Daily Mail.

Bloquear la cuenta original de X tampoco fue suficiente para zanjar el asunto, ya que otras siguieron con la difusión de las imágenes; algunas de las cuales todavía permanecen activas. El término “Taylor Swift AI” se convirtió en tendencia en algunas regiones, tanto que incluso X ha salido a recordar, a través de un post desde su cuenta oficial, su política de “tolerancia cero” hacia este tipo de contenido. “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos monitoreando de cerca la situación para garantizar que cualquier otra infracción se aborde de inmediato y que el contenido se elimine. Estamos comprometidos a mantener un entorno seguro y respetuoso para todos los usuarios”, dice la publicación.

No es la primera vez que pasa, tanto a celebridades como a mujeres anónimas. Hace unos pocos meses, un grupo de menores en Almendralejo fue víctima de imágenes manipuladas con una aplicación de inteligencia artificial, un caso que tuvo repercusión en España y despertó el interés público sobre los problemas que pueden derivar de esta tecnología. También le pasó a Rosalía, que denunció la publicación de deepfake —un vídeo o una imagen estática donde se sustituye el rostro de la imagen original por el de cualquier otra persona— por parte del cantante JC Reyes. En México, la difusión de cientos de miles de imágenes de las estudiantes provocó una protesta masiva en el Instituto Politécnico Nacional.

En el caso de Taylor Swift, el digital 404 Media apunta a que las imágenes pueden haberse originado en un grupo en Telegram, donde los usuarios comparten imágenes explícitas de mujeres generadas por IA a través de un generador gratuito de Microsoft. El primero en haber difundido los deepfakes en X es un usuario que se esconde detrás de la cuenta @Zvbear, que ha tenido que hacer privada su cuenta con más de 83.000 seguidores después que las swifties —como se les conoce a las seguidoras de la cantante— hayan cargado contra él.

Las fans de la cantante pop han criticado duramente a X por permitir que muchas de las publicaciones permanezcan activas durante tanto tiempo, y han utilizado el hashtag “Taylor Swift IA” para promover clips reales de Swift, sepultando así las falsificaciones explícitas. Según algunos medios estadounidenses, el hombre detrás de @Zvbear es un ciudadano somalí que reside en Canadá de 27 años, conocido por publicar contenido atrevido en plataformas como 4chan, X y Reddit. Estás imágenes también se han difundido en una web dedicada expresamente a la difusión de desnudos de mujeres famosas, en algunos casos imágenes explícitas de películas en las que participaron, pero no para de crecer el volumen de deepfakes porno que ya han afectado a celebridades como Meghan Markle, Megan Fox y Kate Upton.

El fenómeno de la pornificación de las mujeres mediante inteligencia artificial se ha disparado en los últimos meses, pero los hombres no muestran preocupación, según un reciente estudio sobre el estado de los deepfake realizado en Estados Unidos. El 48% de los hombres encuestados allí reconocía haber visto pornografía falsa al menos una vez. De ellos, el 74% afirma no sentirse culpables por consumirla, lo que sugiere que el contenido deepfake se ha convertido en una práctica aceptada y normalizada de las preferencias de entretenimiento para adultos. Además, el 20% de los participantes en la encuesta se había planteado la posibilidad de aprender a crear pornografía con inteligencia artificial para utilizarla con mujeres famosas o de su entorno.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Clara Angela Brascia
Reportera italiana asentada en Madrid desde 2019. Después de pasar por las secciones de Local y Sociedad, ahora escribe reportajes de Tecnología y Salud. En eldiario.es ha escrito sobre temas sociales y económicos. Graduada en Literaturas Comparadas por la Universidad de Turín y Máster de Periodismo UAM-EL PAÍS.
Normas
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_