La lección de las ‘swifties’: salir a pelear

Las seguidoras de Taylor Swift han enterrado el material pornográfico falso de la cantante inundando las redes de contenidos con los mismos términos de búsqueda de los ‘deepfakes’

Taylor Swift, durante un concierto de su gira 'The Eras Tour' en Buenos Aires.TAS / Getty Images

Técnicamente, la campaña coordinada contra Taylor Swift no debería de ser noticia. El deepfake de famosas existe al menos desde 2017, cuando un foro de Reddit llamado r/deepfakes empezó a inundar la Red de vídeos pornográficos con las caras de Scarlett Johansson y Emma Watson. La razón es evidente: Taylor Swif...

Suscríbete para seguir leyendo

Lee sin límites

Técnicamente, la campaña coordinada contra Taylor Swift no debería de ser noticia. El deepfake de famosas existe al menos desde 2017, cuando un foro de Reddit llamado r/deepfakes empezó a inundar la Red de vídeos pornográficos con las caras de Scarlett Johansson y Emma Watson. La razón es evidente: Taylor Swift ha embrujado a uno de sus ídolos (la estrella del fútbol americano Travis Kelce) y ha sido elegida persona del año en lugar de Sam Altman, padre de ChatGPT. Hasta Scott Galloway, el famoso profesor de marketing y tertuliano tecnológico de 59 años, tuvo una pataleta en el podcast que presenta junto a Kara Swisher, cuando se anunció la decisión de la revista Time.

No hay confusión de identidades. Taylor Swift no necesita demostrar que no es la persona que sale en los vídeos, aunque la inverosimilitud no les impide cumplir su objetivo, que es humillarla y degradar su reputación. Ni siquiera es la primera vez que le pasa. En 2019, el rapero Kanye West lanzó un vídeo musical donde se acostaba con una Taylor de cera a tamaño natural. Y no es la única afectada. El modelo ha sido entrenado con material original de la industria del cine para adultos, lo que significa que el trabajo y el cuerpo de otras actrices han sido plagiados sin pedir consentimiento, dar crédito u ofrecer compensación a las actrices del material original.

En un mundo lleno de pornografía sintética no consentida, lo normal es que esas imágenes existan y que, dada la popularidad planetaria de la artista, alguna de ellas haya recibido 45 millones de visitas en 17 horas hasta ser eliminada de Twitter/X. Ese no es el titular. La verdadera noticia son las swifties que, en lugar de llorar por su ídolo y reclamar a los chicos de la manosfera que le pidan perdón, han lanzado su propia campaña coordinada para enterrar el material pornográfico, inundando la Red de contenidos nombrados y etiquetados con los términos de búsqueda “taylor swift ai” o “taylor swift deepfake”.

La estrategia se llama fake seeding (siembra de archivos falsos) y viene de la época de Napster y las guerras del P2P. Fue la táctica más inteligente de la industria del entretenimiento, cuando empezaron a inundar las redes de pares con archivos falsos, etiquetados como películas, canciones, videojuegos y otros contenidos populares que los usuarios trataban de descargar de manera ilegal. Antes de la banda ancha, las descargas consumían una enorme cantidad de tiempo y de recursos. La segunda vez que el usuario descargaba El señor de los anillos para descubrir que era un manual para montar lavadoras, generalmente abandonaba el proyecto y pagaba 12 euros para verla en el cine. Es la primera vez que las víctimas de una campaña de propaganda misógina responden usando la misma tecnología para defenderse en comunidad. Esa es la noticia que deberían estar contando los medios y explicando los padres, educadores y psicólogos. Tenemos mucho que aprender de Taylor Swift.

Más información

Archivado En