Acoso digital sin ley
Las víctimas de pornografía falsa están indefensas, especialmente quienes mantienen contacto diario con los autores y “usuarios” de esas imágenes
La reciente difusión de fotos falsas de desnudos fabricados por inteligencia artificial (IA) con la imagen de una veintena de chicas de entre 11 y 17 años en la población extremeña de Almendralejo ha puesto de manifiesto un fenómeno cada vez más extendido pero pendiente de legislar. El 96% de las imágenes generadas por IA no son revisiones fantásticas de la historia reciente o discursos ficticios capaces de destruir la carrera de un político. Son pornografía no consentida, vídeos cuyos autores han usado herramientas digitales para superponer el rostro de una persona de su entorno sobre contenidos de sexo explícito. El 99% de las veces, la cara superpuesta en el vídeo es la de una mujer. Son sus principales víctimas.
La producción de ese tipo de montajes se ha extendido exponencialmente gracias a la proliferación de modelos generativos de inteligencia digital. Ya no hace falta ser especialista en efectos especiales para encajar la cara de una compañera de clase en el cuerpo de una actriz de cine para adultos. Hasta un estudiante de bachillerato puede generarlos con un móvil o un ordenador personal y una conexión a la Red.
Pese a su naturaleza, el objetivo de este tipo de material no suele ser íntimo sino intimidatorio. La pornografía deepfake es un producto típico de ciertas campañas para expulsar a las mujeres de la esfera pública. Entre sus víctimas recurrentes en Estados Unidos están políticas como Kamala Harris, Nancy Pelosi y Alexandria Ocasio-Cortez. Cuanto más poderosas, más perverso es el contenido. Pero si es dañino para la reputación de una persona famosa, suele ser devastador para una que no lo es. Hay menos presunción de falsedad sobre el origen y más cercanía y contacto cotidiano con los autores y “usuarios”, que difunden el contenido manipulado con la intención deliberada de humillar. Escapar de este tipo de acoso se ha vuelto imposible para las adolescentes.
A día de hoy, no hay una ley específica que proteja a las víctimas de ese tipo de pornografía. La propuesta de exigir a las plataformas de contenido para adultos que eliminen los vídeos que las víctimas señalan como no consentidos se cayó de la Ley de Servicios Digitales que entró en vigor en toda Europa el pasado 25 de agosto. Entre tanto, la Ley de Inteligencia Artificial tendrá que esperar al menos un año. Sin una regulación que persiga delitos hasta ahora inexistentes y que establezca multas y penas apropiadas, la víctima está indefensa. La pornografía no consentida genera un grave impacto psicológico: la pulsión suicida entre las afectadas es de más del 50%. Se trata de un precio que las adolescentes no deberían tener que asumir. Y de un fenómeno que ninguna sociedad debería consentir. A falta de que la educación y la conciencia social hagan su trabajo, el vacío legal debe llenarse cuanto antes.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.