Acoso digital sin ley

Las víctimas de pornografía falsa están indefensas, especialmente quienes mantienen contacto diario con los autores y “usuarios” de esas imágenes

Mensaje publicado en Instagram sobre la difusión de las fotografías de menores en Almendralejo creadas con inteligencia artificial.ROBERTO PALOMO

La reciente difusión de fotos falsas de desnudos fabricados por inteligencia artificial (IA) con la imagen de una veintena de chicas de entre 11 y 17 años en la población extremeña de Almendralejo ha puesto de manifiesto un fenómeno cada vez más extendido pero pendiente de legislar. El 96% de las imágenes generadas por IA no son revisiones fantásticas de la historia reciente o discursos ficticios capaces de destruir la...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

La reciente difusión de fotos falsas de desnudos fabricados por inteligencia artificial (IA) con la imagen de una veintena de chicas de entre 11 y 17 años en la población extremeña de Almendralejo ha puesto de manifiesto un fenómeno cada vez más extendido pero pendiente de legislar. El 96% de las imágenes generadas por IA no son revisiones fantásticas de la historia reciente o discursos ficticios capaces de destruir la carrera de un político. Son pornografía no consentida, vídeos cuyos autores han usado herramientas digitales para superponer el rostro de una persona de su entorno sobre contenidos de sexo explícito. El 99% de las veces, la cara superpuesta en el vídeo es la de una mujer. Son sus principales víctimas.

La producción de ese tipo de montajes se ha extendido exponencialmente gracias a la proliferación de modelos generativos de inteligencia digital. Ya no hace falta ser especialista en efectos especiales para encajar la cara de una compañera de clase en el cuerpo de una actriz de cine para adultos. Hasta un estudiante de bachillerato puede generarlos con un móvil o un ordenador personal y una conexión a la Red.

Pese a su naturaleza, el objetivo de este tipo de material no suele ser íntimo sino intimidatorio. La pornografía deepfake es un producto típico de ciertas campañas para expulsar a las mujeres de la esfera pública. Entre sus víctimas recurrentes en Estados Unidos están políticas como Kamala Harris, Nancy Pelosi y Alexandria Ocasio-Cortez. Cuanto más poderosas, más perverso es el contenido. Pero si es dañino para la reputación de una persona famosa, suele ser devastador para una que no lo es. Hay menos presunción de falsedad sobre el origen y más cercanía y contacto cotidiano con los autores y “usuarios”, que difunden el contenido manipulado con la intención deliberada de humillar. Escapar de este tipo de acoso se ha vuelto imposible para las adolescentes.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

A día de hoy, no hay una ley específica que proteja a las víctimas de ese tipo de pornografía. La propuesta de exigir a las plataformas de contenido para adultos que eliminen los vídeos que las víctimas señalan como no consentidos se cayó de la Ley de Servicios Digitales que entró en vigor en toda Europa el pasado 25 de agosto. Entre tanto, la Ley de Inteligencia Artificial tendrá que esperar al menos un año. Sin una regulación que persiga delitos hasta ahora inexistentes y que establezca multas y penas apropiadas, la víctima está indefensa. La pornografía no consentida genera un grave impacto psicológico: la pulsión suicida entre las afectadas es de más del 50%. Se trata de un precio que las adolescentes no deberían tener que asumir. Y de un fenómeno que ninguna sociedad debería consentir. A falta de que la educación y la conciencia social hagan su trabajo, el vacío legal debe llenarse cuanto antes.

Más información

Archivado En