Opinión

El 96% de las imágenes de Inteligencia Artificial son pornografía no consentida: quién jugará con nuestros cuerpos sintéticos

La desinformación política amenaza nuestro sentido de la realidad pero la ciberviolencia de género la consolida.

Rosalía durante su actuación en Coachella.Getty (Getty Images for Coachella)

Cómo nos preocupa el impacto incipiente de sus perfectas imágenes falsas en las conspiraciones sanitarias, procesos electorales, el futuro de la democracia y nuestro sentido colectivo de la realidad. Casi todos los esfuerzos para combatir la desinformación en administraciones, departamentos universitarios y organizaciones especializadas se concentran en dos manifestaciones. Por un lado, los agentes políticos y sus campañas de influencia a través de noticias falsas sobre economía, covid o inmigración. Por otro, las conspiraciones: antivacunas, QAnon, 5G, chemtrails. Sin embargo, el 96% de las i...

Suscríbete para seguir leyendo

Lee sin límites

Cómo nos preocupa el impacto incipiente de sus perfectas imágenes falsas en las conspiraciones sanitarias, procesos electorales, el futuro de la democracia y nuestro sentido colectivo de la realidad. Casi todos los esfuerzos para combatir la desinformación en administraciones, departamentos universitarios y organizaciones especializadas se concentran en dos manifestaciones. Por un lado, los agentes políticos y sus campañas de influencia a través de noticias falsas sobre economía, covid o inmigración. Por otro, las conspiraciones: antivacunas, QAnon, 5G, chemtrails. Sin embargo, el 96% de las imágenes generadas por Inteligencia Artificial son imágenes de pornografía no consentida. El 99% de las víctimas son mujeres. Es tan popular que tiene su propio género: revenge porn.

Técnicamente, no todo es sintético. Antes la pornografía no consentida era a menudo generada de forma voluntaria por al menos un miembro de la relación para ser consumida en privado. Se convierte en revenge porn cuando es distribuida sin permiso fuera del contexto íntimo de la pareja. Los modelos generativos han democratizado el acceso a una nueva clase de intimidad sintética, que se genera sin consentimiento y se produce sin ser detectada, porque no requiere colaboración por parte de la víctima. En ese sentido, se parece más a los sistemas de reconocimiento facial. Ambos se amparan en la opacidad de una plataforma para operar sin ser vistos, despreciando los derechos humanos más básicos. A diferencia del reconocimiento facial, el daño es irreversible. No podemos borrar una imagen de la memoria humana como si fuera una base de datos.

Los especialistas en esa clase de violencia de género dicen que “revenge porn” se queda pequeño. Muchos perpetradores son hombres despechados que buscan venganza contra una pareja, expareja o una mujer que nunca será su pareja. Quieren castigar, acosar, controlar. Otros quieren difamar y humillar a una compañera de trabajo, jefa, candidata política o cualquier profesional que aparezca en los medios para “ponerla en su sitio” y boicotear su carrera. Otros buscan notoriedad y status, sugiriendo una intimidad que no ha ocurrido con alguien famoso. “Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco”, le ha dicho Rosalía al hombre que ha distribuido fotos manipuladas de la cantante. Otros buscan dinero a través de la extorsión. Independientemente de sus motivaciones, todos colaboran con la misma causa: la opresión intolerable de las mujeres.

Las mujeres no son un colectivo, son la mitad de la población. ¿Por qué el discurso de alarma contra los contenidos sintéticos ignora su principal manifestación y a sus principales víctimas? Sophie Maddox, académica especializada en ciberviolencia de género, apunta dos clases de razones. La primera es una mezcla de tabú y discriminación. La pornografía es un tema que las instituciones no quieren tratar. Y el hecho de que afecte de forma casi exclusiva a las mujeres somete el problema a la misma clase de discriminación que las leyes sobre el aborto y la violación o la investigación médica. La segunda es mucho más interesante: “Un deepfake político, como el discurso falso de un político, amenaza la confianza en las instituciones pero la pornografía sintética no supone una amenaza contra la confianza y la verdad porque refuerza la jerarquía preexistente – explica Maddox. – Relegitima la realidad de las mujeres como objetos sexuales y como personas que merecen ser menos creídas que los hombres”. La desinformación política amenaza nuestro sentido de la realidad pero la ciberviolencia de género la consolida.

La pornografía no consentida no es una de las amenazas existenciales que Sam Altman, CEO de OpenAI, incluye en su discurso para incentivar la creación de una Agencia Internacional de Supervisión de la IA. Pero la mayor parte de los contenidos sintéticos se crean usando servicios comerciales como MidJourney o GPT-4, lo que sugiere soluciones disponibles en forma de moderación. En otras palabras, la violencia digital contra las mujeres no es exactamente un problema técnico. Es una estrategia de control.

Archivado En