Violencia de género, educación y tecnoculturas
Un análisis de lo ocurrido con los estudiantes del Saint George debe considerar no solo la evidente agresión sexual y misoginia implicadas, sino también los elementos técnicos que les dieron lugar
El reciente caso de los estudiantes del colegio Saint George involucrados en la generación y posterior difusión de imágenes modificadas con inteligencia artificial para hacer aparecer desnudas a sus compañeras (fenómeno conocido como deepfake) ha dado lugar a una serie de debates. Por un lado, se ha relevado la necesidad de contar con tipificación legal para los actos que impliquen la producción de imágenes e información falsa por medios tecnológicos, así como la importancia de comprender lo acontecido como una expresión de violencia de género. Por otro, se ha cuestionado el rol de las escuelas en la prevención de usos maliciosos de la tecnología y en la alfabetización digital.
Creemos que toda discusión acerca de cómo abordar las consecuencias del acelerado desarrollo técnico debe partir de la base de que la tecnología es un producto sociotécnico y, por lo tanto, una práctica cultural. Esto quiere decir que las tecnologías no son elementos autónomos e independientes de sus contextos de producción y uso, mientras que la cultura es también permeable a las posibilidades que ofrece la tecnología. De este modo, sociedad y técnica se van dando forma mutuamente y no están separadas.
Siguiendo esta premisa, un análisis de lo ocurrido con los estudiantes del Saint George debe considerar no solo la evidente agresión sexual y misoginia implicadas, sino también los elementos técnicos que les dieron lugar. Las imágenes en cuestión fueron compartidas en un grupo de la aplicación Telegram, donde había más de 100 participantes. El medio por el cual ocurre el hecho no es irrelevante. Telegram se caracteriza por ofrecer un sentido de anonimato (solo se requiere un número celular para registrarse, luego se pueden adoptar apodos) y facilitar la formación de comunidades cerradas a las cuales usualmente solo se puede acceder por invitación. Estas cualidades de la plataforma pueden favorecer la normalización de prácticas generizadas, específicamente la reafirmación de la masculinidad por medio del ejercicio de violencia contra cuerpos feminizados.
Lo anterior no quiere decir que sea la aplicación la culpable de generar culturas de agresión sexual. Se trata más bien de dar cuenta de que el contexto tecnológico sirvió, en este caso, para la proliferación de problemas ya existentes. La literatura académica ha acuñado el término tecnoculturas tóxicas para referirse a cómo el desarrollo de softwares –como los generadores de deepfakes– acarrea procesos de reproducción de normas de género binarias que se pasan por alto entre las comunidades desarrolladoras. Particularmente, al tratarse de contenido generado artificialmente, resulta más fácil deshumanizar a quien se hace partícipe del deepfake y relativizar el daño que estas tecnologías pueden llegar a causar. De esta forma, las tecnoculturas tóxicas son dependientes de la suma entre una configuración cultural específica y una plataforma.
Entonces, para pensar estrategias educativas que sean capaces de abordar fenómenos complejos como la intersección de tecnologías y culturas opresivas, no basta con la prohibición de los artefactos tecnológicos o la tipificación de castigos ejemplares. Es necesario analizar cómo la red de relaciones implicadas conduce a consecuencias sexistas dañinas y qué otras posibles relaciones podrían existir. En este sentido, la educación sexual integral (ESI) puede educar en la consolidación sana de relaciones sexoafectivas y la prevención de la violencia de género. Además, puesto que la tecnología puede ser –mas no necesariamente es– un agente amplificador del sexismo y la violencia de género, así como de otras formas de injusticia (racista, clasista, capacitista, edadista), también es necesario generar propuestas educativas en torno al cuidado digital. Ahora bien, estas propuestas deben considerar que la literacidad tecnológica no es una habilidad neutra, ya que implica situar prácticas sociales en contextos digitales con miras a la construcción de espacios a base de un mayor bienestar y menor daño. Teniendo en cuenta estas consideraciones, podría ser posible desarticular las estructuras de opresión que permean en el mundo material y digital.
Suscríbase aquí a la newsletter de EL PAÍS Chile y reciba todas las claves informativas de la actualidad del país.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.