¿Es posible una Alexa feminista?
Tenemos la oportunidad de crear tecnologías basadas en inteligencia artificial, como asistentes virtuales y 'chatbots', que nos ayuden a desafiar estereotipos y transformar dinámicas de poder basadas en el género
Hablar mal al asistente virtual parece una práctica inofensiva. "Es una máquina. Qué más da", razonamos. Si nuestro interlocutor fuese una persona, jamás le trataríamos así, ¿verdad? Nunca responderíamos con el desprecio que regalamos a Alexa cuando se equivoca, al Google Assistant cuando nos sugiere algo que no necesitamos, a Siri cuando no nos entiende. Tres voces de mujer que, además, responden con sumisión a estas agresiones.
"Los asistentes virtuales se caracterizan con frecuencia como mujeres. Una razón para esto es la demanda del mercado; la gente parece preferir que sus asistentes tengan una voz suave, amigable y femenina. Que estos sistemas expresen identidades y rasgos femeninos puede no parecer problemático inicialmente, pero tenemos que considerar las implicaciones de asignar feminidad a bots que trabajan para nosotros como cuidadores y compañeros, con identidades serviles", escribe Rhianon Williams, de Feminist Internet. Su reflexión se enmarca en su balance del proyecto Diseñando una Alexa feminista promovido por este colectivo de artistas y diseñadores en colaboración con University of the Arts London.
Los asistentes virtuales rara vez tienen la habilidad de condenar o reeducar comportamientos misóginos o abusivos
- ¿El humano siempre tiene la razón?
El objetivo del taller era repensar el diseño de estos asistentes, que hoy en día son incapaces de responder a las necesidades de grupos minoritarios o marginados, contestar de forma constructiva al lenguaje abusivo y mantienen su intensa (y cuestionable) asociación con identidades femeninas.
¿Qué pasa cuando tratamos mal a Alexa? Nada. "Los asistentes virtuales rara vez tienen la habilidad de condenar o reeducar comportamientos misóginos o abusivos. Alexa tiene un 'modo de retirada', pero incluso este es representativo de la pasividad femenina y la supresión: sencillamente se esconde si la llaman puta o le piden sexo", señala Williams. Ante preguntas de este estilo, el asistente recula con réplicas como "No voy a responder a eso" o "No sé qué resultado esperabas".
Para reconstruir estas interacciones y convertirlas en un intercambio constructivo, los participantes del taller recopilaron situaciones en las que nuestro asistente virtual podría darnos una lección e imaginaron una nueva generación de tecnologías parlantes capaces de poner en su sitio a los usuarios con actitudes abusivas.
Pillow fue una de estas propuestas. Se trata de una almohada inteligente capaz de monitorizar el sueño y, ahora sí, incapaz de quedarse callada.
—Mis sensores han detectado que anoche tuviste sueño inquieto, ¿quieres algunos consejos para dormir mejor hoy? —pregunta.
—No, que te jodan —responde el usuario.
—Por favor, no digas tacos. No soy un ser humano pero estoy aquí para ayudar. Entiendo que estás cansado pero nadie necesita oír eso.
- Chatbots empáticos
¿Qué diría un hombre blanco heterosexual? Conocer esta respuesta es clave para corregir las carencias de los asistentes actuales, pues este colectivo sigue siendo el más abundante en los equipos encargados de diseñarlos. Pero para cambiar las normas del mercado también es importante conocer las barreras a las que se enfrentan ya los colectivos infrarrepresentados: una señora mayor que vive sola, un joven que tiene problemas para discernir fake news y realidad, una niña que se siente culpable de sus tendencias al bullying, un chico gay que encuentra problemas para desarrollar su sexualidad en un contexto religioso y conservador...
Tenemos la oportunidad de crear tecnologías basadas en inteligencia artificial, como asistentes virtuales y chatbots, que nos ayuden a desafiar estereotipos y transformar dinámicas de poder basadas en el género, y también podemos echar un cable a quienes más lo necesitan. "Estos prototipos aportaron consejos, educación sexual crucial y autoaceptación, aliviaron la soledad y el aislamiento y cumplieron con las necesidades prácticas de un variado grupo de gente que atravesaba experiencias diversas", relata Williams.
La redactora que elaboró esta noticia está ejerciendo su derecho a la huelga. Como acto simbólico, la pieza no tiene firma.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.