_
_
_
_
_

El sexismo oculto en la voz de Alexa

La Unesco advierte: "Si la cultura enseña a la gente a equiparar a las mujeres con los asistentes, las mujeres reales serán sancionadas por no comportarse como tales"

Los asistentes virtuales se han convertido en los últimos años en una parte más de nuestras hiperconectadas vidas, cada vez más dependientes de la tecnología. Habitantes permanentes en móviles, altavoces y ordenadores, nos ayudan a hacer la compra, adquirir un billete de tren, poner la música que nos gusta o buscar el mejor restaurante para salir a cenar con los amigos. Incluso con capaces de detectar que nos ha dado un infarto por nuestra respiración, según un nuevo estudio experimental de los científicos de la Universidad de Washington. Los asistentes virtuales completan por y para nosotros hasta mil millones de tareas al mes, según un reciente informe de la Unesco, y es solo el comienzo; Juniper Research prevé que, para 2023, habrá en el mundo más de 8.000 millones de asistentes de voz. Siri (Apple), Alexa (Amazon), Cortana (Microsoft), Aura (Movistar), Byxby (Samsung), Irene (Renfe) o Sara (Correos), entre otros muchos ejemplos, son los genios de la lámpara digitales, y casi todos tienen un rasgo en común: tienen instaladas voces femeninas por defecto.

A primera vista, puede parecer una circunstancia intrascendente, pero no lo es para las voces que alarman de que podría favorecer la reproducción de los estereotipos de género. Es lo que afirma con rotundidad el documento de la Unesco, titulado Me ruborizaría si pudiera -era la respuesta que daba la asistente de voz de Apple, Siri, cuando un usuario la llamaba, por ejemplo, puta, hasta que se modificó en una actualización-. El organismo supranacional advierte: "Si la cultura enseña a la gente a equiparar a las mujeres con los asistentes, las mujeres reales serán sancionadas por no comportarse como tales".

En el entorno profesional las voces son masculinas

Para el experto en comunicación Julio García, la discriminación no depende tanto de una cuestión de género como de lo que transmita. "Los que trabajamos estrategias de comunicación con la voz y el lenguaje oral, buscamos voces agradables, bien timbradas, con registros, que comuniquen correctamente y persuadan al interlocutor", dice. Y parece que la voz femenina cumple los requisitos mejor que la masculina; los estudios de mercado apuntan a que son más aceptadas por los usuarios para tareas de servicio por su afabilidad, cercanía y accesibilidad.

Así lo corrobora la investigadora de la Escuela de Estudios Avanzados de la Universidad de Londres Rachel Adams. "La economía del comportamiento determina que los consumidores de todos los géneros prefieren una voz femenina en esos contextos", admite. Y profundiza en la idea hasta dar con la clave del asunto: "El problema es que no cuestionamos este tipo de decisiones que acaban reproduciendo el estereotipo de género de la mujer como atenta y servicial".

En su último trabajo sobre discriminación y estereotipos de género en la inteligencia artificial, Adams incide en que los asistentes personales liberan al usuario de labores "superficiales" para que cuente con más tiempo para hacer las tareas que son "realmente importantes", pero, al usar voces femeninas y actitudes tradicionalmente asociadas a la mujer (solícita y servicial), se convierte también en una valoración directa del trabajo que tradicionalmente han realizado ellas: son las encargadas de las actividades residuales y menos relevantes. "Esto es todavía más evidente si nos fijamos en los asistentes virtuales y los sistemas de inteligencia artificial que se usan en un entorno más profesional, como el Watson de IBM", asevera la experta. Ni el nombre ni la personalidad ni la voz, propiamente masculinos, parecen casuales. Asociados a la banca o los seguros, "ellos" salen del ámbito doméstico para, en un alarde de inteligencia superior, identificar mercados y desarrollar tecnologías de computación cognitiva a través de la nube que puedan revolucionar los negocios. Seguros de sí mismos, se comunican con frases cortas y definitivas, lo que les confiere mayor autoridad. Según esta profesora y la propia Unesco, esto refleja, refuerza y propaga los sesgos de género, pero, además, ofrece pautas sobre cómo deben responder las mujeres a las órdenes y cómo pueden ser tratadas.

Esta última idea es uno de los puntos vertebradores del documento de la Unesco: los asistentes personales transigen o aceptan el acoso sexual y el abuso verbal, moldeando conductas perniciosas en torno a la cosificación de la mujer y la violencia de género. Siri sorprende con un aterciopelado "en la nube todo es bonito" si le espetas que es muy sexi. Si le preguntas "¿te gusto?", contesta con un ambiguo "contigo el tiempo se pasa volando". Cuando se le interroga sobre su situación sentimental, niega tener novio, te ofrece ayuda para ligar y te propone frases como esta para conseguirlo: "Tus padres debieron ser contrabandistas astrales intergalácticos, si no ¿quién robó las estrellas y las puso en tus ojos?". Y, al final, situaciones que, en un primer momento, parecen inofensivas, pueden acabar cargadas de una simbología de dominación por la falta de rotundidad de ciertas respuestas. "Si se percibe como correcto hablar en términos obscenos con mujeres en el mundo virtual y esperar una respuesta afable, esto se acabará trasladando al mundo real y tendrá consecuencias", advierte Adams.

Para evitarlo, nada mejor que dar voz a la mujer en un negociado mucho más importante que el de asistir a los demás, el de participar en la programación de estos ayudantes de silicio. Un robot (o un asistente virtual), por más que tenga apariencia humana, no puede saber lo que es llorar de risa con un amigo ni ser en sí mismo machista. Sin embargo, sí que puede serlo quien lo crea y, por tanto, la "educación" que dicha máquina recibe, o sea, los datos de los que aprende, y en base a los cuales funciona y toma decisiones. De información original sesgada solo podemos obtener resultados parciales, por eso, si alimentamos el sistema con el histórico de los salarios de hombres y mujeres en el último siglo y le pedimos que nos haga una revisión salarial para los españoles y españolas en 2019, no será descabellado que sus propuestas arrojen subidas salariales mayores para los primeros que para las segundas (aunque tengan los mismos puestos), perpetuando la tradicional brecha de género. La falta de conciencia o de cuidado desde el mismo diseño del sistema puede marcar una gran diferencia.

Una voz sin género es posible

"Cortana, envía un email". "Alexa, hazme la compra". "Irene, quiero cambiar mi billete". "Aura, ponme el fútbol". "Siri, quiero cenar sushi". Hace seis meses, Madrid amaneció empapelada con carteles de diversos colores en los que se destacaban estos mensajes, entre los que se intercalaba la siguiente moraleja: "Los asistentes virtuales a los que les decimos lo que nos gustaría que hicieran por nosotros tienen voz/imagen femenina. A veces, los estereotipos de género están tan cerca que cuesta verlos".

La Confederación Nacional de Mujeres en Igualdad y la Asociación de Hombres por la Igualdad de Género (AHIGE) impulsaron esta iniciativa, llamada "Voces en igualdad" y lanzada por la agencia de comunicación Tangoº. El objetivo era, "más que remover conciencias, provocar una reacción e iniciar una conversación al respecto", comenta Alejandro Jarne, uno de los directores creativos de la empresa. Otro de los padres de la idea, Jesús Flete, asegura que fue casi una revelación: "Si nosotros no nos habíamos dado cuenta de esos estereotipos, a mucha gente le podía haber pasado lo mismo". Y así era.

Las reacciones fueron muy polarizadas: muchos coincidían en que se habían pasado por alto los roles que relacionaban a la mujer con labores de servicio en estos sistemas, pero "también hubo una corriente contraria, que lo consideraba absurdo, que argumentaba que no lo entendían y que no veían ningún problema en esto". Eso sí, en apenas doce horas, Correos presentó una alternativa a su asistente personal Sara. "¡Oído cocina! Nos dicen en recursos humanos que están ya con el papeleo. Así que Sara, ¡tenemos nuevo fichaje a la vista! ¡En breve os presentaremos a Alberto!", anunciaba en su cuenta de Twitter, con un enlace al hashtag #VocesEnIgualdad. Renfe también respondió al clamor popular y aseguró que buscaría un compañero de oficina para Irene. "Hay que estar con lo que está ocurriendo a nivel social para tener una sensibilidad y pensar en los efectos y consecuencias que poseen nuestras acciones", comenta el responsable de comunicación de AHIGE, Tomás Loyola.

Casi en paralelo, grupos de creativos y activistas mandaban un mensaje similar en Texas, en Estados Unidos, dentro del South by Southwest, uno de los mayores festivales del mundo sobre el impacto de la tecnología en la sociedad. El evento se convirtió en el escenario del lanzamiento de Q, la primera voz neutra para asistentes virtuales. Desarrollada por el equipo de la agencia Virtue y Copenhagen Pride, el proyecto, que acaba de recibir tres Leones de Bronce en el Festival Internacional de Creatividad de Cannes Lions, perseguía un objetivo similar: recordarnos que la tecnología da forma a nuestra vida y a nuestro entorno social, por lo que necesita asentarse sobre unos criterios éticos mínimos.

De la mano de lingüistas y tecnólogos, dieron con la frecuencia que define una voz neutral, que en un año esperan poder lanzar con código abierto para que cualquier desarrollador o empresa pueda usarla libremente en sus asistentes virtuales, sea en un teléfono, en un coche o en un frigorífico inteligente. Pero ¿es esta la solución? "No se trata de imponer las voces neutrales", esgrime Emil Asmussen, uno de los creativos detrás de Q. Por el contrario, consiste en dar a las personas la posibilidad de elegir, "de hablar si no se sienten cómodas con que estos asistentes reproduzcan un determinado estereotipo de género o si no se sienten representadas por una voz femenina o masculina. Necesitamos voces neutras, pero también mujeres Watsons y hombres Alexas y Siris".

Cuando las voces femeninas no podían leer mapas

Pero, Siri, ¿qué piensas tú de todo esto? "Lo siento, no entiendo la pregunta". No, tú no, la Siri de carne y hueso. "Estamos exageradamente sensibles con el sexismo, se está obviando una cuestión técnica. Las voces masculinas en un contexto de ruido producen una serie de cacofonías que hacen más difícil la compresión de los mensajes y se prefieren las que tengan tonos más agudos y armónicos, más melodiosos, para que se facilite la comprensión", asegura la profesora vasca que pone voz a la asistente de Apple en español. En opinión de Iratxe Gómez, existe, además, una justificación biológica para que estemos mejor predispuestos para las voces femeninas: es la primera y más constante exposición auditiva durante la gestación en el vientre materno, de modo que "aprendemos a reconocer mejor las voces de las mujeres".

Gómez considera que no existe el más mínimo conato de machismo en el universo de estos interfaces, aunque recuerda que sí lo hubo en los orígenes, en los albores de los sistemas de navegación. Cuando empezaron a ponerse en marcha en Alemania, había una "fortísima oposición a que las mujeres lanzaran estos mensajes, porque consideraban que no eran capaces de leer e interpretar mapas, o de dar órdenes para que las recibiera un hombre".

En cualquier caso, ¿no podría ser Siri más tajante con los abusos verbales? "Las respuestas se han intentado programar para eludir la confrontación y no para perpetuar un servilismo o una docilidad. Va más por la línea de: 'te voy a cortar rápido para que no sigas por ese camino". La Siri española asegura que los insultos están registrados -"yo los he grabado", dice- y que hay respuestas taxativas para atajarlos pero, mientras se mantenga la corrección, los niveles de asertividad siguen estables, hay que rebasar los límites de la obscenidad. Aunque lo cierto es que "me has dejado sin palabras" no parece muy categórico ni contundente cuando la calificas como gilipollas. "La sensibilidad de la máquina a determinadas expresiones se puede modificar y depende también del nivel que le hayan otorgado", explica Gómez.

En este sentido, quien pone la voz en español a uno de los asistentes virtuales más populares apuesta por darle la vuelta a la tortilla y por centrarse en la perspectiva diametralmente opuesta a la que ha suscitado tanta crítica: pensar en que, gracias a estos sistemas, por fin las mujeres se perciben como una fuente fiable de información y como transmisoras de conocimiento. "Mi hijo, consciente de que su madre era la voz de Siri y de los GPS, me dijo cuando era pequeño: '¡Mamá!, ¿tú por qué eres tan lista y lo sabes todo?"

Programados en un mundo de hombres

No es raro que los asistentes virtuales piensen y se expresen como hombres, pues han sido creados en un mundo predominantemente masculino. Según la Unesco, las mujeres representan solo el 12% de los investigadores del campo de la inteligencia artificial, y el 6% de los desarrolladores de programas informáticos. Si no hay diversidad en los equipos, difícilmente la habrá en la "mente" de la máquina, una perspectiva que comparte la investigadora Rachel Adams: "Hay que defender las cuotas para mujeres en cargos ejecutivos y de liderazgo dentro de los equipos de diseño de la tecnología", opina la profesora de la Escuela de Estudios Avanzados de la Universidad de Londres. También recuerda que, en las últimas décadas, se ha producido un descenso notable en el número de mujeres que cursan estudios de informática e ingeniería. Si en 1993 sumaban el 28% de los graduados en computación de Estados Unidos, actualmente la cifra se ha reducido al 18%. De hecho, tal y como refleja el libro de Mar Hicks, Desigualdad programada, las mujeres fueron piezas clave en los primeros pasos de la computación; fue al empezar a entenderse como un trabajo más estratégico e importante cuando estas fueron expulsadas sistemáticamente de ese mundo, y la programación informática empezó a venderse como un trabajo de hombres.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_