Siri, Alexa, Sophia: ¿por qué asistentes virtuales y humanoides tienen nombre de mujer?
Los expertos advierten de los peligros de feminizar e incluso humanizar a los robots. Las multinacionales argumentan que recurren a voces y cuerpos femeninos para que sean aceptados por la sociedad.
Muchos humanoides hiperrealistas que saltan a la escena resultan ser una estructura de silicona o metal con nariz pequeña y tez blanca. Y habitualmente con pechos. Es decir, una ginoide: una robot de aspecto femenino. Basta con repasar la lista. Por ejemplo, Sophia, inspirada en Audrey Hepburn y la primera robot con ciudadanía, la saudí, ha sido descrita como la perfecta cuidadora de niños y ancianos. ...
Muchos humanoides hiperrealistas que saltan a la escena resultan ser una estructura de silicona o metal con nariz pequeña y tez blanca. Y habitualmente con pechos. Es decir, una ginoide: una robot de aspecto femenino. Basta con repasar la lista. Por ejemplo, Sophia, inspirada en Audrey Hepburn y la primera robot con ciudadanía, la saudí, ha sido descrita como la perfecta cuidadora de niños y ancianos. Ai-Da es la primera artista. Erica, la primera que protagonizará una película. Samantha, la primera humanoide sexual con inteligencia artificial. Siri (Apple), Alexa (Amazon) y Cortana (Microsoft) no tienen corporalidad, pero son féminas. Aunque desde hace un año, tras un aluvión de críticas, estos asistentes virtuales ya están disponibles también con voz neutra o masculina.
Las empresas tecnológicas han lanzado repetidamente sus chatbots, asistentes virtuales y robots con nombres, voces y cuerpos femeninos. ¿Existe una explicación científica detrás de esta decisión o, mientras el mundo avanza en derechos e igualdad, lo conseguido en el mundo real no parece permear en el digital?
El científico Karl Fredric MacDorman, experto en la interacción entre personas y ordenadores, trabajó junto al padre de la robot Erica, Hiroshi Ishiguro, y en 2010 publicó un informe en el que concluía que tanto los hombres como las mujeres preferían voces femeninas en sus asistentes virtuales. Desde entonces, diversas compañías se han basado en ese estudio para argumentar que el género femenino atribuido a sus robots aumenta el uso y venta de sus productos. “Las mujeres han estado tradicionalmente en una posición de crianza y cuidadoras, de responder a preguntas y peticiones, y los laboratorios utilizan esta metáfora porque piensan que así la gente usará más sus sistemas”, explica desde la Universidad de Indianápolis.
Pero para el científico una cosa es lo que dice la ciencia y otra lo que lleva a estas compañías a predeterminar la feminidad de sus máquinas: “La decisión de que Siri, por ejemplo, fuera una mujer se tomó mucho antes de que mi informe se diera a conocer. No creo que las decisiones de algunas compañías se hayan basado en la ciencia. Probablemente haya algo más: la realidad es que hay muchos hombres en el laboratorio”. En concreto, solo el 26% de los puestos de trabajo en el ámbito de los datos y la inteligencia artificial están ocupados por mujeres, según los datos publicados por el Foro Económico Mundial de 2020.
En línea con el informe de MacDorman, un estudio traducido como El bot más humano: el género femenino aumenta la percepción de humanidad de los bots y la aceptación de la IA concluye que inyectar a estos trozos de metal y elastómero sin vida una dosis de feminidad los hace más humanos y, por tanto, aceptables. Según el citado estudio, las cualidades humanas positivas se asocian más a las mujeres que a los hombres: se las imagina amables y cálidas. Según Sylvie Boreau, coordinadora del estudio y profesora de Marketing Ético, los sesgos en la vida real se reproducen en la robótica, pero la razón de fondo “no es solo que la gente vea a las mujeres como sirvientas o simples herramientas, sino el deseo por humanizar estas máquinas. Preferimos interactuar con entidades y personas que percibimos como más fiables”. Aflora entonces un gran dilema ético: al humanizar a la máquina con características femeninas, se puede caer en la cosificación de la mujer.
En una escena de Mad Men —serie ambientada en una agencia publicitaria de los años cincuenta—, una secretaria le dice a otra recién llegada: “Puede que [los jefes] actúen como si quisieran una secretaria, pero la mayoría de las veces buscan algo entre una madre y una camarera”. Eleonore Fournier-Tombs, analista de datos y tecnología en el Instituto de Naciones Unidas, explica, por teléfono, que en tecnología hay dos tipos de sesgos: los que se reproducen porque la inteligencia artificial bebe de textos que ya están estereotipados —y no se filtran— y los que se codifican intencionalmente. Por ejemplo, hasta 2019, cuando alguien lanzaba insultos sexistas contra Siri, esta respondía: “Me sonrojaría si pudiera”. Según Fournier-Tombs, “existe una sobrerrepresentación de hombres jóvenes en programación, y todos estos estereotipos y chistes se codifican”. Esa respuesta sumisa de Siri dio título en 2019 a un informe de la Unesco contra la “sumisión programada” de los asistentes de voz femenina operados por Apple, Amazon y Microsoft. La denuncia empujó a los programadores a erradicar las respuestas dóciles ante el sexismo. Pero el estereotipo continúa en sus nombres, en la voz que suena por defecto o por costumbre y en las respuestas que los sistemas de inteligencia artificial rastrean en un mar digital colmado de estereotipos.
Llegar a casa y ordenar: “Alexa, apaga la luz”, “Dime qué hora es”, “Cállate”. Las personas aprenden sobre comportamientos y normas sociales a través de su interacción con el medio, y según el sociólogo de Harvard Calvin Lei, “las asociaciones de género que las personas adopten de forma inconsciente dependen de la cantidad de veces que estén expuestas a ellas”. No es baladí entonces que un niño o una niña escuchen que las órdenes domésticas van dirigidas a una mujer o que sea una ginoide quien atienda a su abuelo y no un robot masculino. Esa misma robot —que ha sido portada de revistas como Elle y Cosmopolitan— protagoniza una entrevista transmitida por YouTube con Will Smith, para quien el encuentro es algo más que una conversación: es una cita e intenta besarla.
Hay dos escuelas entre quienes tratan de romper con los estereotipos en la inteligencia artificial. Para Boreau es necesario humanizar a las máquinas y, por tanto, el género neutro “no es la solución que prefieren los consumidores”. Su apuesta es una asignación aleatoria del género: “Interactúas con un chatbot en línea y aleatoriamente te asignan femenino o masculino, como en la vida real”. En la posición contraria, la directora de la División para la Igualdad de la Unesco, Saniye Gülser Corat, se lamentó en una entrevista en 2020 con EL PAÍS: “Muchas grandes compañías buscan hacer sus voces aún más humanas, naturales y emotivas. No creo que sea positivo. Solo en algunos casos, como en el cuidado de los mayores, puede ser valioso porque una voz humana les hace sentir mejor. En esas ocasiones es importante indicar que se trata de una máquina”. “Los robots y la inteligencia artificial están como encerrados en sí mismos, no evolucionan con la sociedad”, denuncia Fournier-Tombs. “No sé por qué necesitan un género en particular, sobre todo cuando sabemos que puede ser arriesgado para las mujeres continuar con estos sistemas. Si podemos crear robots que obstaculizan derechos, podemos hacer lo contrario”.
Al final de su encuentro con Will Smith, Sophia lo mira a los ojos y concluye: “No hay razón para asignar motivos humanos a algo que no lo es”. Y añade: “Los perros son nuestra compañía, por ejemplo”.