_
_
_
_
_

‘Software’ para cazar a quienes discriminan por sexo en Silicon Valley

En Estados Unidos crecen las empresas dedicadas a detectar automáticamente el sesgo por sexo o edad en los procesos de contratación, ascenso o despido de los trabajadores

Karelia Vázquez
Imagen de una entrevista de trabajo.
Imagen de una entrevista de trabajo.Kanjoya

Entre los jefes de recursos humanos de las empresas tecnológicas abundan al menos dos prejuicios: contratar casi siempre a hombres y casi siempre muy jóvenes. En Silicon Valley proliferan las acusaciones, claras o veladas, de sexismo y de ageism, el término anglosajón para definir la discriminación por edad, y los primeros sorprendidos son los directivos que se creían hijos exclusivos de la meritocracia y libres de cualquier otro sesgo que alterara sus decisiones al contratar, promocionar o despedir a un empleado.

Sin embargo, como bien dice Howard Ross, autor del libro Every day Bias: Identifying and Navigating Inconsciuos Judgments in our Daily Lives (Los sesgos de cada día: Un viaje por los juicios inconscientes de nuestra vida diaria): “Si eres humano tienes prejuicios, es algo que ha quedado demostrado en más de mil estudios durante la década pasada”. Según Howard, el impacto de los sesgos inconscientes en la vida laboral es “dramático”.

Al menos para combatir el sesgo de sexo, en Silicon Valley han decidido poner coto a sus propios prejuicios. Y del modo en que mejor saben hacerlo: a través de algoritmos, software y tecnología de geolocalización.

Silicon Valley carga con el sambenito de contratar casi siempre a hombres y a los muy jóvenes.

Las compañías que se dedican a identificar y neutralizar sesgos en entrevistas de trabajo y evaluaciones de empleados están en boga. Trabajan con una tecnología que procesa del lenguaje utilizado y las emociones, y están recibiendo importantes sumas de dinero en rondas de financiación.

Una de ellas, Textio, acaba de reacudar 1,5 millones de dólares (1,35 millones de euros) con la promesa de identificar cualquier sesgo de género en las palabras que se emplean en las ofertas de empleo y en las evaluaciones a empleados antes de una promoción. Gracias a la precisión de su algoritmo, se ha comprobado que si en una oferta incluye la frase “buscamos a un candidato con un historial laboral verificable”, se presentarían más hombres a la convocatoria. En cambio, si se pedía un candidato “con pasión por aprender”, responderían más mujeres. Resulta difícil llegar a esta conclusión si no es a través del cruce de datos e información de un software.

Las compañías que se dedican a identificar y neutralizar sesgos en entrevistas de trabajo y evaluaciones de empleados están en boga

Los empleadores de Silicon Valley han decidido no confiar en su criterio y dejar que un algoritmo corrija sus sesgos inconscientes de género. Por eso compañías como Textio se están convirtiendo en un gran negocio. 

Kanjoya también se dedica a rastrear prejuicios. En esta empresa trabajan con una tecnología “procesadora del lenguaje y de las emociones conscientes” desarrollada durante ocho años en colaboración con lingüistas de la Universidad de Stanford. Según cuenta a EL PAÍS su fundador y director, Armen Berjikly, su algoritmo es tan fino que ha conseguido descubrir que la palabra assertiveness —autoafirmación o firmeza— se usa como en término negativo en las evaluaciones a las mujeres, mientras que cuando se incluye en la evaluación de un hombre no solo se consideraba un atributo positivo, sino que constituye el paso previo a un ascenso. Según explica Berjikly, solo un sesgo inconsciente puede explicar que la misma palabra sea buena para unos y mala para otras.

“La tecnología de Kanjoya no solo analiza las palabras [en sí], también la emoción e intención que hay detrás. Esa información se combina con la decisión que ha sido tomada; es decir, si la persona evaluada ha sido despedida, ascendida o contratada. Dividimos los datos en segmentos de edad, etnia, género, geografía… y se puede ver inmediatamente qué ha representado un éxito para unos y un fracaso para otros. En un mundo ideal, sin sesgos, el lenguaje para justificar un ascenso o un despido deberían ser el mismo para todos. Sin embargo, casi nunca lo es. La gente espera unas cosas de los hombres y otras de las mujeres, y lo interesante es que ni siquiera se dan cuenta. Nuestro producto identifica y mide esos sesgos, y ese es el primer paso para eliminarlos de una empresa. No se puede arreglar lo que no se ha medido”.

Kanjoya, fundada en 2007, ha conseguido una financiación de 20 millones de dólares (18 millones de euros) de varios inversores, entre ellos D. E. Shaw. Entre sus clientes están Twitter y Cisco.

Unitive.works, que probablemente empiece a operar en junio, será otra de las empresas dedicadas a cazar prejuicios escondidos e inconscientes. Su misión es etiquetarlos y ubicarlos geográficamente en tiempo real, como una especie de Google Maps de los sesgos. Su tecnología se concentra en los procesos de reclutamiento y contratación de personal, y tiene la capacidad de interrumpir el sesgo en el mismo momento en que aparece. Por ejemplo, en una entrevista de trabajo o en la redacción de una oferta de empleo.

Según el diario The Wall Street Journal, el 20% de las grandes empresas estadounidenses está entrenando a sus empleados en la identificación de este tipo de prejuicios y en los próximos cinco años podrían hacerlo el 50%. Google es una de las compañías que ha decidido corregir sus prejuicios de puertas para adentro, usando un programa de entrenamiento interno para que sus empleados sean más conscientes de sus sesgos de género, edad o nacionalidad.

Sin embargo, algunos consultores no creen que esta estrategia funcione. Joelle Emerson, directora y fundadora de Paradigm, una consultora estratégica que trabaja con las empresas para que eliminen sus “sesgos estructurales”, no recomienda que las compañías traten de identificar sus prejuicios por su cuenta. “Después de todo, por algo son inconscientes”, cuestionan. Armen Berjikly tampoco lo ve viable. “La tecnología para hacerlo resulta difícil de construir. A nosotros nos llevó ocho años diseñar modelos perfectos y precisos para medir emociones. Por otra parte, es complicado hacer una revisión independiente de los sesgos por las mismas personas que están expuestas o han sido afectadas o favorecidas por ellos”. Según cuenta el fundador de Kanjoya, en las empresas en que han identificado prejuicios contra las mujeres los propios empleados se lo han acabado agradeciendo. El motivo: llevaban tiempo sospechando de ciertas conductas pero no se las tomaban en serio “por falta de datos” y “por falta de independencia”. “Nosotros le hemos proporcionado ambas cosas”, afirma Berjikly.

Cree, al igual que muchos en Silicon Valley que no hay religión más allá de la tecnología. “No hay nada más fiable que la tecnología, porque en sí misma ya es independiente respecto a mide; no tiene sesgos, no tiene agenda, no tiene intereses políticos, y siempre puede ser mejorada”.

“Todos queremos trabajar en un ambiente justo donde seamos evaluados por cosas que se pueden controlar, y no por estereotipos. Si en una compañía se usa una tecnología como la de Kamjoya la gente no tendrá que creer que está imaginando cosas y solo asumirá los hechos constrastados”. Así explica Armen Berjikly el éxito de los programas que miden y neutralizan los sesgos inconscientes. También le sirve el argumento de la llegada de los millenials, la generación más diversa de Estados Unidos, al mercado laboral.

Se necesitan más algoritmos 'cazaprejuicios'

Esto de cazar sesgos de género con un algoritmo no es en absoluto una excentricidad de los techies de California. El propio Berjikly rastrea los resultados de una encuesta realizada por PWC a casi 5.000 jóvenes que acababan de incorporarse al mercado laboral de 75 países, entre ellos España. El 29% de las chicas dijeron que sentían que sus jefes estaban muy sesgados a favor de lo hombres cuando tenían que hacer promociones internas, mientras el 46% de los chicos consideró que los ascensos se realizaban en condiciones de igualdad. El 61% de los hombres entrevistados creían que podían llegar a lo más alto de la empresa, algo que solo le pasaba por la cabeza al 50% de las mujeres. En la encuesta los empleadores brasileños fueron vistos como los menos prejuiciados y los españoles fueron considerados los más sesgados a favor de los hombres. Esta última línea me la entrega Berjikly subrayada y en negritas: "Se necesitan algoritmos cazaprejuicios más allá de Silicon Valley".

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Karelia Vázquez
Escribe desde 2002 en El País Semanal, el suplemento Ideas y la secciones de Tecnología y Salud. Ganadora de una beca internacional J.S. Knigt de la Universidad de Stanford para investigar los nexos entre tecnología y filosofía y los cambios sociales que genera internet. Autora del ensayo 'Aquí sí hay brotes verdes: Españoles en Palo Alto'.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_