“Los algoritmos reproducen las desigualdades del mundo real”
La profesora de la Universidad de Nueva York Meredith Broussard se rebela contra la supremacía de la tecnología y analiza sus debilidades
Meredith Broussard quería ser programadora. Se matriculó en Ciencias de la Computación en la Universidad de Harvard y era una de las únicas seis mujeres de la promoción, pero “el sexismo” la empujó a cambiar de carrera. Hoy es profesora de Periodismo de la Universidad de Nueva York y autora del libro Artificial Unintelligence, en el que describe los problemas de la tecnología y los sesgos raciales y de género que se esconden tras los algoritmos. Broussard critica que el mundo digital está reproduciendo las mismas desigualdades que la vida real y cree que parte del problema son las matemáticas, disciplina en la que se sustenta la programación, que históricamente ha sido liderada por hombres y que poco se ha preocupado por los problemas sociales.
Su lucha es demostrar que los ordenadores no son más objetivos que las personas ni más imparciales por el hecho de que su funcionamiento se base en preguntas y respuestas gestionadas bajo evaluaciones matemáticas. “Nunca va a haber una innovación tecnológica que nos aparte de los problemas esenciales que arrastra la naturaleza humana, por el simple hecho de que sus diseñadores son humanos”, cuenta a EL PAÍS en conversación telefónica desde Nueva York.
Pregunta. ¿Cuál es el principal mal al que nos conduce la tecnología?
Respuesta. Un día empecé a darme cuenta de que la forma en la que la gente habla de la tecnología no tiene nada que ver con la realidad. Los estadounidenses son demasiado entusiastas con el uso de aplicaciones en todas las facetas de la vida: la contratación de empleados, la conducción, los pagos o la elección de su pareja. Esa fascinación ha derivado en un diseño muy pobre de la tecnología, donde importa mucho la premura y poco los valores. Si intentamos solucionar los grandes problemas sociales usando únicamente la tecnología, cometeremos los mismos errores que han impedido el progreso y la igualdad. Entender esos límites nos ayudará a tomar decisiones más acertadas y ha llegado el momento de que la sociedad abra el debate de hasta dónde tiene que llegar la tecnología.
P. ¿Qué está fallando desde el punto de vista técnico?
R. Los ordenadores son máquinas que funcionan gracias a millones de cálculos matemáticos que no responden a ningún principio universal o natural, son símbolos que han sido creados por personas y que responden a una construcción social. Son el resultado de millones de pequeñas decisiones tomadas por diferentes ingenieros en determinadas empresas. El día a día está inundado de tecnología, pero las personas no han cambiado. Solo porque los gobiernos compartan sus datos en plataformas abiertas no quiere decir que no haya corrupción. Las nuevas empresas ligadas a la economía colaborativa tienen los mismos problemas laborales que se registraban al principio de la era industrial. Es ingenuo pensar que los datos por sí solos van a solucionar los problemas sociales.
P. ¿Podría poner un ejemplo de esa desigualdad que reproduce el mundo digital?
R. Los algoritmos son un buen ejemplo. En 2016, varios periodistas de ProPublica detectaron que uno de los algoritmos que se estaba usando en el sistema judicial estadounidense no era imparcial y perjudicaba a los afroamericanos. La Policía pasaba un cuestionario a todos los detenidos y sus respuestas se introducían en un ordenador. Un algoritmo llamado Compas usaba toda esa información para predecir la probabilidad de que una persona volviera a cometer un crimen en el futuro, asignándole una puntuación.
Esa puntuación se le pasaba a los jueces para ayudarles a tomar decisiones más objetivas y basadas en datos a la hora de emitir sus sentencias. Con un resultado claro: los afroamericanos eran condenados a penas más largas de cárcel que los blancos. Es fácil observar cómo los creadores de ese algoritmo estaban tan cegados por el poder de la tecnología que no recayeron en el daño que podría causar. Si das por hecho que una decisión generada por un ordenador es más justa e imparcial que la de una persona, dejas de cuestionarte la validez de ese sistema. Tenemos que plantearnos si estamos construyendo un mundo mejor o no.
P. Usted abandonó la carrera de Ciencias de la Computación porque no soportaba el sexismo. ¿Qué situaciones tenía que afrontar?
R. Me cansé de lidiar con el sexismo un día tras otro y me matriculé en Periodismo, donde la desigualdad de género no era tan pronunciada. Esa situación apenas ha cambiado. Si miras los puestos más altos entre los matemáticos verás que no hay mujeres, no porque no sean capaces, sino porque hay estructuras de poder que están manteniendo a las mujeres y a los negros fuera del poder en el escenario tecnológico. Tal y como cuento en mi libro, las STEM (siglas en inglés de Ciencia, Tecnología, Ingeniería y Matemáticas) se asocian con una cultura de normas masculinizadas. La figura del científico se asocia con una actitud metódica, objetiva, poco emocional o competitiva, características que se asocian con los hombres. No lo digo yo, lo publicaron los investigadores Shane Bench y Heather Lench en 2015. Las mujeres sienten que no pertenecen a esos contextos.
P. Ese sexismo del que habla, ¿podemos encontrarlo también en los algoritmos?
R. En mi libro hablo de un caso concreto. En 2015 varios medios estadounidenses se hicieron eco de un experimento basado en la ciencia de los datos sobre cómo tomar un buen selfi (en español, autorretrato). Se medían aspectos como si la fotografía estaba enfocada o si se cortaba alguna parte del rostro. El investigador que llevó a cabo el experimento, Andrej Karpathy, que en ese momento era estudiante de doctorado en Stanford y ahora jefe de Inteligencia Artificial de Tesla, no se dio cuenta de que la mayoría de las imágenes consideradas como buenos selfis correspondían a mujeres blancas jóvenes.
Karpathy usó como principal indicador para su algoritmo la popularidad de la foto, el número de likes que había generado en las redes sociales. Esa era la métrica para obtener mejor o peor puntuación. Es un error muy común entre investigadores en el campo de la programación: no tienen en cuenta los valores sociales y los comportamientos humanos que hay detrás de sus estadísticas. Este científico de datos creó un modelo con una importante discriminación; daba prioridad a las mujeres blancas y jóvenes que responden a la definición heteronormativa de mujer atractiva.
P. ¿Cuál cree que es la solución para frenar esos sesgos?
R. Es necesario contratar a más personas expertas porque los sistemas totalmente autónomos no son válidos para lidiar con cuestiones sociales. Necesitamos grupos diversos creando tecnología. Puedes mirar a los que lideran las grandes tecnológicas y averiguar su visión de los temas sociales; simplemente no les importan. Mark Zuckerberg aseguró en su declaración en el Congreso que Facebook desarrollaría herramientas de inteligencia artificial para lidiar con esos problemas, pero han sabido de ellos durante años y no han hecho nada. Manipulación política, racismo… Pueden contratar gente suficiente, no será por dinero.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.