Vanesa Guerrero, matemática: “Nos hace vulnerables no saber qué hay detrás de la inteligencia artificial”
La investigadora ha sido galardonada con el premio L’Oréal-Unesco For Women in Science por contribuir al desarrollo de algoritmos justos
“¿Es mejor un reloj parado que no funciona en absoluto u otro que se atrasa un minuto cada día?”. Esta adivinanza aparece en la obra del matemático Lewis Carroll cuando el Sombrerero Loco toma el té con Alicia en el País de las Maravillas. También es una de las preguntas que le planteó Vanesa Guerrero (Guadalcanal, Sevilla, 25 años) a ChatGPT de dos maneras distintas. Primero, la inteligencia artificial (IA) elig...
“¿Es mejor un reloj parado que no funciona en absoluto u otro que se atrasa un minuto cada día?”. Esta adivinanza aparece en la obra del matemático Lewis Carroll cuando el Sombrerero Loco toma el té con Alicia en el País de las Maravillas. También es una de las preguntas que le planteó Vanesa Guerrero (Guadalcanal, Sevilla, 25 años) a ChatGPT de dos maneras distintas. Primero, la inteligencia artificial (IA) eligió el reloj que se atrasaba un minuto cada día, pero al reformular la pregunta, la herramienta cambió de opinión.
Esta escena literaria sirvió de ejemplo a Guerrero para explicar que ChatGPT elija una respuesta o la contraria en función de cómo esté formulada la pregunta. Lo mismo ocurre con los modelos matemáticos con los que ella trabaja. “Con mi investigación busco desarrollar herramientas, algoritmos, metodología, modelos, ecuaciones que te permitan, a través de unos datos, tomar decisiones informadas, que sean interpretables y coherentes y que no discriminen”, explica. Guerrero ha sido una de las ganadoras de los premios L’Oréal-Unesco For Women in Science por su labor sobre la equidad algorítmica en datos funcionales. Es doctora en matemáticas por la Universidad de Sevilla y profesora de Estadística en la Universidad Carlos III de Madrid.
Guerrero busca que sus algoritmos “tomen decisiones justas” partiendo de datos funcionales, como son por ejemplo el salario de una persona o su presión arterial. La forma de hacerlo es primero definir qué significa equidad en un contexto y luego escribir la formulación matemática, ver cómo resolverla y cómo aplicarla, según relata. En su día a día, Guerrero lidia con profesionales de otros sectores —como empresas de seguros o bancos— para dar forma a sus ecuaciones y resolver distintos problemas. El abanico de dificultades en su mundo algorítmico es muy amplio: “Muchas veces lo más complicado es el uso del lenguaje en sí, el ser capaz de entender cuáles son las necesidades que existen, incluso dentro de la propia matemática”, admite.
Ecuaciones justas
¿Pueden llegar a ser los algoritmos totalmente justos? Guerrero dice que está trabajando en ello, pero explica que los sesgos son inherentes a los datos. “La inteligencia artificial está reproduciendo aquellos sesgos que están en los datos. Va a ir evolucionando, igual que está evolucionando la sociedad. Igual que ahora hablamos en un lenguaje más inclusivo, que hace 20 años era impensable, de la misma manera va a ocurrir con este tipo de herramientas basadas en la inteligencia artificial”. Tanto en estadística como en los modelos de IA, Guerrero advierte de que la selección de datos es crucial para que “sean representativos de lo que se quiere estudiar”.
En los casos donde ChatGPT ha dado resultados sesgados por género, como por ejemplo, los de predicción de enfermedad, Guerrero propone a los creadores un compromiso con los datos: “Si quieres que tu algoritmo o tu modelo sea preciso a la hora de predecir una enfermedad, pero también que [sea preciso] entre los grupos sensibles que tienes, como hombres y mujeres, tienes que balancear el error total de predicción con el error de los grupos”. Es decir, saber cómo se comporta el algoritmo en un grupo concreto, de manera global y corregir los errores que encuentra entre los “grupos sensibles”. Además, Guerrero también apuesta por la igualdad de género en los equipos tecnológicos: “A día de hoy hay más hombres que mujeres. Hacen falta equipos donde haya hombres, mujeres y personas de distintas religiones. Cada uno ha vivido una cosa que después vuelca en su trabajo”.
El hecho de no controlar las respuestas de la inteligencia artificial supone un riesgo también para el conocimiento en general. Las nuevas generaciones “se van a educar leyendo lo que ChatGPT les devuelve”, señala Guerrero. Dos profesores de Tecnología en A Coruña reconocieron a EL PAÍS en diciembre del año pasado que ChatGPT “es una herramienta valiosísima” que se puede utilizar en las aulas “como un guía o un asesor”. Los profesores hacen hincapié en que los alumnos hagan buenas preguntas a para obtener mejores resultados de la herramienta. Guerrero, como docente, es partidaria de que se use la herramienta, sin embargo, se enfoca en la arquitectura algorítmica: “Hace falta investigación y desarrollar modelos y métodos que hagan la corrección [de sesgos] hasta que no se alcance de manera natural”.
Regular las cajas negras
Otra manera de afrontar los problemas de la inteligencia artificial es con la gobernanza ética de los sistemas. El martes pasado, la Unión Europea aprobó definitivamente la ley de inteligencia artificial, que se aplicará de forma progresiva hasta 2026. La norma establece distintas obligaciones a las aplicaciones de IA en función de los riesgos de su uso. La creación de imágenes o noticias falsas, y la posibilidad de no distinguir entre lo que es real y lo que no lo es, como los llamados deepfakes, son algunas de sus consecuencias. “No hay que parar la evolución de esa tecnología, ni mucho menos, sino valorar los riesgos y regular para que no afecte de mala manera a la sociedad”, matiza.
Guerrero define como “cajas negras” a los modelos de inteligencia artificial creados por las grandes tecnológicas, como OpenAI o Google. Estos dispositivos se caracterizan por su gran almacenamiento y su opacidad. “El no saber qué hay detrás te hace vulnerable, ¿por qué me están diciendo esto? Quizás están usando mis datos privados. Que todas estas herramientas estén en manos de grandes compañías tecnológicas privadas también es un riesgo”. Guerrero cree en la “ciencia abierta”, y en el código abierto, para que todo el que quiera saber, contribuir y desarrollar sobre esa metodología, esté disponible. Y sostiene al respecto: “Hace falta regulación para que no puedan hacer lo que quieran sin pasar por algún control”, afirma Guerrero.
“¿Es mejor un reloj que da la hora exacta una vez cada dos años o un reloj que es puntual dos veces al día?”. En esta ocasión, ChatGPT eligió el reloj parado, y es que aunque puede parecer que un reloj que se atrasa un minuto al día es mejor que uno estropeado, el reloj tardío da la hora exacta una vez cada dos años, mientras que el parado lo hace dos veces al día.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.