El proyecto que une a gobiernos y empresas para conseguir una IA más ética
El gerente del sector social del Banco Interamericano de Desarrollo, Marcelo Cabrol, habla de fAIr LAC, un proyecto pionero en el que gobiernos y empresas trabajarán en la aplicación de la IA al bienestar de la sociedad
Marcelo Cabrol lleva cerca de seis meses viajando por medio mundo en busca de respuestas. Su jefe, el presidente del Banco Interamericano de Desarrollo (BID), Luis Alberto Moreno, le ha encargado que explore cómo podría ser el futuro de una entidad que se dedica a financiar proyectos en América Latina. La gran pregunta que se ha propuesto responder este economista de origen argentino es: ¿puede la tecnología ser justa y cumplir con la promesa de mejorar las políticas sociales? Para averiguarlo el BID va a lanzar en octubre fAIr LAC, un proyecto pionero donde gobiernos y empresas tecnológicas trabajarán juntos buscando la fórmula que permita a la inteligencia artificial (IA) contribuir al bienestar social.
Cabrol, que antes dirigía la comunicación del banco, habla con pasión sobre la tecnología e insiste mucho en la importancia de la ética. “En la educación, la salud, las políticas de género, de diversidad… se manejan datos muy personales. Por eso tenemos que hablar de ética y de regulación cuando hablamos de IA”, explica. “Al final del día, la tecnología puede llegar a romper el contrato social”.
- P. ¿Qué compañías han dicho ya que sí a participar en fAIr LAC?
- R. Google, Microsoft, NTT y Telefónica, que, de momento, es nuestro único socio europeo. Vamos a juntar datos públicos y privados.
- P. ¿Hay precedentes de algo parecido en el terreno de las políticas sociales?
- R. No, nadie lo ha hecho hasta ahora y, por eso, nos ha llevado tanto tiempo lanzar este programa.
- P. ¿Los gobiernos están de acuerdo en compartir sus datos con estas tecnológicas?
- R. Algunos, sí. Hemos cerrado ya programas con Uruguay y México. En el Estado de Jalisco hay en marcha un proyecto para la detección precoz con IA de la retinopatía diabética, la primera causa de ceguera en el país.
- P. ¿Qué gana una empresa como Google con todo esto?
- R. A nadie se le escapa que no ha sido un buen año y creo que podrían ganar legitimidad. También pueden acceder a conocimiento sobre mercados y poblaciones a las que ahora no llegan. Pero para conseguir las promesas de la inteligencia artificial hay que discutir la parte ética de todo esto.
- P. Pero si la ciudadanía no está muy informada sobre los datos que tienen las compañías…
- R. Si un modelo basado en IA se aplica a programas públicos, la ciudadanía empieza a pedir cuentas. En Argentina, por ejemplo, se hizo un estudio que acertaba con un 75% la probabilidad de un embarazo adolescente. Cuando la sociedad empezó a hacer preguntas, resultó que el modelo estaba basado solo en respuestas de chicas de familias pobres. Estaba muy sesgado y no podía explicar cómo llegaba a sus conclusiones.
- P. ¿Eso no pasa con todos los algoritmos?
- R. Sí, pero hablamos de embarazos adolescentes no de vender un pantalón. Si tú puedes establecer con certeza que una chica se va a quedar embaraza y no tienes políticas para evitarlo, entonces es el gobierno quien tiene un problema ético. Lo mismo ocurre con un modelo capaz de predecir qué alumnos dejarán la escuela. Ahora es cuando viene el cambio: cómo incorporar las soluciones políticas a todos estos problemas.
- P. ¿Son políticas basadas en evidencia?
- R. Son mucho más porque estás operando sobre el resultado antes de que pase. Eso es lo interesante. Para el BID es fundamental ayudar a los países a completar este trabajo y lograr que la inversión en salud y educación sea más equitativa.
- P. ¿Cómo juega el BID ese papel?
- R. Creando evidencia. Necesitamos mucha experimentación. Y eso consiste en que no haya sesgos, que exista transparencia, privacidad en los datos y asegurarnos de que el programa funciona. Nuestra vocación no son los programas piloto sino llevar a escala estas soluciones.
- P. ¿Incluso con la diversidad de Latinoamérica?
- R. Creemos que sí. Es mucho más barato ajustar el modelo que no empezar de cero.
- P. ¿Un ejemplo de proyecto en los que esté pensando el banco?
- R. Queremos implantar el diagnóstico de cáncer de mama por imagen aplicando IA en poblaciones del Amazonas que no tienen acceso a este tipo de servicios. La idea no es nueva, pero tratamos de pensarlo éticamente. Para empezar, ¿quién y dónde guarda la información?
- P. ¿Y la aplicación de IA a la educación en Latinoamérica?
- R. Acabo de estar en Finlandia. Conocemos sus claves de éxito: tienen profesores muy buenos, un aprendizaje personalizado y 8.000 euros de gasto por niño. Nosotros no podemos esperar a tener todo eso. Ojalá, pero no creo que yo viva para verlo. La tecnología permite poder saltar unos cuantos pasos.
- P. Personalizar la educación…
- R. Es la gran promesa por la que estamos apostando. YouTube ya está tomando decisiones por ti cuando te sugiere el próximo vídeo para ver. La idea es utilizar ese mismo enfoque. Si cada chico aprende distinto y tiene habilidades diferentes, con la IA deberíamos poder diseñar contenidos más adaptados.
- P. Esto está muy relacionado con las habilidades para luego buscar trabajo.
- R. Sí, pero además están las cosas que no se ven. Cuando uno rellena un formulario para solicitar empleo, las preguntas no sirven para decirte: “Serías muy bueno en este trabajo”. Pero si complemento esa información con habilidades socioemocionales tendré una fotografía más clara de cuál sería tu próxima profesión y cómo deberías formarte.
- P. ¿Dejar tantas decisiones en manos de la IA es complicado?
- R. Ese es el gran desafío. Hoy la gran crítica que le hacemos a la tecnología es: ¿Quién decide el modelo? ¿Sabemos si están manipulando los resultados? Cuando hablamos de IA nos ponemos en alerta: “Cuidado, aquí viene una tecnología que va a tomar decisiones con un marco moral que nadie conoce ni se explica en ninguna parte”. Es un problema ético y moral también. Por eso estamos pensando en un enfoque interdisciplinar: hacen falta politólogos, antropólogos, sociólogos, filósofos... No es precisamente el perfil de la plantilla del banco.
- P. ¿Piensan integrar estos perfiles profesionales en el banco?
- R. Sí, son los perfiles que estamos buscando. No es que el BID quiera convertirse en el paladín de la ética. Nuestra intención es trabajar con gobiernos y tecnológicas. Es verdad que todas las grandes tecnológicas tienen sus principios éticos. Sin embargo, creemos que es importante mantener una conversación industrial, además de lo que imponga la legislación. Es un proyecto ambicioso, pero necesario.
- P. ¿Qué presupuesto tiene el proyecto fAIr LAC?
- R. Contamos con 15 millones, ampliables a cinco más, y queremos lanzar 20 programas piloto.
- P. Y este enfoque de las políticas, ¿cómo está encajando dentro del BID?
- R. No va a suponer necesariamente un cambio radical, aunque el futuro del banco no va a estar en la financiación. Hoy, el BID presta 13.000 millones de dólares y lo hace muy bien. Podría seguir así, dando créditos para hospitales, escuelas… y todavía tendría negocio. No obstante, mucha de la inversión que hacemos tiene que ver con la capacitación de las personas en estos sectores. ¿Cuáles son las formas no tradicionales de hacerlo? El fAIr LAC nos lo va a decir. ¿Esto ocurrirá mañana? No, pero yo tengo que prepararme.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.