Cuando la IA se pone del lado del desarrollo sostenible: “La tecnología no nos salvará, pero puede ayudar”
Decenas de proyectos latinoamericanos se benefician de la cara más amable de este tipo de herramientas para acercar sus países a los ODS
EL PAÍS ofrece en abierto la sección América Futura por su aporte informativo diario y global sobre desarrollo sostenible. Si quieres apoyar nuestro periodismo, suscríbete aquí.
Cuando Helena Suárez Val pensó en darle forma a una metodología creada con IA capaz de facilitar el trabajo de las activistas feministas, se lo pensó dos veces. “¿Puede una herramienta como esta ser feminista?”, se cuestionó. “Tenía muchos miedos, pero si no lo hacemos nosotras estará sólo en manos de otros, con intereses muy diferentes”, zanjó en su cabeza. Así nació Datos Contra Feminicidio, un resaltador de datos relevantes para la documentación de feminicidios en el mundo. Gracias a este plug-in, el nombre de la víctima, la fecha, el lugar y si hubo denuncias previas o no serán más fáciles de encontrar en una noticia. Este trabajo que activistas como ella llevan años haciendo a cuentagotas será ahora algo más fácil. Diana Mosquera, cofundadora de Diversa, una plataforma que trabaja con imágenes satelitales del pueblo yaqui, en México, también se cuestionó si la IA podría impulsar su lucha por la soberanía hídrica. Ambas llegaron a la misma conclusión: “La tecnología no nos va a salvar, pero puede ayudar”.
Un bot para orientar a las familias de personas desaparecidas, una tecnología para acercar a las personas al mundo digital, un chatbox para conversar con mujeres víctimas de violencia machista en momentos críticos y que sirva de registro frente a una futura denuncia. Cada vez son más los proyectos de desarrollo sostenible y justicia social que convierten a la inteligencia artificial en un aliado de la Agenda 2030. Paloma Lara-Castro, directora de políticas pública de Derechos Digitales, tiene claro que es posible: “Podemos generar IA que responda a las necesidades de las comunidades y, por ende, esté a su servicio y no a las lógicas del norte global y de visiones machistas”. “Para nosotras este tipo de aplicaciones son más responsables porque trabajan sobre una demanda base, no como plataformas como ChatGpt, que nadie las pidió”, explica Suárez Val.
La investigadora en Inteligencia Artificial en Diversa, una ONG basada en Quito, Ecuador, insiste en que existe mucho “desconocimiento” alrededor de esta tecnología. “No sólo en Latinoamérica, sino en el norte global, que es donde se produce principalmente. Para tener los algoritmos y herramientas que usamos actualmente, existe una cadena de valor invisibilizada detrás, que es sustentada por los países del sur global, los cuales entregan recursos naturales y mano de obra a bajo precio. Acá nos estamos enfrentando a un montón de preguntas. Por ejemplo, si es necesario construir un modelo de lenguaje con nuestros propios datos y contexto latinoamericano y para qué”. Todas esas preguntas de las que habla, narra, fueron respondidas de a poco con las personas del pueblo yaqui, ubicado en Sonora.
Esta comunidad lleva dos siglos resistiendo en un territorio del que la han intentado expulsar mil y una veces. En ocasiones con bombardeos, con masacres, con deportaciones masivas y extorsiones. Actualmente, siguen resistiendo a pies del Río Yaque, sin apenas acceso a los recursos hídricos. “No tiene sentido llegar y querer solucionar como nosotros pensamos”, narra por teléfono. “Parte de lo que hacemos es crear soluciones de IA centradas en el ser humano y el medio ambiente que se adapten al contexto y el derecho de las comunidades. Sin eso, todo pierde sentido”.
Así, codiseñaron varias fases del proceso. Primero, se volcaron a estudiar la red hidrográfica del Río Yaqui, que mide unos 320 kilómetros, y en hablar con las comunidades para entender qué necesitaban ellos de la tecnología. Por otro lado, se recolectaron imágenes históricas satelitales abiertas y se compartieron con los líderes de la comunidad, quienes no habían visualizado todos estos datos antes. La IA entró entonces en la tercera fase: en la de segmentación y reconocimiento del territorio. “Nos daba a detalle la información de lo que veíamos y de cómo se había ido modificando el suelo con los años. Sabemos en qué fechas ha habido más o menos agua, cuándo ha habido menos vegetación o sequía…”, explica. “Esto es importantísimo porque permitirá que las autoridades ambientales focalicen esfuerzos”.
Por último, facilitaron una base de datos (apoyada también con IA) en la que constaba toda la legislación mexicana que concierne a los pueblos originarios y los recursos hídricos. “Como sabemos que no todos tienen acceso a internet, lo hicimos para que descargarlo sea muy sencillo. A eso es a lo que nos referimos cuando hablamos de que ellos codiseñan los proyectos”, zanja.
Estos pasos fueron similares a los que tomaron en Datos contra Feminicidios. El primer paso fue conversar con las activistas, decidir de qué forma querían estandarizar la información recolectada y, por último, crear un resaltador de datos que en ninguna circunstancia suplantara el trabajo de ellas. “La idea era reducir el desgaste emocional de quienes trabajamos en esto”, explica Suárez Val. El objetivo más ambicioso es calar en los medios de comunicación. “Estamos trabajando en una tecnología que identifique cuándo es una noticia sensacionalista o más respetuosa. Y ya existen muchas guías internacionales de buenas prácticas para periodistas, haremos que la IA aprenda en base a eso”, dice. “Queremos explorar las posibilidades de que la tecnología mejore este tipo de coberturas”.
Como explica Mosquera, su intención es “darle la vuelta” a esta tecnología. “Entrenar un algoritmo nos va a costar un montón, pero creo que hay maneras de hackearlos. En la mayoría de cosas que hacemos, usamos datos y modelos abiertos. Esto significa que puedes acceder al código fuente y ver cómo fue entrenado, e incluso modificarlo. Y eso es una oportunidad gigante”. “La IA puede tener una potencialidad positiva cuando se busca la reapropiación de nuestros saberes y comunidades”, concluye Lara-Castro.