_
_
_
_

Gabriela Ramos: “La cuestión no es si se tiene que regular la inteligencia artificial, sino cómo”

La subdirectora general de la Unesco, impulsora de una declaración internacional sobre ética algorítmica, cree que si los medicamentos tienen que pasar estándares de calidad antes de comercializarse, la tecnología, también

Gabriela Ramos
Gabriela Ramos, subdirectora general de la Unesco.Christelle ALIX
Manuel G. Pascual

Gabriela Ramos llegó en 2020 a la Unesco, la agencia de Naciones Unidas para la Educación, la Ciencia y la Cultura, con una misión: debía sacar adelante una especie de Declaración Universal de la Inteligencia Artificial (IA). El documento, que finalmente se llamó Recomendación sobre la Ética en la Inteligencia Artificial, se presentó en 2021 y ha sido firmado por 193 países, aunque solo 24 lo están implementando. De carácter no vinculante, ofrece pautas de actuación en asuntos como la gobernanza de los datos, las tecnologías de espionaje masivo, el abuso de los sesgos cognitivos el control de la neurotecnología. Cuenta, entre otros, con el visto bueno de la Comisión Europea o Japón y de empresas como Microsoft o Telefónica.

La iniciativa de la Unesco corría el peligro de caer en la irrelevancia. Pero entonces llegó ChatGPT. Los temores que despierta esta herramienta propició la publicación hace tres semanas de una carta firmada por miles de expertos en IA que piden una moratoria en el desarrollo de esta tecnología. Ese toque de atención de algunos de los padres de la disciplina ha renovado el interés en el trabajo de la agencia de la ONU. “Ha habido un crecimiento exponencial de consultas de países que quieren reunirse con nosotros. Tenemos conversaciones avanzadas con 18 países. Allí donde nos lo solicitan, desarrollamos una medición del impacto ético de la IA. Ayudamos a hacer diagnósticos, a evaluar los equipos de los gobiernos y a pensar qué tipo de institución tendría que supervisar el desarrollo de estas regulaciones”, explica por videoconferencia Ramos, nacida en Michoacán hace 59 años.

La mexicana cuenta con una extensa carrera como funcionaria internacional, desarrollada principalmente en la OCDE y el G20. Desde 2020 es subdirectora general de Ciencias Sociales y Humanas de la Unesco. “Toda la incertidumbre que rodea a ChatGPT respecto de su impacto y de su desarrollo nos está ayudando a que haya una mayor conciencia sobre un tema clave. Ese es el único lado positivo de todo esto”.

Pregunta. ¿Qué opina de ChatGPT y del boom de la inteligencia artificial generativa?

Respuesta. ChatGPT confirma lo que veníamos diciendo: que hay un crecimiento exponencial de estas tecnologías. Antes estábamos muy preocupados en entender que los algoritmos de machine learning [aprendizaje automático] tuvieran solidez en sus definiciones y en asegurarnos de que los datos que usaban fueran de calidad. Los grandes modelos de lenguaje en los que se apoyan los chatbots hacen aún más difícil entender cómo funcionan. Y yo creo que este es el tema fundamental. Es una pena, porque estamos ante una tecnología espectacular. Pero tiene los mismos problemas que la IA menos masiva: cuando llegan al mercado, no siempre son seguros, confiables ni transparentes. Todos estos desarrollos se dan en un vacío regulatorio en general. Europa está avanzando sus directivas. El propio presidente Biden ya llamó ahora una consulta para ver si se tienen que certificar estos desarrollos antes de que lleguen al mercado. China ha establecido normas para quienes quieran sacar productos basados en esta tecnología.

P. ¿Hace falta regular la IA?

R. Necesitamos un marco que nos permita medir ex ante. Se necesita una evaluación del impacto ético en las libertades, en los derechos, en los resultados inclusivos, y todo eso debe suceder antes de que el producto esté en el mercado. Debe haber ciertos procedimientos que permitan asegurarnos que estos desarrollos estén totalmente probados y que al menos entendemos cuál puede ser su impacto. Pero seguimos en el mundo al revés: primero los sueltas y luego te preguntas cuáles son sus consecuencias. Me parece ridículo tener que estar diciendo que necesitamos regulaciones. Todos los mercados están regulados. Imagínate si las farmacéuticas pudieran comercializar cualquier medicina sin ningún tipo de chequeo. O si pudieras abrir un restaurante y servir comida de la calidad que quieras. El tema no es si va a haber o no va a haber regulación, sino de qué tipo.

P. Miles de expertos firmaron hace tres semanas una carta en la que piden una moratoria en la investigación en IA generativa. ¿Está de acuerdo con ella?

R. Lo que nos confirma esa carta es que no nos sentimos capaces de manejar estos sistemas. Creo que la carta tiene sentido. Todo el mundo ha puesto el énfasis en la pausa, pero lo que se pide también es que no haya más desarrollos antes de que contemos con marcos regulatorios sólidos. En eso ha estado trabajando la Unesco durante los últimos dos años, desde que los 193 países miembros nos aprobaron la Recomendación sobre la Ética en la Inteligencia Artificial. La pregunta que cabe aquí es si los gobiernos cuentan con las competencias, las instituciones y las legislaciones para moderar y para gobernar la IA. La carta de los expertos ha hecho que mucha gente se esté informando más ahora sobre el tema. Que estos señores, que son quienes han desarrollado esta tecnología, digan que se necesita una pausa quiere decir que ni ellos mismos confían en que puedan manejarla. Yo no creo que la moratoria sea una opción realista. Lo que tenemos es que acelerar las regulaciones. Y ahí sí estoy de acuerdo: necesitamos mecanismos de gobernanza de la inteligencia artificial.

Queremos establecer una hoja de ruta sobre cómo entender la IA, cómo enfocar estos desarrollos, cómo prevenir los impactos negativos, cómo definirlos y cómo avanzar regulaciones e instituciones”

P. ¿Qué propone la Recomendación de la Ética en la IA de la Unesco?

R. Decimos que las tecnologías tienen que apuntalar los derechos humanos, tienen que contribuir a la transición climática y ofrecer resultados justos y sólidos. También deben ser transparentes y tiene que haber rendición de cuentas. El 60% de estas tecnologías las desarrollan actores estadounidenses, y otro 20%, empresas chinas. Esta concentración luego deriva en falta de diversidad, en resultados discriminatorios, con sesgos. Todo este modelo de negocio tiene que cambiar.

P. ¿El enfoque de la Unesco es que la IA la regule cada estado o que de ello se encargue algún órgano supranacional?

R. Nuestra Recomendación no es vinculante, pero la han firmado 193 países. Al final son los gobiernos quienes tienen que definir sus marcos regulatorios. Lo que estamos haciendo ahora en la Unesco, a partir de la definición que ya tenemos de los estándares y mejores prácticas, es pensar qué instituciones y regulaciones ayudan a que converjan los países. Estados Unidos, que está considerando regresar a la Unesco, también ha dicho que nuestro debate sobre qué tipo de reglas internacionales deben regir la IA es importante. Cuando alguien ve asaltados sus derechos fundamentales, cuando alguien es discriminado y no le muestran una oferta de trabajo porque la IA no lo tenía en sus bases de datos, cuando la tecnología de reconocimiento facial no te detecta porque eres una persona de color o una mujer, entonces, por muchos acuerdos multilaterales que haya, los gobiernos tienen la responsabilidad de actuar.

Gabriela Ramos, subdirectora general de la Unesco.
Gabriela Ramos, subdirectora general de la Unesco.Christelle ALIX

P. ¿Es realista tratar de impulsar regímenes internacionales para regular una tecnología como la IA?

R. Se están tomando millones de decisiones con el apoyo de la inteligencia artificial sin transparencia alguna. Si eres discriminado, ni siquiera sabes si fue por culpa de una persona o de un algoritmo. A nosotros nos compete dar contexto, y luego los países avanzarán en su propia toma de decisiones. En mis 20 años de experiencia en organismos multilaterales he aprendido que se puede avanzar con evidencia concreta, mostrando cuáles son los pronósticos de ciertos desarrollos y señalando cómo los países que tienen buena regulación no se quedan atrás en la competencia tecnológica.

P. Los tratados de no proliferación de armas nucleares de la Guerra Fría tuvieron sentido porque se implicaron Estados Unidos y la Unión Soviética. ¿Qué sucedería en el caso de la IA si se queda fuera algún actor clave?

R. Cuando yo llegue a la Unesco hace tres años, mucha gente me dijo: ¿de qué sirve que trabajes en un marco ético de la IA si EE UU, que es el principal desarrollador, no es miembro de la Unesco? La recomendación la firmaron 193 países, incluyendo China. EE UU va a tomar nota porque lo que estamos haciendo no es imponer un modelo único, sino crear conciencia. Queremos establecer una hoja de ruta sobre cómo entender la IA, cómo enfocar estos desarrollos, cómo prevenir los impactos negativos, cómo definirlos y cómo avanzar regulaciones e instituciones.

P. En el desarrollo de la IA, el plano geopolítico es importante.

R. Sí, estamos en plena carrera tecnológica. Se está decidiendo ahora qué tipo de tecnología se va a adoptar. Todos los países están adquiriendo paquetes de IA para administrar la educación, la salud o la seguridad. ¿Cómo te aseguras de que entiendan lo que están comprando? Los que son productores de estas tecnologías y tienen interés en que haya un mayor número de usuarios de su tecnología están tomando nota de lo que está sucediendo en materia de regulación. China es parte del consenso de la Unesco. ¿Cumplirá lo acordado? Bueno, lo firmaron, ¿no?

P. ChatGPT, que apenas tiene seis meses de vida, ha colocado la IA generativa entre los grandes temas de actualidad. ¿Cuánto tiempo tenemos para desarrollar mecanismos de gobernanza adecuados para regular esta tecnología?

R. Ya estamos en ello. La Unión Europea ya avanzó suficientemente con sus directivas, con su enfoque basado en riesgos. Es una aproximación distinta a la de la Unesco, pero muy complementaria para analizar qué tipo de desarrollos conllevan mayor riesgo. Yo diría que si las directivas de la Unión Europea estuvieran ya plenamente vigentes, ChatGPT no hubiera entrado al mercado. ¿Por qué? Porque tendría las características de los desarrollos que implican grandes riesgos y que necesitan una atención especial por parte del regulador. Lo que ha sucedido con ChatGPT nos ha hecho darle este sentido de urgencia a lo que ya estábamos haciendo. La recomendación de la Unesco se adoptó entre 2020 y 2021. Las directivas de la UE, entre 2020 y 2022. Vamos bien.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Manuel G. Pascual
Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_