Carme Artigas: “El progreso tecnológico no puede llevarse por delante derechos fundamentales”
La secretaria de Estado de Digitalización se muestra convencida de que el reglamento europeo de la inteligencia artificial podrá ser aprobado durante la presidencia española de la UE
La presidencia española de la UE ha conferido a la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la batuta de directora de orquesta en la fase final de las negociaciones del esperado reglamento europeo de la inteligencia artificial (AI Act). La norma ordenará los usos y excepciones de esta tecnología con un enfoque basado en los riesgos que representa para a la ciudadanía cada una de ellas. A mayor riesgo, más medid...
La presidencia española de la UE ha conferido a la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la batuta de directora de orquesta en la fase final de las negociaciones del esperado reglamento europeo de la inteligencia artificial (AI Act). La norma ordenará los usos y excepciones de esta tecnología con un enfoque basado en los riesgos que representa para a la ciudadanía cada una de ellas. A mayor riesgo, más medidas de control para la aplicación o hasta su prohibición. Entran en esta última categoría, por el momento, los sistemas de inteligencia artificial (IA) que “manipulen”, los que sirvan para la clasificación social o los de identificación biométrica remotos o en tiempo real.
Las discusiones entre los representantes del Parlamento Europeo, partidario de limitar al máximo las posibles aplicaciones oscuras de la IA; los Estados miembros, que quieren poder recurrir a estas en caso de urgencia, y la Comisión, están haciendo de estas negociaciones un trámite lento y delicado. “Confío en que podremos aprobar el reglamento durante esta presidencia [acaba el 31 de diciembre]”, dice la secretaria de Estado.
Nacida en Vilassar de Mar hace 55 años, Artigas fue nombrada hace dos semanas copresidenta de un consejo internacional de expertos de Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA. Su compañero al frente de ese grupo es James Manyika, vicepresidente de Google, una señal clara de que la industria está muy presente en la discusión. La secretaria de Estado recibe a EL PAÍS antes de volar a Londres a la Cumbre sobre Seguridad de la IA, en la que 28 países, entre ellos EE UU y China, acordaron cooperar para afrontar los riesgos de esta tecnología.
Pregunta. ¿Cuál es su responsabilidad en el nuevo consejo asesor de la ONU?
Respuesta. Nuestro cometido es analizar las oportunidades, los riesgos y el impacto que supone la IA para la sociedad y diseñar un mecanismo de gobernanza internacional para esa tecnología. Es un toque de atención sobre la importancia de regular la IA: esto se tiene que coordinar internacionalmente y se debe involucrar al sur global. Para diciembre tenemos que haber elaborado unas primeras conclusiones, que presentaremos en Nueva York. Creo que es una oportunidad única para influenciar el proceso desde la visión que tenemos en España del humanismo tecnológico y desde el enfoque europeo, basado en la protección de derechos.
P. ¿Cómo cree que debería ser ese mecanismo de gobernanza de la IA?
R. Hay muchos modelos, como el Organismo Internacional de la Energía Atómica o el Grupo Intergubernamental para el Cambio Climático [IPCC por sus siglas en inglés], en el que primero llegas a consensos científicos y después intentas que haya una respuesta de los Estados. Hay que pensar que en torno a la IA hay muchos puntos de vista distintos: la visión que se tiene en China no es la misma que la de Estados Unidos, y esta tampoco es igual a la de Europa. Ahora mismo hay muchos foros internacionales sobre este tema. Es el momento de unificarlos, de sumar fuerzas con la industria.
P. La ONU le ha dado mucha importancia a la crisis climática y, sin embargo, el problema dista de estar solucionado. ¿Por qué tendría que ser distinto con la IA?
R. Justamente he tenido una conversación con el copresidente sobre cómo hacíamos que nuestro trabajo no se quede en una serie de recomendaciones teóricas. Vamos a intentar aprender de las mejores prácticas. El IPCC es un buen punto de partida, pero necesita mejoras. Estamos buscando un mecanismo que no sea tan complejo de mantener como una agencia internacional y que tenga contacto con la Academia, porque la IA está evolucionando muy rápido.
P. ¿Cómo se puede plantear una respuesta coordinada de los países y la industria si sus intereses a menudo colisionan?
R. Estados Unidos tenía su modelo de apoyo sin límites al desarrollo de su industria. China, también. La europea era la tercera vía: creemos que el progreso tecnológico no puede llevarse por delante derechos fundamentales. Al principio nadie nos hacía caso, pero la emergencia de ChatGPT ha permitido que en otras latitudes y en la propia industria se empezasen a dar cuenta de que esta tecnología, en manos de los malos, puede tener efectos negativos. EE UU acaba de anunciar su orden ejecutiva. En Europa, pensamos que tenemos que ir más allá, queremos que la propia tecnología sea más transparente, más justa. En China, contra lo que se pueda pensar, están muy preocupados en poner límites, por ejemplo, a los deepfakes. Algunos no han tomado conciencia hasta 2023. Otros ya veníamos trabajando en ellos desde 2020. Justamente por eso, ahora es el momento en sumar esas visiones.
P. ¿El reglamento de IA es la forma de abordar este problema?
R. Estamos convencidos de que sí. Nadie está planteando como nosotros un enfoque basado en el impacto de esta tecnología en los derechos fundamentales, en los usos prohibidos de la IA. Más que poner en marcha un reglamento o un estándar legal o técnico, estamos desarrollando un estándar moral. Le decimos al mundo lo que va a ser aceptable o no hacer con la IA. Por ejemplo, tengo que saber si algo está generado por IA generativa.
P. ¿Han acordado ya qué casos serán los prohibidos y cuáles de alto riesgo?
R. Ese es quizás el punto más importante del debate que estamos teniendo. Debemos decidir qué requisitos le pedimos a los sistemas de alto riesgo [los que están permitidos pero muy limitados] y qué requisitos de transparencia le pedimos a los modelos fundacionales [en los que se apoya la IA generativa, como ChatGPT]. El Parlamento Europeo ha querido ampliar el control de la norma también hasta la IA generativa, algo que inicialmente no estaba previsto. No regulamos tecnologías, sino casos de uso. Un martillo puede clavar un clavo o matar a alguien. De lo que hay que asegurarse es de que si pasa lo segundo, el responsable vaya a la cárcel.
P. Al ocupar la presidencia de la UE, España está dirigiendo las negociaciones entre Comisión, Consejo y Parlamento. ¿Marchan bien?
R. Estamos acercando muchas posiciones. Hemos definido muy bien lo que son los sistemas de alto riesgo y empezamos a trabajar en este debate sobre qué son los usos prohibidos. El Parlamento dio una lista que nosotros vemos excesiva y que en algunos casos podrían ir en contra de la seguridad nacional de los Estados. Estamos ahora definiendo qué garantías extraordinarias establecemos para que no pueda existir, por ejemplo, un abuso de poder por parte de un Estado en la utilización de esas tecnologías. Tenemos que poner límites, pero a la vez favorecer y no ahuyentar la innovación, y ese equilibrio es difícil. Creo que lograremos aprobar la normativa durante la presidencia española.
P. ¿Qué escollos hay ahora mismo, más allá de los usos prohibidos?
R. Hay una serie de empleos prohibidos consensuados, como el scrapping [extracción de datos] de imágenes tomadas por cámaras de vigilancia o los sistemas de calificación de crédito social. Estamos viendo si encontramos el punto adecuado en el reconocimiento biométrico, exceptuando algunos casos, como su utilización en la investigación de ciertos crímenes graves. Nadie quiere que haya un abuso de esas técnicas por parte de la policía o de los gobiernos. Si hacemos esto, tenemos que ofrecer garantías extras de control. Este es ahora el centro del debate, pero no podemos revelar cuál es la solución que estamos buscando. Se está trabajando a nivel jurídico, técnico y político. La apuesta es muy alta porque nunca se había hecho en el mundo una regulación así.
P. La tecnología cambia muy rápido, como se ha visto con la irrupción de ChatGPT. ¿Cómo harán para que el reglamento no quede obsoleto?
R. La clave de este reglamento será que supere la prueba del tiempo. Para eso, debe poder actualizarse. Estamos viendo, por ejemplo, cómo hacer para que los casos de uso de riesgo se puedan actualizar fácilmente. Habrá un mecanismo de coordinación europeo de las agencias nacionales de la inteligencia artificial que velará por ello.
P. ¿Sigue en contra de que haya una moratoria en la investigación de IA?
R. La carta [en la que centenares de expertos solicitaron en marzo una pausa de seis meses en la investigación de esta tecnología] fue un toque de atención de la comunidad científica: cuidado, que aquí estamos desarrollando algo sin saber su impacto real. Situaba los daños irreparables a muy largo plazo, cuando nosotros pensamos que los estamos sufriendo ya: las propias fake news, la suplantación de identidad con los deepfakes, la posibilidad de sesgos, de discriminación… Antes de hablar de problemas existenciales de la humanidad hay que atajar lo que pasa hoy. Es imposible parar la innovación; lo que hay que hacer es asegurarse de que ese progreso va en la buena dirección. La innovación debe acelerarse para que la propia industria encuentre la manera de resolver los problemas que ella misma ha creado.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.