Carme Artigas: “España está en contra de una moratoria en el desarrollo de la inteligencia artificial”
La secretaria de Estado para la Digitalización y la Inteligencia Artificial minimiza las críticas por el acuerdo con Emiratos Árabes en materia de investigación: “Una cosa es la diplomacia, otra el activismo y otra la ciencia”
La inauguración del Centro Europeo de Transparencia Algorítmica (ECAT, por sus siglas en inglés) en Sevilla, la herramienta de la Comisión para abrir las cajas negras donde se ocultan los sistemas algorítmicos de las grandes plataformas de Internet, ha puesto de manifiesto que el conocimiento de cómo funcionan y el control de sus efectos sobre nuestra vida cotidiana son un asunto de Estado. En este contexto, España lidera el llamad...
La inauguración del Centro Europeo de Transparencia Algorítmica (ECAT, por sus siglas en inglés) en Sevilla, la herramienta de la Comisión para abrir las cajas negras donde se ocultan los sistemas algorítmicos de las grandes plataformas de Internet, ha puesto de manifiesto que el conocimiento de cómo funcionan y el control de sus efectos sobre nuestra vida cotidiana son un asunto de Estado. En este contexto, España lidera el llamado sandbox regulatorio, un entorno de pruebas, que incluye el estudio de algoritmos, con el que se pretende probar la eficacia del futuro reglamento europeo sobre inteligencia artificial, el marco jurídico que se aplicará a ese tipo de sistemas computacionales. Una iniciativa que desarrolla la Secretaría de Estado de Digitalización e Inteligencia Artificial, y que se integra en las políticas europeas que buscan legislar de manera transversal los servicios digitales, como la recién aprobada Directiva de Servicios Digitales (DSA). “Estamos marcando un modelo para el resto del mundo, se ha demostrado que la vía europea no es la tercera vía, sino la única posible para conseguir una inteligencia artificial más ética, humanística y justa”, asegura su titular, Carme Artigas, en una entrevista concedida a EL PAÍS, apenas tres semanas después de que tuviera que hacer frente a un motín en su consejo asesor para la inteligencia artificial.
Pregunta. ¿Cómo van a integrarse el sandbox regulatorio y la Agencia Española de Supervisión de la Inteligencia Artificial con el nuevo centro?
Respuesta. El centro europeo es un espaldarazo enorme para España en el rol de liderar el desarrollo de una IA [inteligencia artificial] que sea más justa, más ética y que integre unos principios y valores que se deben defender en el mundo digital. Por tanto, que estén aquí los mejores investigadores y que las administraciones españolas tengamos más cercanía con su trabajo y también el sector privado, suma a las iniciativas que ya teníamos. El sandbox ya está en marcha y forma parte de la colaboración que ya teníamos con el JRC [siglas del Centro Común de Investigación, que alberga el ECAT] y vemos muchas similitudes entre el reglamento de IA y la DSA y, por tanto, allí vemos muchas sinergias.
P. ¿Cuándo podrán participar las empresas españolas en ese entorno de pruebas regulatorio?
R. Esperamos que antes de un mes esté listo el Real Decreto para invitar a participar a las empresas españolas y hemos fijado el mes de noviembre a ofrecer los primeros resultados, coincidiendo con el encuentro de la AIA [Alianza para la Inteligencia Artificial].
P. Hablaba de la importancia de desarrollar una IA más ética, pero ese compromiso ha sido cuestionado recientemente por varios miembros del Consejo Asesor de la IA y por ONG a raíz del acuerdo del Gobierno con el centro de investigación ADIA Lab, de Emiratos Árabes Unidos, un país donde no se respetan los derechos humanos y la ciencia está controlada por el Gobierno. ¿Calibró bien el Gobierno la repercusión que podía tener este acuerdo, teniendo en cuenta la incidencia que la IA puede tener en las libertades públicas?
R. No entiendo la polémica. Esto es una gran noticia, son centros de investigación de primer nivel que eligen ubicarse en España, no en Francia o en Alemania. No hay ningún conflicto ético. Esto es una financiación, no para un gobierno, no para un centro, sino para los científicos españoles. Estamos apoyando a las universidades públicas españolas a que podamos financiar líneas de trabajo conjuntas a nivel internacional con cualquier centro de prestigio, de Emiratos Árabes, pero también recientemente el Instituto Tecnológico de Monterrey (México) también ha decidido ubicar su centro europeo en Oviedo. Una cosa son las relaciones diplomáticas, otra el activismo y otra la ciencia.
P. Se cuestiona también que una línea de investigación de ese centro sea sobre el cambio climático y la sostenibilidad cuando el origen de los fondos de Emiratos Árabes es el petróleo.
R. El fondo soberano de ADIA está financiando la COP28 con Naciones Unidas. Si Naciones Unidas hace un acuerdo con un país, yo no voy a cuestionarlo. Nosotros no cuestionamos países, sabemos que como países tienen menos nivel de democracia que nosotros, nuestro país puede tener relaciones diplomáticas y comerciales con los países que considere oportuno. Nosotros estamos por apoyar a los científicos españoles y no hay nada mejor que ayudar a la evolución democrática que intercambiar conocimientos como país.
P. ¿Está garantizada entonces la salvaguarda científica y ética de las investigaciones que se lleven a cabo en ese centro que se abrirá en Granada?
R. Es que se han cuestionado cosas que son incuestionables, como la libertad de cátedra de científicos españoles ¿O alguien pone en duda que un científico español, si es que se siente mínimamente dirigido en su investigación, no va a levantar la mano y va a decir que ya no quiere colaborar más con ellos? Los científicos son los que tienen libertad de decidir.
P. Los miembros del Consejo Asesor y las ONG también cuestionan que no se les tenga suficientemente en cuenta en la toma de decisiones.
R. Son cosas distintas. Con el Consejo Asesor tenemos tres reuniones oficiales al año con la vicepresidenta [Nadia Calviño] y cada mes tenemos reuniones de trabajo y llamadas de mi equipo director. La relación es continua, lo que pasa es que es un órgano consultor que tiene muchas perspectivas y nunca hay consenso. Con las ONG fui yo la que pedí una reunión al máximo nivel y me preguntaron por el rol de la sociedad civil en el sandbox regulatorio y les trasladé que íbamos a crear un equipo de supervisión del sandbox, pero para que empiece ese trabajo técnico es necesario que se apruebe primero el Real Decreto Ley, que aún no se ha aprobado.
P. Recientemente, científicos, expertos y magnates de las tecnológicas han pedido una moratoria en el desarrollo de la IA generativa, como ChatGPT. ¿Qué opina?
R. No estamos de acuerdo para nada en que se paren la investigación y la innovación. Al contrario, lo que tiene que hacer es acelerarse para resolver los problemas que las empresas han creado. Hay que acelerar la innovación con límites. Pretender poner en el mercado un producto que no está acabado, sin los mismos controles que tendría un coche o un medicamento, y decirle a la gente que lo pruebe y que vea dónde están los fallos para ver cómo lo mejoro, que es lo que ha hecho ChatGPT, es lo que no es correcto. ChatGPT ha ido desde la parte de la investigación a la de la comercialización demasiado rápido. Pero ha servido para crear conciencia de que la vía que estaba siguiendo Europa, defendiendo los derechos digitales, es la correcta.
P. ¿La regulación existente en Europa y el futuro reglamento europeo de IA son mecanismos suficientes para controlar el desarrollo de la IA generativa?
R. Todo el conjunto: la normativa europea de protección de datos, la DSA para el control del contenido ilegítimo, y el reglamento de IA puede decidir que una IA generativa pueda entrar dentro de la categoría de algoritmos de riesgo y se le aplicaría toda la supervisión algorítmica en cuanto que no sesga, no discrimina, no ofrece información falsa…
P. El reglamento se prevé que esté listo en 2025, pero hemos comprobado cómo ChatGPT se ha desarrollado rapidísimamente en cuatro meses. ¿No se corre el riesgo de que al final las respuestas legislativas vayan siempre por detrás de la tecnología?
R. No, no. Lo que hay que hacer es cerrar el expediente legislativo. En el caso de la IA, se prevé que apruebe en enero de 2024 y por eso la importancia de la presidencia europea de que se cierre el expediente legislativo. A España le va a tocar cerrar el expediente legislativo de la herramienta europea de IA. Por eso se creó el sandbox, porque lo que no queremos es que cuando entre en vigor, tarde dos años en implementarse o que se pida una moratoria porque las empresas no están preparadas para aplicarlas. Por eso lo que hacemos es tan importante, porque estamos anticipando la puesta en marcha técnica y operativa de cosas concretas de la ley.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.