_
_
_
_

Carme Artigas: “Queremos impulsar un código deontológico de los científicos de datos”

La secretaria de Estado de Digitalización e Inteligencia Artificial confía en la autorregulación del sector para lograr que los algoritmos no discriminen

Carme Artigas, Secretaria de Estado de Digitalizacion e Inteligencia Artificial, el jueves en Madrid.
Carme Artigas, Secretaria de Estado de Digitalizacion e Inteligencia Artificial, el jueves en Madrid.Víctor Sainz

El presidente del Gobierno, Pedro Sánchez, presentó el miércoles la Estrategia Nacional de Inteligencia Artificial (ENIA), uno de los pilares de la Agenda España Digital 2025. El documento pretende sentar las reglas de juego de una tecnología ausente en el día a día del debate político, pero clave para el desarrollo económico de los países y con enormes implicaciones éticas porque mal gestionada puede discriminar o perjudicar a parte de la ciudadanía.

La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas (Vilassar de Mar, 1968), ha liderado la elaboración de la ENIA y una Carta de Derechos Digitales que establece, entre otros, el derecho a no ser perfilado o a que los datos cerebrales recogidos por las neurociencias sean de los ciudadanos. Iniciativas como estas, opina Artigas, sitúan a España a la vanguardia de un debate ético-normativo que tarde o temprano todas las sociedades deberán afrontar.

Ha presentado un plan sobre un tema a que a muchos ciudadanos les suena a ciencia ficción. ¿Cómo convencerles de que será un asunto crucial en sus vidas?

La inteligencia artificial es la capacidad de extraer inteligencia a partir de los muchos datos que generamos en nuestra vida cotidiana y, a partir de ellos, detectar patrones de comportamiento que nos ayuden a predecir lo que va a ocurrir. No es algo del futuro, está embebido en nuestras vidas: está en la capacidad de abrir el móvil con reconocimiento facial o en la herramienta que nos recomienda una película. Se diferencia de otras tecnologías en que no solo automatiza o hace más eficientes los procesos, sino que permite pensar y tomar decisiones. Por eso decimos que es la tecnología con mayor potencial de transformación y crecimiento económico.

Será necesario entonces un gran esfuerzo de pedagogía para explicar esta tecnología a los ciudadanos.

Desde luego. La IA se ve como una amenaza, pero desrobotiza al ser humano porque lo libera de las tareas repetitivas. Para abordar una transformación tan importante hemos incluido en el plan España Digital 2025 un programa de competencias digitales, que entre otras cosas aborda la educación primaria y secundaria y el desarrollo de más perfiles especializados: expertos en datos, en inteligencia artificial y en ciberseguridad. Tenemos que formar 20.000 nuevos profesionales en esta tecnología y atraer talento externo.

El plan incluye una inversión pública de 600 millones en tres años, pero otros países cercanas han destinado cantidades mucho mayores (Francia 1.500 millones en cuatro años), por no hablar de China. ¿Es suficiente?

Los 600 millones no incluyen otros planes que también suman al impulso de la IA. Por ejemplo, el Plan Nacional de Competencias Digitales, que incluye una partida importante en formación en distintos ámbitos universitarios, el plan de modernización de la administración pública… Además habrá que sumar la cifra del fondo de capital público privado Next Tech, que se está articulando y que se anunciará en un mes.

“Si creamos el entorno para que las empresas declaren sus algoritmos, sean transparentes y publiquen sus sesgos, podemos impulsar un sello de calidad de los algoritmos que en un primer momento sea voluntario”

¿Es partidaria de auditar los algoritmos? ¿Cómo y con qué baremos?

Tiene que haber un equilibrio entre regulación ex ante y ex post. Pensamos que no hay que regularlo todo a priori, sino generar espacios de prueba para detectar las zonas de riesgo o de discriminación. Antes de llegar a la hiperregulación tenemos que apoyar la autocensura o la autorregulación. Si creamos el entorno para que las empresas declaren sus algoritmos, sean transparentes y publiquen sus sesgos, podemos impulsar un sello de calidad de los algoritmos que en un primer momento sea voluntario, hasta que tengamos clara la manera en la que los vamos a limitar. Estamos por la creación de un sello de calidad de la IA. Hay esfuerzos a nivel europeo en este sentido, pero queremos ser los primeros, igual que queremos ser los primeros en proponer un código deontológico de los científicos de datos. De la misma manera que hay un juramento hipocrático de los médicos, debería haber un juramento tecnocrático de los desarrolladores de software y de dichos científicos. Porque no solo es la ley lo que hace que las cosas no ocurran: a veces es la responsabilidad individual.

Confían entonces en la autorregulación de las empresas.

En una primera fase hay que aumentar la transparencia. A veces se consiguen cosas sin normativas. Administración e industria tenemos que trabajar de manera conjunta para ir desarrollando ese sello de calidad de la IA, modelos que den confianza a la gente y que certifiquen que esos algoritmos han sido bien entrenados, que no han utilizado datos sesgados y que el resultado de esas decisiones son ponderados y no hay más falsos positivos que falsos negativos. Debemos estar muy vigilantes para regular aquellos aspectos que son lesivos para la sociedad y donde el algoritmo introduce discriminación.

Eso sería una primera fase. ¿Contemplan en la segunda establecer sanciones para los algoritmos que no se ajusten a lo establecido?

Soy incapaz de pensar más allá de un año vista. Aún no sabemos lo que es una amenaza o un riesgo, eso está por establecer. Creo que el algoritmo que toma decisiones de forma automática lo debe hacer sobre cuestiones muy probadas a nivel técnico. Otras cosas, como la concesión de un crédito bancario, deben contar con intervención humana. No se puede automatizar el 100% de según qué decisiones.

¿Cómo se puede salvaguardar el derecho a no ser perfilado que contempla la Carta de Derechos Digitales?

En primer lugar tenemos que ver si es un derecho que queremos exigir. A mí que me perfilen y que eso me evite ver publicidades o que el banco me haga una oferta a mi medida quizá me interese. El perfilado puede ser positivo si se ajusta a mis posibilidades, pero puede ser negativo si discrimina: si soy una persona de renta muy baja, no voy a poder ver ni el anuncio de un coche de alta gama. No voy a saber ni que existe, y por tanto quizás se está limitando mi libertad, mi derecho a elegir o a soñar. Es ahí donde tenemos que vigilar que ese perfilado no discrimine. Ahora bien, yo tengo que poder elegir si quiero publicidad general o segmentada. Y eso no puede determinar el que yo pueda o no acceder a ese servicio. El problema es que a veces si no aceptas las cookies no tienes alternativa. Es un equilibrio complicado. No hay una solución perfecta, lo que queremos es que la carta de derechos nos lleve a hacernos preguntas que ya tocaba hacerse.

“Estamos abriendo el debate sobre cómo revisamos derechos fundamentales que tenemos garantizados por el ordenamiento jurídico y la constitución. ¿Aplican exactamente estos derechos del mundo físico al digital o hay que salvaguardarlos de otra manera?”

¿Propone entonces movernos hacia un modelo basado en dar el consentimiento previo?

Esa es mi visión, pero hay muchos modelos y el futuro no está escrito. Precisamente estamos abriendo el debate sobre cómo revisamos derechos fundamentales que tenemos garantizados por el ordenamiento jurídico y la constitución. ¿Aplican exactamente estos derechos del mundo físico al digital o hay que salvaguardarlos de otra manera?

El proyecto estrella de su Secretaría de Estado ha sido la aplicación de rastreo de contactos de la covid. De momento no ha tenido demasiada efectividad a la hora de frenar los contagios. ¿Ha sido un lanzamiento precipitado? ¿Qué falta para que sea eficaz?

Para nada ha sido precipitado. Es un proceso complejo que requiere tres curvas de innovación. La primera fue la tecnológica: poner de acuerdo a los países europeos para desarrollar una aplicación móvil que tenía la privacidad como principio de diseño. Faltan dos curvas por completar. Una es la de adopción de la ciudadanía: estamos en 5.600.000 descargas, antes de que hubiera habido el 100% de operatividad en todas las comunidades. Hemos lanzado una campaña institucional pensando en Navidad, para llegar a un 20% de la población, lo que permitiría frenar la pandemia un 30%. La curva más difícil ha sido la adopción por parte del sistema sanitario de las distintas comunidades autónomas de una innovación tecnológica que se solapa a los procedimientos rutinarios, como los rastreadores humanos, y hacer que todo fluya en un momento de tensión de la sanidad.

La app tiene una penetración del 10% y estamos alrededor de un 8% de códigos introducidos. Para hacerlo más transparente en las próximas semanas publicaremos un cuadro de mando con los códigos que hemos dado a las comunidades y las comunidades podrán declarar, si quieren, los códigos que se han dado a los ciudadanos. Yo sigo creyendo que es una gran herramienta. Estamos a nivel de interoperabilidad europeo, es decir, que España ya recibe códigos de un alemán o un checo sin que tengan que bajarse nuestra aplicación. Aún vamos a convivir bastante con la pandemia y esta herramienta va a demostrar su utilidad cuando tengamos que reabrir las fronteras para la próxima temporada turística.

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_