Más transparencia para una Administración algorítmica
Deberíamos empezar por poner encima de la mesa la necesidad de dar publicidad a la relación de algoritmos que se utilizan en la gestión pública, en qué procesos operan o cuáles son sus reglas esenciales
Viogén, Saler, Veripol, Bosco, RisCanvi, Hermes, Send@... estos son solo algunos de los nombres con los que se ha bautizado a algoritmos y sistemas de inteligencia artificial (IA) que utilizan las administraciones públicas para la gestión de sus procedimientos. Sin ahondar en cuestiones tecnológicas más complejas, la administración camina actualmente hacia un funcionamiento cada vez más automatizado para aumentar su eficiencia ante el gran volumen de datos que debe tratar. Los poderes públicos están abandonando poco a poco el mundo analógico para sumergirse en la llamada “revolución industrial 4.0″ que nos ha traído el internet de las cosas (IoT) y los sistemas de aprendizaje automatizado que, imitando redes neuronales, pueden convertirse en verdaderas black boxes o cajas negras de las que poco o nada se sabe sobre su forma de operar.
Díganme si no es inquietante que un sistema de inteligencia artificial fuera el tercer candidato más votado en las elecciones a la alcaldía de un distrito de Tokio en 2018 o que el Parlamento Europeo se esté planteando la necesidad de regular un estatuto de persona electrónica. Con tales ejemplos, se entiende mejor que la Carta de Derechos Digitales haya preferido hablar de derechos de las personas “ante” la inteligencia artificial y no de un derecho a la inteligencia artificial. En este caso, la preposición cobra indudablemente todo sentido.
Sacudidos y, casi diría, alarmados por esta vertiginosa evolución, surge una preocupación por incorporar a esta gran transformación digital una visión más humanista y ética de la tecnología. Cobra ahora más sentido aquello que hace tiempo escribía en un documento sobre retos para la administración pública del futuro: “Necesitamos, sí, más tecnología e innovación en la administración, pero no nos olvidemos de empaparla no solo de inteligencia artificial y algoritmos, sino también de ética, que es a aquellas como el alma al cuerpo”.
Desde hace un par de años asistimos en España a una superproducción de documentos de soft law que hablan de la necesidad de incrementar la transparencia en el uso de estas tecnologías: la Guía de la Agencia Española de Protección de Datos sobre adecuación al Reglamento General de Protección de Datos de tratamientos que incorporan IA, España Digital 2025 (redatada 2026, después de su revisión en julio pasado), la Estrategia Nacional de Inteligencia Nacional (ENIA), la Carta de Derechos Digitales o la Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral, obra del Ministerio de Trabajo y Economía Social. Incluso, tenemos ya algunas normas de derecho positivo que hablan de ello, como la llamada Ley rider o la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, buenos ejemplos del tsunami regulador en esta materia que, en buena medida, procede de la Unión Europea y que tendrá su máxima culminación con la próxima aprobación del Reglamento de normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial).
El objetivo no es otro que garantizar que las decisiones públicas que se toman utilizando este tipo de recursos tecnológicos sean motivadas y explicables como lo venía siendo obligado hasta ahora. Nada nuevo bajo el sol: las normas exigen que los fundamentos de las resoluciones de la Administración sean explícitos. Si ahora las razones de esa decisión son fórmulas algorítmicas, estas deberían ser igualmente conocidas y entendidas si queremos garantizar el derecho fundamental de cualquier persona a defenderse frente a posibles arbitrariedades.
Pero, ¿puede traducirse en algoritmos la gestión de ese espacio de discrecionalidad que las normas atribuyen en ocasiones a quienes tienen la responsabilidad de ejercer ciertas competencias públicas? ¿Cómo puede administrar una máquina la subjetividad inherente al ejercicio de determinadas potestades, resolver qué es y qué no equitativo, dar contenido preciso a conceptos jurídicos indeterminados cuando han de aplicarse a un caso concreto, etc.? Al menos de momento, este margen intangible de apreciación que pertenece a las personas sigue siendo inalienable. Y esto me recuerda a la reciente publicidad de una conocida marca de refrescos en la que se representaba una entrevista de trabajo entre un candidato humano y un androide. Después del consabido interrogatorio “inteligente” para contrastar las capacidades del aspirante, el sistema concluye diciendo que “ustedes”, refiriéndose a la raza humana, “no pueden aportar nada que nosotros no hagamos ya”, a lo que el joven responde diciendo que ellos jamás podrán sentir “ganas”, ni podrán reafirmarse, reenamorarse y renacer. Una forma poética y sugerente de expresar que hay otra inteligencia, esencialmente emocional, que nunca será posible escribir en lenguaje de programación.
El acceso a los algoritmos es imprescindible por diversos motivos, pero uno de los más relevantes es poder saber si la decisión es sesgada porque los datos (inputs) que utiliza el algoritmo o con los que se entrena para crear patrones no representan toda la realidad o se basan en estereotipos y prejuicios (caso COMPAS). En otros supuestos, el sesgo puede estar en el propio diseño del algoritmo, ya que sus autores tienen también su propia escala de valores, experiencias y opinión, lo que puede influir, sin duda alguna, en los resultados que arroja la operación automatizada (casos BOSCO, DELIVEROO o SyRI).
De momento, la inflación de planes, estrategias y cartas a la que antes hemos hecho referencia está resultando ser poco efectiva, dado que siguen siendo frecuentes las resoluciones que deniegan el acceso al código fuente u otra documentación relacionada con los algoritmos que utilizan las administraciones. Lo de siempre: del dicho (compromiso) al hecho (respuesta), sigue existiendo un trecho.
Son los comisionados y consejos de transparencia los que están defendiendo con mayor tesón la apertura de esta información, partiendo de experiencias comparadas como la de la Commission d’accès aux documents administratifs francesa. Nuestro Consejo de Transparencia y Buen Gobierno ha resuelto en varias ocasiones que “mientras no se instauren otros mecanismos que permitan alcanzar los fines señalados con garantías equivalentes, como podrían ser, por ejemplo, auditorías independientes u órganos de supervisión, el único recurso eficaz a tales efectos es el acceso al algoritmo propiamente dicho, a su código, para su fiscalización tanto por quienes se puedan sentir perjudicados por sus resultados como por la ciudadanía en general en aras de la observancia de principios éticos y de justicia”. En sentido parecido se ha pronunciado la Comisión de Garantía del Derecho de Acceso a la Información Pública catalana.
Esta defensa de la transparencia algorítmica es absolutamente compatible con la aceptación de límites, algo consustancial a cualquier derecho. Mucho se ha hablado de la propiedad intelectual e industrial o de los secretos comerciales, límites difícilmente comprensibles cuando de productos generados in-house por la propia administración o sobre los que posee los derechos de explotación se trata. Más justificado está invocar la seguridad pública, pero muy restringida su aplicación a un puñado de casos donde los riesgos son claramente identificables.
Con todos estos antecedentes y partiendo de algunas de las acciones planificadas en la ENIA, hay que avanzar con mayor decisión en la concreción del régimen jurídico del uso por la Administración de algoritmos y sistemas de IA. Y deberíamos empezar por poner encima de la mesa una de las reivindicaciones más reiteradas sobre la que las administraciones e, incluso, la propia estrategia mencionada, guardan absoluto silencio, y es la necesidad de dar publicidad a la relación de algoritmos que se utilizan en la gestión pública, en qué procesos operan o cuáles son sus reglas esenciales. Por lo general, de la existencia de “algoritmos públicos” nos enteramos por sorpresa por los medios de comunicación dada la gran dificultad de localizar en las plataformas de contratación del sector público las adjudicaciones para llevar a cabo este tipo de creaciones. Y esto es así en el mejor de los casos, ya que en el supuesto de desarrollos tecnológicos con medios propios puede que ni nos enteremos.
La reciente Ley de Transparencia y Buen Gobierno de la Comunitat Valenciana es un buen paso en esta línea, ya que obliga a publicar la relación de sistemas algorítmicos o de inteligencia artificial que tengan impacto en los procedimientos administrativos o la prestación de los servicios públicos. Esta publicación deberá incluir la descripción de manera comprensible del diseño y funcionamiento de estos instrumentos, el nivel de riesgo que implican y el punto de contacto al que poder dirigirse en cada caso, de acuerdo con los principios de transparencia y explicabilidad (entrará en vigor en mayo de 2023).
En el ámbito internacional, Ámsterdam o Helsinki son algunas de las ciudades que ya están publicando desde hace tiempo el registro de sus algoritmos, la mayor parte de ellos chatbots, que utilizan en algunos de los servicios que prestan. De alguno de ellos y de otros tanto puede conocerse más gracias al Observatorio Global de Inteligencia Artificial Urbana.
Es hora de soltarse los botones de los puños, remangarse y, con o sin corbatas, ponerse manos a la obra.
Joaquín Meseguer Yebra es académico correspondiente de la Real Academia de Jurisprudencia y Legislación, coordina el grupo de trabajo de transparencia y acceso a la información de la FEMP y es secretario ejecutivo del capítulo español de la Red Académica de Gobierno Abierto Internacional. Ha sido Subdirector General de Transparencia del Ayuntamiento de Madrid y Director General de Transparencia y Buen Gobierno en la Junta de Castilla y León.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.