Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La clave es gobernar lo digital

El desafío de nuestra sociedad y nuestras instituciones no es tanto la transformación tecnológica sino cómo se rige y regula la nueva esfera. Un escenario en el que la Unión Europea no tiene competencia

CINTA ARRIBAS

Hacía tiempo que se venía hablando de una nueva legislación europea sobre Inteligencia Artificial (IA), desde el 16 de julio de 2019 por lo menos, cuando Ursula von der Leyen fue elegida presidenta de la Comisión Europea. En tal fecha, Von der Leyen prometió que, en un plazo de cien días, propondría una nueva legislación europea sobre IA coherente con los valores éticos europeos. En ese momento, comenté que las razones estratégicas justificaban tal ambición, que, sin embargo, resultaba poco realista en los tiempos. La estrategia ya había puesto a trabajar al grupo de expertos en ética de la IA (el HLEG, High-Level Expert Group on Artificial Intelligence, del que yo era miembro). Creado por la Comisión, el grupo acababa de publicar las directrices éticas y políticas para la IA en Europa. Estaba claro que el siguiente paso consistía en traducir esas directrices en instrumento legislativo. El trabajo ya realizado, sin embargo, había demostrado lo largo y laborioso que resultaba dicho proceso. Personalmente, yo tenía la convicción de que llevaría al menos un año traducir los principios en normas. Como tantos otros, no había previsto la pandemia. Hoy, casi dos años después, disponemos de un anteproyecto de propuesta de reglamentación para la IA en la Unión Europea, el AI Act (AIA), presentado oficialmente el 21 de abril de 2021. Es el primero en el mundo.

Más información
La inteligencia artificial no es un camino de rosas

En general, el borrador del texto ha sido valorado como un buen punto de partida para garantizar que el sector tecnológico de la IA se desarrolle de manera segura y aceptable en la UE, en beneficio de la economía, la sociedad y el medio ambiente. No voy a detenerme en sus aspectos jurídicos, algunos de ellos destinados a evolucionar. Filosóficamente, creo que los aspectos positivos fundamentales del AIA son muchos, aunque con algunas limitaciones.

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

En primer lugar, se trata de un reglamento, no de una directiva, por lo que debe ser aplicado, y no solo acogido, por todos los estados miembros de la UE, del mismo modo que el Reglamento General de Protección de Datos (RGPD). Como en el caso del RGPD, el AIA también asume la no territorialidad de la legislación. Vivimos en un mundo post-Westfalia y el AIA afecta a cualquier actor, independientemente de dónde se localice física o legalmente. Lo que importa es si se trata de un servicio, por ejemplo, un sistema automático de gestión de contratación ofrecido por una empresa de Singapur a una empresa en España, que tiene un impacto en los ciudadanos europeos. De acuerdo con esta modalidad post-Westfalia, los gigantes de la IA tendrán que lidiar con la UE, no con los estados concretos, cuando tengan que demostrar que cumplen con la nueva legislación. La UE se presenta como un interlocutor único no solo en la gestión de datos personales (RGPD), sino ahora también en la aplicación de la IA. Es apropiado afirmar que la Unión hace la fuerza cuando lo que está en cuestión es la soberanía digital. Ninguna empresa podrá permitirse ignorar un mercado que representa aproximadamente un sexto de la economía mundial. Eso también significa, sin embargo, que será más difícil para las empresas que tengan que aplicar el AIA el explicar por qué no adoptan estándares igualmente altos cuando operan en otros países. Además, el AIA podría tener una influencia positiva, no en China y probablemente tampoco en los Estados Unidos, pero sí de Canadá a Corea del Sur, de Japón a Gran Bretaña, de Israel a Singapur, colocando a la UE en una posición de “liderazgo con el ejemplo” para una buena gobernanza de las tecnologías de IA, como ya ha sucedido con el RGPD. Colaborar con estos países líderes en el sector de la IA será más fácil gracias a un buen marco legislativo.

El AIA hereda otro factor positivo del RGPD: la protección de la dignidad humana y los derechos humanos como objetivo final. Desafortunadamente, el AIA emplea una terminología anacrónica al definir este enfoque human centric, es decir, que sitúa a la humanidad en el centro del desarrollo tecnológico. La idea es correcta: la tecnología debe estar al servicio de la humanidad. Pero en realidad también debemos tener en cuenta el medio ambiente, mientras que el paso de lo human centric al antropocentrismo es corto, y sabemos cuánto ha sufrido el planeta debido a la obsesión de la humanidad por situarse siempre en el centro, como si todo tuviera que estar a nuestro servicio, Madre Naturaleza incluida. Afortunadamente, aunque la terminología esté anticuada, la visión de fondo es correcta: el AIA enfatiza el valor de la IA como tecnología verde, que puede ser de extraordinaria ayuda para la sostenibilidad y para combatir la contaminación y el cambio climático. En esto, el AIA es complementario de las políticas medioambientales europeas. Yo lo he definido como el proyecto verde y azul, del que la UE debe hacerse promotor por todo el mundo. En términos de planteamiento, el AIA aspira a eliminar o a mitigar los riesgos de la IA, para respaldar la confianza en estas innovadoras tecnologías. La idea es que la ética es positiva para el mercado, y no al contrario. Por esta misma razón, el AIA adopta explícitamente las pautas éticas propuestas por el HLEG. Y aquí merece la pena destacar otro aspecto positivo fundamental. El reglamento no hace ninguna concesión a especulaciones de ciencia ficción que tanto distraen por desgracia a la opinión pública, e inicialmente también lo hicieron con el trabajo del Parlamento Europeo y del HLEG. La IA se aborda como una tecnología para la resolución de problemas y para la realización de tareas, no como una forma de vida extraterrestre. Por tanto, el AIA excluye cualquier posibilidad de atribuir a la IA una subjetividad jurídica relacionada con derechos o deberes. La responsabilidad de cada sistema de IA se asigna siempre con toda razón a la humanidad que lo diseña, produce, comercializa y utiliza.

¿Todo bien entonces? No exactamente. El borrador contiene también algunas limitaciones conceptuales que merecen ser corregidas, además de las mejoras legales que puedan introducirse. Veámoslas.

El borrador resulta a veces ambiguo. Un caso importante es la definición de los sistemas de IA de alto riesgo, concepto clave de todo el reglamento, que combina explícitamente dos sentidos que creo que sería preferible distinguir. Por un lado, tenemos los sistemas de IA de cuyo correcto funcionamiento dependen cuestiones vitales, pensemos en un sistema automovilístico de conducción autónoma: algo bueno que debe funcionar bien. Por otro lado, tenemos sistemas de IA de cuyo mal uso dependen cuestiones vitales: pensemos en el abuso de los sistemas biométricos de vigilancia en tiempo real, prohibidos por el reglamento: algo malo que no debe usarse. Si no distingue entre ambos, terminaremos confundiendo la resiliencia obligada de los buenos sistemas de IA con la resistencia que debe ejercerse contra el mal uso de los sistemas de IA.

En otros casos, el borrador es vago, como cuando se habla de prohibir el uso de sistemas de IA destinados a distorsionar el comportamiento humano, con el riesgo de probables daños físicos o psicológicos. La intención de fondo es aceptable, pero si este enfoque se aplicara con demasiada rigurosidad, se correría el riesgo de prohibir muchos sistemas de IA no problemáticos.

Por último, ciertas expectativas del borrador parecen adolecer de excesivo idealismo. Un ejemplo significativo son los estándares de las bases de datos utilizadas para el adiestramiento de modelos de aprendizaje automático, que deberían ser, entre otras cosas, relevantes, representativas, libres de errores y completas. En realidad, se trata de requerimientos muy deseables pero que rara vez se satisfacen por completo, baste con pensar en las bases de datos de cualquier ministerio, por lo general incompletas e incorrectas. Por lo tanto, sería preferible hablar de umbrales por debajo de los cuales el nivel de satisfacción de dichos estándares es inaceptable.

El AIA irá a sumarse a la RGPD y a soldarse con la Ley de Servicios Digitales y la Ley de Mercados Digitales que regularán las plataformas y servicios en línea. Dentro de unos años, cuando se complete esta arquitectura legislativa, la UE habrá garantizado una infosfera en la que sus ciudadanos podrán vivir y operar de manera mejor y más sostenible. Está claro que el desafío ya no es tanto la innovación digital como la gobernanza de lo digital, y en este desafío la UE no tiene competencia.

Luciano Floridi es profesor de Filosofía y Ética de la Información y director del Digital Ethics Lab en la Universidad de Oxford.

Traducción de Carlos Gumpert

Regístrate gratis para seguir leyendo

Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS