Por qué hay que abordar la regulación de la inteligencia artificial como la de la aviación comercial

La gobernanza de la IA debe ser planteada con estándares internacionales rigurosos en materia de seguridad, y sin reparar en costes

OpenAI es la creadora de ChatGPT, la inteligencia artificial generativa más popular.NurPhoto/Getty Images

Hablar de inteligencia artificial está de moda. ChatGPT, Open Assistant, Bard y otros modelos de gran relevancia aparecen constantemente en nuestras conversaciones cotidianas. Sin embargo, que esté de moda no significa que la inteligencia artificial sea algo nuevo. En rea...

Suscríbete para seguir leyendo

Lee sin límites

Hablar de inteligencia artificial está de moda. ChatGPT, Open Assistant, Bard y otros modelos de gran relevancia aparecen constantemente en nuestras conversaciones cotidianas. Sin embargo, que esté de moda no significa que la inteligencia artificial sea algo nuevo. En realidad, lleva ya muchos años operando entre nosotros, aunque en aplicaciones menos deslumbrantes que los modelos de lenguaje de gran tamaño.

Lo que sí es nuevo es la explosión exponencial en las capacidades de estos sistemas y la democratización de la inteligencia artificial que se está produciendo con su irrupción, desde la doble vertiente de los usuarios y de los desarrolladores. Es por ello que el reciente llamamiento de Elon Musk y otros tecnólogos, a pausar el desarrollo de “sistemas más capaces que GPT-4″ me ha causado cierto asombro. Un Tratado sobre No Proliferación con el objetivo de prevenir la propagación de las armas nucleares tiene todo el sentido del mundo, pues uno no puede ir a un centro comercial y comprarse unas centrifugadoras para enriquecer uranio. Sin embargo, cualquiera con un mínimo de conocimientos tecnológicos sí que puede comprarse espacio en un servidor en la nube, y comenzar a desarrollar sistemas de inteligencia artificial basados en librerías de código abierto y en conjuntos de datos de entrenamiento accesibles públicamente. Por lo tanto, eso de prohibir el desarrollo de las aplicaciones de inteligencia artificial, sin entrar en si es una buena idea o no, no me parece factible. Cuestión diferente es prohibir o limitar determinados usos de la inteligencia artificial, y eso es precisamente lo que pretende la futura Ley Europea de inteligencia artificial, entre otras cosas.

Más que intentar poner puertas al campo, lo que hay que hacer es regular y trazar líneas rojas que no se podrán cruzar, a la vez que se promueve la capacidad de innovación de las universidades e industrias europeas en lo demás. Soy consciente de que hoy en día hay más preguntas que respuestas en este ámbito, y por ello, determinar qué se puede y qué no se puede hacer se presenta como una tarea casi titánica. Sin embargo, aunque no sea fácil y todavía tengamos mucho que aprender de la IA, la labor del regulador es delimitar cuáles son las responsabilidades de cada uno de los actores que intervienen en la vida de un sistema de IA (porque las responsabilidades no se pueden descargar en las máquinas), para así empoderar a los organismos de supervisión para que puedan intervenir y sacar del circuito rápidamente a quienes pretendan hacer un uso irresponsable de esta tecnología. La regulación debe combinar cimientos sólidos con la flexibilidad necesaria para adaptarse a los rápidos avances que se están produciendo (y que van a seguir produciéndose en este ámbito).

Por eso, mi propuesta es que abordemos la gobernanza de la inteligencia artificial como se abordó en su día la regulación de la aviación comercial. Es decir, con estándares internacionales rigurosos en materia de seguridad, sin reparar en costes y con un proceso constante de mejora y actualización, en el que los profesionales no solo aprendan de los accidentes (que afortunadamente cada vez son más raros en la aviación comercial) sino de cualquier pequeño incidente o error.

El Convenio de Chicago, que creó la Organización de Aviación Civil Internacional (OACI) hace casi 80 años, fijó un marco normativo de gobernanza internacional y unos estándares técnicos rigurosos, que los estados miembros de la OACI deben desarrollar con leyes en sus respectivas jurisdicciones y que las aerolíneas deben cumplir a rajatabla, si es que quieren volar a través de fronteras internacionales. Las autoridades regionales o nacionales de supervisión de los estados miembros de la OACI (en el caso de la Unión Europea, se incluye también la Agencia Europea de Seguridad Aérea - AESA) solo conceden sus permisos después de una larga cascada de certificaciones.

Los pilotos solo consiguen sus licencias de vuelo después de formaciones rigurosísimas y lo mismo se aplica, a su respectivo nivel, a los mecánicos que revisan los aviones o a los controladores aéreos. Las aeronaves solo se pueden vender y poner en funcionamiento después de pasar infinidad de pruebas, revisándose hasta la última tuerca o tornillo. Y hasta la solvencia y capacidad de los equipos de dirección de las aerolíneas se revisa y se certifica, porque no se puede dejar una actividad de gran riesgo como esta en manos de un equipo de personas que no demuestren la suficiente capacidad y experiencia. Esto es puro sentido común.

Es evidente que no es lo mismo el fanático de la aviación que se construye su propio avión que Airbus o Boeing fabricando modelos de avión comercial en el que viajarán millones de pasajeros; no es lo mismo el fanático de los ordenadores que construye un sistema de inteligencia artificial para uso propio que una empresa o un Estado que pone en marcha un sistema de inteligencia artificial que tendrá impacto en las vidas de miles o millones de personas. Es en este caso cuando la regulación y la existencia y adopción de estándares es particularmente importante.

Revisión minuciosa de los algoritmos

Me parece muy interesante mencionar que el enfoque de la aviación comercial está basado en los datos (data-driven approach) ya que, como es lógico, no se espera a que un avión se estrelle para mirar su caja negra. Las aerolíneas, bajo la supervisión de los inspectores y las autoridades, analizan minuciosamente el más mínimo ruido o anomalía en los datos que registran los sistemas durante el vuelo. En otras palabras: todo se procesa y se compara, una y otra vez, para que volar en avión sea una actividad de bajísimo riesgo y todos nos beneficiemos de este ecosistema tan inteligente. Los que nos subimos en un avión, para poder llegar sanos y salvos a nuestro destino; las empresas y profesionales del sector, para ganarse dignamente la vida. Fíjense que, contrariamente al discurso habitual de las empresas tecnológicas, en la aviación comercial, la seguridad nunca se computa como un coste o como una barrera a la innovación sino como la condición sin la cual el propio negocio dejaría inmediatamente de existir.

En este sentido, me felicito de que la propuesta de reglamento de inteligencia artificial esté cimentada en un sistema de análisis de riesgos y prevea una serie de requisitos aplicables a los sistemas de IA de alto riesgo, en particular a los proveedores de sistemas, como la obligación de elaborar una declaración UE de conformidad y de colocar el marcado CE de conformidad. Estas certificaciones, lógicamente, deben ser complementarias a las certificaciones, sellos y marcas de protección de datos, que por supuesto se deben aplicar también con idéntico rigor a aquellos sistemas que procesen datos personales. Además, de la misma manera que se prevén revisiones mecánicas en los aviones cada cierto tiempo o cuando se verifican determinados parámetros, los sistemas de inteligencia artificial deberán de someterse a auditorias obligatorias periódicas en las que, como si se tratase de los tornillos y tuercas de un avión, los algoritmos y los datos que están detrás de su funcionamiento se revisen por los inspectores y los mecánicos para garantizar la seguridad del sistema y evitar accidentes. Y no vale eso de que esa información está protegida por supuestos derechos de propiedad intelectual. Para la competencia, puede ser; para el inspector, jamás.

En definitiva, si como todo parece indicar, la inteligencia artificial va a seguir avanzando de una manera vertiginosa en los próximos años, reemplazando a las personas y permitiendo que las máquinas tomen decisiones que van a afectar cotidianamente a nuestras vidas, una inteligencia natural y básica nos aconseja que copiemos el modelo de éxito de aquellos que se ganan la vida transportando con seguridad a las personas a diez mil metros de altura y a más de ochocientos kilómetros de velocidad.

Igualmente, de la misma manera que los pasajeros pueden reclamar daños en caso de accidente aéreo, es necesario que haya normas claras y específicas en el ámbito de la IA en caso de accidentes; que los habrá, sobre todo, al principio. En este sentido, aplaudo que se esté tramitando una propuesta a nivel europeo sobre responsabilidad en el ámbito de la inteligencia artificial, aunque sería deseable que el propio reglamento de IA también incluyese un derecho de recurso por daños causados por los sistemas de inteligencia artificial. Solo así se garantizará la aplicación y el cumplimiento efectivos de las leyes de IA.

Está en nuestra mano, por tanto, ahora que este sector se encuentra todavía en su infancia, sentar los pilares de una inteligencia artificial segura, con estándares internacionales equivalentes, que transmita a la ciudadanía la necesaria confianza y coadyuve positivamente al progreso de la humanidad.

Así pues, señoras y caballeros, abróchense bien los cinturones que llega la inteligencia artificial.

Leonardo Cervera Navas es el director del Supervisor Europeo de Protección de Datos

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Más información

Archivado En