Europa quiere poner más obligaciones a la inteligencia artificial generativa como la de ChatGPT
El Parlamento de la UE propone un texto legislativo que exigirá que se especifique qué contenidos son creados por IA y que prohíbe el uso de sistemas de identificación biométrica en espacios públicos para evitar un “gran hermano” estatal en el futuro
Ni Gran Hermano, ni Minority Report y, en lo posible, un mundo menos orwelliano de lo que ya es. El Parlamento Europeo ha dado este jueves un primer paso, que es en realidad un salto de gigante, para convertir a Europa en la primera región del mundo que regule las todavía muy desconocidas posibilidades, y riesgos, de la inteligencia artificial (IA) y de sus versiones más avanzadas, tanto las ya conocidas como las aún por desarrollar. Dos años después de que la Comisión presentara su propuesta de reglamento para la IA, los eurodiputados quieren que los modelos generativos, que en aquel momento no eran conocidos por el gran público y que son capaces de crear tanto imágenes (véase la famosa foto falsa del Papa vistiendo un llamativo abrigo de plumas blanco) como textos, especialmente el tan de moda y tan preocupante ChatGPT, estén obligados a cumplir medidas adicionales de transparencia, para dejar sobre todo claro que han sido creados mediante IA.
Preocupados por los potenciales efectos negativos en los derechos y libertades ciudadanas que puede tener esta tecnología en manos de empresas o gobiernos con pocos escrúpulos, los eurodiputados han ampliado además las limitaciones que contenía la propuesta original de la Comisión Europea: proponen así prohibir los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o ex-post en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. Se trata, ha resumido uno de los relatores de la propuesta legislativa, el eurodiputado italiano Brando Benifei, de proporcionar a Europa una legislación con un enfoque “ético y antropomórfico” para “ganar la confianza de los ciudadanos” en estos sistemas que tanto afectan y van a seguir afectando sus vidas sin impedir, a la par, el avance de las nuevas tecnologías.
El texto aprobado este jueves con una amplia mayoría —84 votos a favor, 7 en contra y 12 abstenciones— en una sesión conjunta de las comisiones de Libertades Civiles y Mercado Interior deberá ser todavía validado por el pleno de la Eurocámara, probablemente a mediados de junio. Desde ese momento, podrán comenzar las negociaciones con el Consejo (es decir, los Estados), que ya fijó su posición en diciembre, y con la Comisión, los denominados trílogos, para acordar un texto final. El comisario detrás de la propuesta legislativa, Thierry Breton, ha manifestado su esperanza de que la denominada AI Act (Ley de Inteligencia artificial) pueda entrar en vigor en los Veintisiete como tarde en 2025.
“Estamos a punto de lograr un hito legislativo en el panorama digital no solo en Europa, sino para todo el mundo”, celebró Benifei sobre el texto legislativo, que en el año escaso que lleva siendo trabajado en la Eurocámara ha recibido más de 3.000 enmiendas. La IA va a ser algo que “va a estar acechándonos de alguna manera durante el resto de nuestras vidas”, constató por su parte el presidente de la Comisión de Libertades Civiles, el español Juan Fernando López Aguilar.
Organizaciones que luchan contra la capacidad de la IA por ejercer una vigilancia biométrica masiva han celebrado especialmente la defensa de la privacidad de las enmiendas aprobadas. Estas amplían la lista de usos de sistemas de IA ya prohibidos en la propuesta original de la Comisión, que ya vetaba los denominados sistemas de crédito social. A partir de ahora, debería incluir también tanto sistemas de identificación biométrica remota en tiempo real en espacios públicos (como es el caso del reconocimiento facial) como los de identificación posterior, con la única excepción de su uso por las autoridades para investigar crímenes graves, siempre y cuando cuenten con una autorización judicial.
Los eurodiputados también incluyen en la lista de prohibiciones los sistemas de categorización biométrica que usen “características sensibles” como el género, raza, etnia, religión u orientación política, salvo para su uso “terapéutico”. También deberían quedar prohibidos los sistemas predictivos de vigilancia para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa (basados en la perfilación, la localización de dichas personas o en su pasado criminal), así como los sistemas de reconocimiento de emociones por parte tanto de la policía como de los agentes de fronteras o en lugares de trabajo o escuelas. Finalmente, también se veta el rastreo aleatorio de datos biométricos de redes sociales o cámaras de vigilancia para crear o ampliar bases de datos de reconocimiento facial, una de las principales demandas de las organizaciones civiles preocupadas por el potencial Gran Hermano de estas nuevas tecnologías.
“Desde el punto de vista de la vigilancia biométrica, estamos totalmente encantados con el texto”, asevera Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi. Su organización ha sido muy activa en Bruselas apoyando una postura restrictiva acerca de estas herramientas.
“Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, explica Jakubowska. Tampoco estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview. “Esa es una muy buena noticia”, considera la británica.
La policía seguirá pudiendo manejar estos sistemas, pero con nuevas restricciones: siempre de forma retrospectiva (no en tiempo real) y en el contexto de crímenes específicos, para buscar a personas específicas y con orden judicial. “Todavía queda mucho hasta que se apruebe el texto definitivo, que puede cambiar. Pero hoy debemos alegrarnos por este triunfo significativo de los derechos humanos”, dice Jakubowska.
Regulación por uso
Para conseguir que una normativa como esta, que regula tecnologías en constante transformación, no quede anticuada aun antes de su entrada en vigor, el reglamento de la IA se basa no en regular tecnologías concretas, sino sus usos, creando categorías que van desde el riesgo “inaceptable” (prohibidas por la legislación) a otras menores que son aceptadas, aunque sometidas a rigurosos controles para que no afecten a las libertades y derechos ciudadanos. En su propuesta, los eurodiputados amplían en este sentido la clasificación de “áreas de alto riesgo”, permitida pero sujeta a obligaciones estrictas antes de que un producto en esta categoría pueda ser comercializado. Así, incluyen en ella aquellos sistemas de IA que puedan afectar la salud o seguridad de los ciudadanos, así como sus derechos fundamentales o el medioambiente. También categorizan como de “alto riesgo” los sistemas de IA que puedan “influir a votantes en campañas políticas”, así como los de recomendación que usan las plataformas sociales.
Para que la normativa europea pueda ser aplicada a nuevas tecnologías como los sistemas generativos del ChatGPT, que debería entrar en la categoría de “alto riesgo”, los eurodiputados agregan además nuevas definiciones: por un lado, incluyen el concepto de “modelo fundacional”, o gran modelo, para cubrir la IA generativa —capaz de crear nuevos contenidos originales de audio, texto o imágenes a partir de la observación de otros datos—. También agregan la definición “sistemas de IA de propósito general”, que explican como “un sistema de IA que puede ser usado para y adaptado a un amplio espectro de aplicaciones para el que no fue diseñado intencional y específicamente”, y que deberá incluir a esos “modelos fundacionales”.
Los proveedores de estos modelos fundacionales deberán, según la propuesta de los eurodiputados, garantizar una “protección robusta” de los derechos fundamentales ciudadanos, para lo que deberán “evaluar y mitigar riesgos, cumplir con los requisitos de diseño, información y medioambientales” europeos y estar “registrados” en la base de datos de la UE.
Modelos generativos como ChatGPT deberán cumplir requisitos adicionales de “transparencia”: así, tendrán que dejar claro que el contenido fue generado por un sistema de IA. Además, deberán diseñar sus modelos de forma tal que impidan que estos creen contenido ilegal y, en aras de la protección de los derechos de autor, deberán publicar los datos usados para el entrenamiento de estos sistemas, de manera tal que si un autor considera que se han violado sus derechos mediante el uso de su material por los algoritmos, pueda acudir a las vías legales existentes en la UE para reclamar o exigir una indemnización.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.