Control de la inteligencia artificial

La propuesta de la UE exige a sistemas como el ChatGPT transparencia en los datos e identificación de las fuentes

El logo de OpenAI, creador de ChatGPT.Michael Dwyer (AP)

El Parlamento Europeo acaba de poner las bases para la regulación de la inteligencia artificial apenas unos meses después de la comercialización masiva del ChatGPT, cuando Google acaba de lanzar su ...

Suscríbete para seguir leyendo

Lee sin límites

El Parlamento Europeo acaba de poner las bases para la regulación de la inteligencia artificial apenas unos meses después de la comercialización masiva del ChatGPT, cuando Google acaba de lanzar su propio chatbot Bard y dos años después del empujón inicial de la Comisión Europea. No toda la ingente inteligencia artificial requiere una regulación específica porque es una tecnología integrada ya de forma natural en la vida cotidiana: el algoritmo que detecta el spam o los videojuegos son también IA, y multitud de las gestiones que realizamos a diario con el móvil en la mano las hacemos con su ayuda.

El objetivo de la Ley de Inteligencia Artificial impulsada por Thierry Breton y respaldada por una amplísima mayoría es doble: regula el uso de las fuentes y los datos de los que se nutren los modelos generativos —algoritmos capaces de aprender para producir contenidos nuevos— e impone restricciones destinadas a impedir los usos maliciosos de la IA que puedan vulnerar los derechos de protección de datos y privacidad de los ciudadanos. Las empresas tecnológicas deberán extremar la transparencia con la indicación visible de que los resultados generados en forma de texto, imágenes o audios son creaciones de IA para evitar que su apariencia de credibilidad confunda al ciudadano sobre su autoría y sobre su autenticidad. Deberán también indicar de forma clara las fuentes de las que se ha nutrido y con las que se ha entrenado al sistema para proteger los derechos de autor y de propiedad intelectual. Legislar este extremo e incluso prever formas de compensación económica es crucial para garantizar la viabilidad de la industria de medios y el ecosistema cultural del que se nutren hoy gratuitamente los modelos generativos.

La decisión de establecer cuatro niveles de riesgo de la IA —desde “inaceptable” hasta “mínimo”— transparenta la conciencia de su peligrosidad en el ámbito del derecho a la privacidad. Las amenazas están fundamentalmente en los usos perversos en manos de gobiernos o de empresas de los sistemas de vigilancia masiva biométrica. La propuesta de los europarlamentarios veta los “usos intrusivos y discriminatorios” de algunas de las opciones de la IA y, en particular, los sistemas de reconocimiento facial en espacios públicos, que solo serán posibles bajo autorización judicial en investigaciones policiales graves. Quedan vetados también los sistemas que usen rasgos de raza, religión o afinidad política para predecir conductas delictivas.

El impacto de la IA es ya muy alto en las sociedades occidentales; antes que estigmatizar o demonizar sus sistemas más avanzados es preferible prever los efectos negativos de una revolución tecnológica que avanza a una velocidad vertiginosa. Su extraordinario potencial puede afectar a campañas de intoxicación política o favorecer sesgos determinados en sus respuestas artificiales de acuerdo con el entorno de entrenamiento. Garantizar la transparencia de su funcionamiento, la calidad de los datos que maneja y exigir la identificación de sus fuentes es la condición necesaria para que el ciudadano sepa qué es lo que ofrece un sistema capaz de dar un servicio de gran utilidad en múltiples profesiones. Pero es la confianza y la seguridad del ciudadano sobre su fiabilidad lo que ha de estar en la base del modelo. La capacidad para generar textos o imágenes creíbles y coherentes pero falsos y el potencial uso malicioso nos desafía a todos. La UE ha sido pionera con esta ley, aunque el objetivo siguiente tendrá que ser la coordinación de las medidas de control de la IA con otras regiones del planeta y crear los mecanismos para que su cumplimiento sea efectivo.

Más información

Archivado En