_
_
_
_
_

Cómo y por qué quiere Europa regular ChatGPT

Bruselas debate internamente la forma de garantizar que la inteligencia artificial generativa no erosione los derechos de los ciudadanos

Un móvil con el logo de OpenAI, empresa desarrolladora de ChatGPT, frente a una pantalla con una respuesta aportada por la herramienta.Foto: ASSOCIATED PRESS/LAPRESSE (AP)

Todas las instituciones quieren regular ChatGPT. El célebre robot conversacional basado en inteligencia artificial (IA) generativa empieza a levantar suspicacias por el mundo. Se temen sus efectos sobre la privacidad de los usuarios, su potencial para difundir desinformación y la posible destrucción de empleo que puede traer consigo si se implanta en el entorno laboral y realiza funciones de trabajadores.

Más de un millar de especialistas reclamaron hace dos semanas en una carta conjunta una moratoria de seis meses en el desarrollo de estos programas. Y los gobiernos han respondido a esa llamada de socorro. Estados Unidos abrió este martes un periodo de dos meses para recoger ideas sobre cómo regular este tipo de herramientas. China ya ha presentado una normativa para regular la IA generativa, según avanzó Reuters: las empresas que quieran usar esa tecnología deberán acreditar ante Pekín que cumplen una serie de requisitos de seguridad.

¿Qué pasa en Europa? En el Viejo Continente, la situación es más compleja. El asunto avanza a otro ritmo y por varios flancos a la vez. Estas son algunas de las claves del debate que se está viviendo en la UE estos días:

¿Cómo funciona ChatGPT?

ChatGPT4 es la última versión de un gran modelo de lenguaje (LLM en sus siglas inglesas). Ese es el nombre que reciben sistemas de inteligencia artificial, o más concretamente de aprendizaje profundo, entrenados con cantidades ingentes de datos (en este caso, textos) para poder mantener diálogos con el usuario. El programa procesa millones de textos (en el caso de ChatGPT4, todo internet) y aplica una serie de algoritmos para tratar de predecir cuál es la palabra que tiene más probabilidades de suceder a las anteriores en una frase coherente. Por ejemplo, si se teclea “el cielo es de color”, el sistema se ha entrenado leyendo los suficientes textos como para poder decir “azul”.

El aumento de la potencia computacional de los últimos años, la sofisticación de los algoritmos encargados de realizar ese entrenamiento y las enormes bases de datos empleadas en el proceso han conseguido que la operación vaya mucho más allá de predecir una palabra. ChatGPT, igual que otros modelos similares, es capaz de escribir textos enteros coherentes y sin faltas de ortografía. El algoritmo tiene en cuenta 175.000 millones de parámetros cada vez que se le formula una pregunta. El resultado puede resultar asombroso.

¿Qué amenaza supone para los usuarios?

El problema de las respuestas que aporta ChatGPT es que son coherentes, pero no necesariamente ciertas. Así lo advierte el propio programa según se inicia: “Puede generar ocasionalmente información incorrecta”, así como “instrucciones dañinas o contenidos sesgados”. También se avisa de que el sistema “tiene un conocimiento limitado del mundo después de 2021″, fecha hasta la que abarca la base de datos con la que se entrenó el modelo.

Además de la calidad de la información (o desinformación) que genera la herramienta, existe el miedo de que la creciente sofisticación del modelo (se acaba de presentar ChatGPT4 y ya se está trabajando en la versión 5) pueda acabar realizando el trabajo desempeñado hasta ahora por personas.

¿Qué se ha hecho hasta ahora en la UE?

La Agencia Española de Protección de Datos (AEPD) y sus homólogos europeos se reunieron este jueves en el Comité Europeo de Protección de Datos (EDPB por sus siglas inglesas), el organismo en el que coordinan fuerzas. Decidieron poner en marcha “un grupo de trabajo” para intercambiar información al respecto. Las instituciones comunitarias no han adoptado ninguna medida concreta respecto a ChatGPT.

Quienes sí lo han hecho son algunos de los países miembros. El último de ellos, España: la AEPD anunció el jueves por la tarde el “inicio de oficio de actuaciones previas de investigación” a OpenAI, la empresa que ha desarrollado ChatGPT. Según fuentes de la agencia, eso no implica que se vayan a tomar medidas contra la compañía, sino que se está explorando si la situación “justifica la tramitación de un procedimiento”. Italia, por su parte, bloqueó hace dos semanas la aplicación hasta dirimir si infringe la normativa europea de protección de datos. Las autoridades francesa, irlandesa y alemana también investigan esa posibilidad.

Por otra parte, el comisario de Mercado Interior, Thierry Breton, adelantó la semana pasada que los contenidos creados por IA deberán llevar una advertencia específica de su origen. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido originado por estas”, señaló.

¿Por qué se quiere regular?

Hasta el momento, la amenaza más inmediata sobre los intereses de los ciudadanos europeos se ha detectado en materia de privacidad. El propio ChatGPT avisa a sus usuarios de que no introduzcan en el sistema “datos personales”. Pero eso no es suficiente.

Preguntadas sobre los motivos que le han llevado a iniciar “actuaciones previas de investigación”, fuentes de la AEPD dicen que no pueden revelar detalles para no perjudicar la tramitación del expediente. Según expertos consultados, las posibles infracciones de la normativa podrían tener que ver con el uso de las conversaciones que mantienen los usuarios de ChatGPT con la propia herramienta para entrenarlo, así como con una custodia de los datos personales y de pago de estos que no cumpla con todas las garantías de seguridad exigidas en la UE.

¿Cómo se quiere regular?

En Bruselas hay un debate de puertas adentro sobre cuál es la mejor forma de afrontar la situación. La opinión mayoritaria es que la UE ya está (o estará) dotada de regulaciones suficientes como para controlar los posibles efectos adversos de la IA generativa.

La punta de lanza de esta estrategia es el Reglamento Europeo de la IA (AI Act), un documento que se viene negociando desde 2019 y cuyo texto definitivo aún debe ser aprobado por todas las instituciones europeas. No se cuenta con que pueda entrar en vigor antes de finales del año que viene o incluso de 2025. El texto clasifica las tecnologías en función del riesgo que ofrecen a los ciudadanos y asigna limitaciones en consecuencia. Las más inofensivas puede operar sin problemas, pero las de alto riesgo están prohibidas. Entran en este último capítulo, por ejemplo, el uso de sistemas automáticos de reconocimiento facial en espacios públicos o los sistemas de puntuaciones de crédito social, algo que ya funciona en China.

Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que la IA generativa se incluyese en la categoría de alto riesgo. “Me parece razonable, pero está habiendo mucha presión de las tecnológicas para que no se incluya ahí”, asegura a EL PAÍS un eurodiputado que ha participado en la negociación y redacción del borrador de reglamento de la IA.

Otro europarlamentario involucrado también en el proceso, el rumano Dragos Tudorache, dijo esta semana en una conferencia que la respuesta de la UE a los desafíos de ChatGPT se debería encauzar por el reglamento AI Act, y no a través del Reglamento General de Protección de Datos (RGPD), la normativa a la que se ha acogido Italia para prohibir la herramienta. “Estoy convencido de que necesitamos una respuesta unificada”, subrayó.

¿Hace falta una nueva normativa?

Fuentes de la Comisión consideran que el futuro reglamento de la IA “está diseñado a prueba de retos futuros”. Al regular los usos, no las tecnologías en sí, la normativa puede adaptarse a retos como la súbita explosión del fenómeno de la IA generativa, de cuya existencia somos plenamente conscientes desde el lanzamiento en abierto de ChatGPT en noviembre del año pasado.

De acuerdo con este enfoque, la tecnología que está detrás de ChatGPT no se prohibiría a menos que se considerara de alto riesgo. “Pero si alguien la usa, por ejemplo, para procesar datos de salud, entonces sí se le aplicaría la normativa”, apunta Jan Philipp Albrecht, presidente de la fundación alemana Heinrich Böll, vinculada a Los Verdes. “Ese es el problema que aparece ahora: si queremos regular con más fuerza la IA generativa, habría que introducir una categoría nueva que diga que la IA de propósito general se debe considerar de alto riesgo si puede interceder en campos de riesgo”, añade. Eso es lo que quieren evitar a toda costa las tecnológicas; para eso organizan reuniones con los legisladores europeos.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_