EE UU y la UE propondrán un “código de conducta” voluntario para la inteligencia artificial generativa

La propuesta busca rellenar el vacío legal hasta que entre en vigor la Ley de Inteligencia Artificial, que sigue en vías de negociación en las instituciones europeas

La comisaria Margrethe Vestager, tras la reunión del Consejo de Comercio y Tecnología UE-EE UU. Foto: JONAS EKSTROMER (EFE) | Vídeo: EPV
Bruselas -

Estados Unidos y la Unión Europea comparten la fascinación, y la preocupación, por todas las posibilidades —y riesgos— que implica el rápido avance de la inteligencia artificial (IA) generativa en todos los ámbitos. Europa ya se prepara con una ley pionera que busca regular todos los aspectos de la IA, pero hasta que se apruebe —todavía está e...

Suscríbete para seguir leyendo

Lee sin límites

Estados Unidos y la Unión Europea comparten la fascinación, y la preocupación, por todas las posibilidades —y riesgos— que implica el rápido avance de la inteligencia artificial (IA) generativa en todos los ámbitos. Europa ya se prepara con una ley pionera que busca regular todos los aspectos de la IA, pero hasta que se apruebe —todavía está en fase de negociación legislativa en Bruselas— y entre en vigor, pueden pasar todavía años. Unos años preciosos en los que este tipo de tecnología puede seguir avanzando sin control. Es lo que quieren evitar Washington y Bruselas, que se proponen presentar en breve un “código de conducta” voluntario para las empresas que desarrollen este tipo de tecnología, según se ha avanzado este miércoles en un encuentro bilateral en Suecia.

“En las próximas semanas, avanzaremos una propuesta de un código de conducta para IA generativa al que la industria pueda comprometerse de manera voluntaria”, ha revelado la vicepresidenta de la Comisión Europea para el área digital y de competencia, Margrethe Vestager, al término de un encuentro ministerial del ramo con Estados Unidos en Lulea, Suecia. El texto, elaborado junto con Estados Unidos y para el que será consultada tanto la industria como expertos, debería estar “muy, muy pronto, en las próximas semanas”, ha agregado.

El anuncio se produce 24 horas antes de que Sam Altman, el fundador de la empresa OpenAI creadora de ChatGPT, la tecnología que ha hecho saltar todas las alarmas, llegue a Bruselas en el marco de una gira europea que le ha llevado a varias capitales, incluida Madrid. En la sede de la UE, Altman, que es uno de los defensores de una regulación de la IA generativa, se reunirá con la presidenta de la Comisión Europea, Ursula von der Leyen, en una “reunión de trabajo” cerrada a la prensa. Pero antes, Altman se ha reunido con Vestager y la secretaria estadounidense de Comercio, Gina Raimondo, en Lulea, donde han tratado el posible código de conducta voluntario, que según las “ideas” discutidas con los desarrolladores de IA generativa, podría incluir controles como marca de agua, o auditorías externas, ha dicho Vestager en un tuit.

La UE quiere ser pionera en la regulación de la Inteligencia artificial, para lo cual ha realizado una propuesta legislativa, la AI Act. El texto debería ser aprobado en el próximo pleno del Parlamento Europeo, a mediados de junio, tras lo cual comenzará la etapa de negociación con el Consejo de la UE y la Comisión para llegar a un acuerdo sobre un texto final que, tras su nueva ratificación por los Veintisiete y la Eurocámara, entrará en vigor en toda la UE.

Pero tal como ha señalado Vestager este miércoles, la IA generativa supone un punto de inflexión “tan poderoso” que quizás no sea posible esperar a que los legisladores acaben su trabajo. “Tenemos varios procedimientos legislativos diferentes, tomarán 2 o 3 años antes de que entren en vigor, y estamos hablando de una aceleración tecnológica increíble”, ha explicado Vestager en una comparecencia junto al secretario estadounidense de Estado, Anthony Blinken, y Raimondo.

Un código de conducta voluntario, al que según Vestager se intentará que se unan empresas de otros países, como Canadá, Reino Unido, Japón o la India, podría suponer un “puente” regulador hasta que entre en vigor la reglamentación en marcha —o futuras leyes en otras regiones— y dar así confianza a la ciudadanía de que “las democracias responden” ante sus retos e inquietudes.

Este movimiento se produce justo un día después de que un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología firmaran una carta abierta de tan solo 22 palabras sobre el riesgo de esta tecnología. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, cita el enunciado que ha sido firmado, entre otros, por los altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic). Entre los firmantes también se encuentran los investigadores Geoffrey Hinton y Yoshua Bengio, a quienes menudo se les considera padrinos del movimiento moderno de IA. Hinton dejó hace unas semanas Google, donde ocupaba una vicepresidencia, porque cree que esta tecnología puede llevarnos al fin de la civilización en cuestión de años, según confesaba a EL PAÍS.

La declaración llega en un momento de creciente preocupación hacia un sector en rápido desarrollo y difícil de controlar. El mismo Sam Altman se había ya pronunciado sobre este tema durante su comparecencia ante el Senado estadounidense, cuando reconoció la importancia de regular la inteligencia artificial generativa. “Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”, dijo hace apenas dos semanas durante la primera audiencia sobre IA celebrada en el Capitolio. El padre de OpenAI añadió que comprendía que la “gente esté ansiosa por cómo [la IA] puede cambiar la forma en que vivimos”, y que por esta razón es necesario “trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas”.

Tampoco era la primera vez que uno de los empresarios más involucrados en esta tecnología hacían declaraciones de esta envergadura con respeto al futuro de la IA. En marzo, más de un millar de intelectuales, investigadores y empresarios habían firmado otra carta abierta en la que solicitaban frenar durante “al menos seis meses el desarrollo de sistemas de IA más poderosos que GPT4″, la última versión de ChatGPT. En la carta, los firmantes advertían de que la herramienta de OpenAI ya es capaz de competir con los humanos en un creciente número de tareas, y que se podría utilizar para destruir empleo y difundir desinformación.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Más información

Archivado En