Las grandes compañías de inteligencia artificial lanzan un fondo para hacerla más segura

Google, Microsoft, OpenAI y Anthropic habían creado un grupo de trabajo para promover la investigación cuidadosa de esta tecnología

El director ejecutivo de Alphabet, Sundar Pichai, izquierda, y el director ejecutivo de OpenAI, Sam Altman, llegan a la Casa Blanca para una reunión con la vicepresidenta Kamala Harris sobre inteligencia artificial, en mayo de 2023.Evan Vucci (AP)

Las principales compañías de inteligencia artificial (IA) han anunciado la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, para apoyar a investigadores independientes que creen herramientas para evaluar y probar los modelos más potentes. Anthropic, Google, Microsoft y OpenAI ya habían creado la organización Frontier Model Forum, que ahora recibe sus primeros fondos...

Suscríbete para seguir leyendo

Lee sin límites

Las principales compañías de inteligencia artificial (IA) han anunciado la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, para apoyar a investigadores independientes que creen herramientas para evaluar y probar los modelos más potentes. Anthropic, Google, Microsoft y OpenAI ya habían creado la organización Frontier Model Forum, que ahora recibe sus primeros fondos y el nombramiento de un director ejecutivo.

La financiación inicial es de 10 millones de dólares. Todas estas empresas se mueven en valoraciones e inversiones que rondan los miles de millones de dólares: solo Microsoft invirtió en OpenAI 10.000 millones. Anthropic está en conversaciones para recibir más de 3.000 millones de Google y Amazon.

Las empresas creen que así cumplirán parte de los compromisos firmados con la Casa Blanca sobre crear una IA responsable: “A principios de este año, los miembros del Foro firmaron compromisos voluntarios de IA en la Casa Blanca, que incluían el compromiso de facilitar el descubrimiento por parte de terceros y la notificación de vulnerabilidades en nuestros sistemas de IA. El Foro considera que el Fondo de Seguridad de la IA es una parte importante para cumplir este compromiso al proporcionar financiación a la comunidad externa para evaluar y comprender mejor los sistemas más avanzados”, dice su nota de prensa.

El Forum también ha nombrado como nuevo director ejecutivo a Chris Meserole, que viene del think tank Brookings Institution. “Los modelos de IA más potentes son muy prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Estoy entusiasmado de asumir ese desafío con el Forum”, ha dicho Meserole.

Estos modelos, cada vez más sofisticados, tienen capacidades que pueden ser desconocidas por la empresa que los crea. Este fondo es un modo de recibir algo de ayuda desde fuera para conocer posibles impactos negativos.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Más información

Archivado En