Ir al contenido
_
_
_
_
editorial
Opinión

Tomarse en serio las advertencias de la IA

El anuncio de que Anthropic tiene un modelo de IA que puede penetrar cualquier software obliga a los gobiernos a implicarse en el control de esta tecnología

El CEO de Anthropic Dario Amodei, a su llegada a la Casa Blanca para una entrevista con Trump en abril.JESSICA KOSCIELNIAK (REUTERS)

El pasado 9 de abril, Anthropic, una de las empresas que pugnan por ser la punta de lanza de la inteligencia artificial generativa en el mundo, anunció que su modelo Mythos había detectado “miles” de vulnerabilidades de software “de alta y crítica gravedad” que no habían encontrado ni siquiera sus propios desarrolladores. La empresa ha advertido que el modelo puede hacer lo mismo con cualquier sistema informático, y anuncia que no va a poner esta herramienta por ahora en manos del público porque le preocupa lo que podrían hacer con ella actores malignos. Mientras, ha creado un grupo de trabajo con medio centenar de empresas, entre ellas rivales como Apple y Microsoft, para probar lo que puede hacer Mythos con sus sistemas.

Anthropic se distingue, al menos en su imagen pública, por ser una empresa más ética y consciente de las repercusiones negativas de la inteligencia artificial generativa que sus rivales, como OpenAI, de Sam Altman, y xAI, de Elon Musk. Este compromiso le llevó a un enfrentamiento con el presidente de EE UU, Donald Trump, por los posibles usos militares y de espionaje de sus modelos de IA. Ante la negativa de Anthropic a levantar sus protecciones éticas, Trump ordenó cancelar los contratos del Pentágono con la empresa. De inmediato, OpenAI la sustituyó.

Por otro lado, Anthropic compite, como las demás, por un mercado comercial que todavía no justifica las exorbitantes inversiones realizadas hasta ahora (incluyendo generosas cantidades de dinero público) y diferenciarse de los rivales es crítico. Ante las voces de alerta sobre la sostenibilidad del crecimiento de la industria, las alarmas de Anthropic sobre el desarrollo de la IA generativa pueden leerse como un llamamiento a la pausa.

Nadie sabe cuánto hay de estrategia comercial en el misterio alrededor de las capacidades supuestamente catastróficas de Mythos, pero algunas instituciones se lo han tomado muy en serio. El Banco Central Europeo ha alertado a los bancos del continente para que revisen sus sistemas informáticos y protocolos de ciberseguridad. Pero las implicaciones van mucho más allá del sector bancario. Sistemas de armamento, de protección de infraestructuras críticas, de transporte o de abastecimiento si los modelos de IA son capaces de penetrar cualquier sistema informático. Todos lo ordenes de la vida pasan hoy por algún tipo de software.

La advertencia de Anthropic, sobre todo, es una señal de que la inteligencia artificial generativa, como toda herramienta, puede ser un arma. Por tanto, debe ser tratada como tal. Si amenaza sistemas críticos para el orden social y la economía, su desarrollo ya no puede ser decisión únicamente de un puñado de compañías norteamericanas de acuerdo a sus intereses comerciales. Mythos puede ser un antes y un después en el desarrollo de la IA. Debe serlo también en la forma en que los gobiernos se implican en el control de esta tecnología.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_