Ir al contenido
suscríbete

La IA necesita salir a Bolsa

Nadie sabe si conseguirá llegar triunfante y victoriosa o si lo hará sangrando por heridas muy difíciles de curar

Sam Altman, en Nueva Delhi el pasado 19 de febrero.RAJAT GUPTA (EFE)

Anthropic y OpenAI ya están contratando bancos y desplegando sus plumas en anticipación de una inminente salida a Bolsa. No les queda más remedio: han levantado una cantidad insensata de dinero para financiar sus pantagruélicos centros de datos y los inversores ...

Suscríbete para seguir leyendo

Lee sin límites

Anthropic y OpenAI ya están contratando bancos y desplegando sus plumas en anticipación de una inminente salida a Bolsa. No les queda más remedio: han levantado una cantidad insensata de dinero para financiar sus pantagruélicos centros de datos y los inversores originales quieren recuperar al menos parte de su inversión. El futuro de esta apuesta es impredecible, más teniendo en cuenta que la inteligencia artificial (IA) es el principal motor de expectativas económicas y de inversión en EE UU. Y el presente es convulso, hasta para los estándares del sector.

Anthropic ha demandado al Gobierno, que la ha etiquetado como un peligro para la cadena de suministro por negarse a ayudar al Pentágono a espiar de forma masiva a ciudadanos estadounidenses y automatizar armas capaces de activar procesos de selección y ejecución de personas sin supervisión humana. Al mismo tiempo, ha anunciado una actualización de su modelo que es “demasiado peligrosa para ser liberada”. Aparentemente, Claude Mythos es capaz de encontrar agujeros de seguridad en los grandes monocultivos de software, incluyendo fallos antiguos en sistemas críticos a lo largo de todo el planeta, y de explotarlos juntos o por separado con una agente de IA o una cadena de prompts. El sueño húmedo de un hacker, pero también de un jefe de seguridad. En teoría, el mundo debería ser más seguro con una herramienta capaz de encontrar las grietas en las infraestructuras críticas. En la práctica, el acceso a esas herramientas está siendo asimétrico, opaco, interesado y potencialmente peligroso.

Anthropic ha limitado su acceso a un puñado de grandes empresas, partners verificados y gobiernos seleccionados, bajo el paraguas del Proyecto Glasswing, para evitar usos delictivos y retrasar la proliferación de esas capacidades. Pero los accidentes ocurren. Hace unos días, filtraron por accidente medio millón de líneas de código de Claude Code, revelando partes importantes de su arquitectura y lógica interior. Y cabe preguntarse si hay alguien más peligroso que Elon Musk, Peter Thiel o el mismo Donald Trump.

OpenAI acaba de cerrar la mayor ronda de financiación privada de la historia, con una recaudación de 122.000 millones de dólares y una valoración de aproximadamente 850.000 millones. Un milagro teniendo en cuenta que circula sin talento, desde que perdió a Ilya Sutskever en 2024. Ha abandonado Sora, su modelo de video generativo, y se ha ofrecido voluntaria para ayudar al Gobierno a cometer las fechorías que Anthropic rechazó. Otro que ya no se lleva el Nobel de la Paz. La semana pasada, la revista The New Yorker publicó una investigación sobre su consejero delegado, Sam Altman, con más de 200 páginas de documentos internos y un centenar de testimonios con experiencias de primera mano. Sus autores, Ronan Farrow y Andrew Marantz, destacan un patrón de conducta persistente del ejecutivo: miente de forma compulsiva, manipula con abandono y traiciona sin pudor.

Es el mismo patrón que demostró en su famosa gira europea. El mismo que la periodista e ingeniera estadounidense de origen chino Karen Hao también identificó en una investigación independiente de dos años, sin los privilegios de un apellido ilustre, el prestigio de una gran cabecera ni la protección legal de Conde Nast. Extrañamente, los autores apenan la mencionan aunque su libro El imperio de la IA ha sido uno de los fenómenos de ventas de 2025 y ha ganado el premio del National Book Critics Circle en la categoría de no ficción.

Archivado En