El dinero impone su ley en OpenAI
Empleados e inversores tenían poderosos incentivos económicos para forzar la vuelta de Sam Altman a la empresa de inteligencia artificial que ha desarrollado ChatGPT
La insólita crisis de OpenAI tiene los ingredientes de múltiples tramas cinematográficas. En una película de suspense, Sam Altman es el héroe: el líder visionario despedido injustamente que vuelve a la empresa por aclamación de los empleados. En otra de ciencia ficción, es el villano: el directivo que entregó la inteligencia artificial a los intereses comerciales y provocó la desaparición de la humanidad. El despido y ...
La insólita crisis de OpenAI tiene los ingredientes de múltiples tramas cinematográficas. En una película de suspense, Sam Altman es el héroe: el líder visionario despedido injustamente que vuelve a la empresa por aclamación de los empleados. En otra de ciencia ficción, es el villano: el directivo que entregó la inteligencia artificial a los intereses comerciales y provocó la desaparición de la humanidad. El despido y readmisión de Altman tienen sus raíces en la tensión entre los catastrofistas y los pragmáticos a cuenta de la inteligencia artificial, pero también reflejan la pugna entre la concepción de OpenAI como una empresa sin ánimo de lucro y su ascenso como la start up más valiosa de Silicon Valley. En esa última batalla, el dinero parece haber impuesto su ley, al tiempo que los múltiples giros de guion prueban los problemas de gobernanza de la firma.
Walter Isaacson, biógrafo de Elon Musk, cuenta que la decisión de fundar OpenAI surgió en una cena privada del fundador de Tesla con Sam Altman en Palo Alto (California), en pleno Silicon Valley. En aquel momento, Google encabezaba la carrera de la inteligencia artificial, pero Musk y Altman pensaban que lo hacía sin reparos morales sobre la seguridad y los potenciales riesgos para la humanidad. La idea inicial era crear un laboratorio de inteligencia artificial sin ánimo de lucro que diseñaría un software de código abierto e intentaría contrarrestar el creciente dominio de Google en el ámbito.
Musk y Altman ficharon como científico jefe a un ingeniero de investigación de Google, Ilya Sutskever, con un salario de 1,9 millones de dólares más bonus. Eso provocó la ruptura de relaciones entre Musk y Larry Page, uno de los cofundadores de Google.
OpenAI se fundó como una organización sin ánimo de lucro a finales de 2015 con el objetivo proclamado de “construir una inteligencia artificial general segura y beneficiosa para la humanidad”. Se lanzó con el objetivo de lograr 1.000 millones de dólares en donaciones. Tras varios años la cifra recaudada estaba en 130,5 millones, que sirvieron para financiar el funcionamiento de la organización y su trabajo exploratorio inicial. La superinteligencia es la que supera a la humana, también conocida como inteligencia artificial general (AGI, por sus siglas inglesas).
Musk rompió con OpenAI en 2018, tras intentar que se integrase con los proyectos de inteligencia artificial de Tesla, a lo que Altman se negó. Entonces buscó cómo acceder a más recursos. “Cada vez estaba más claro que las donaciones por sí solas no podrían compensar el coste de la potencia computacional y el talento necesarios para impulsar la investigación básica, poniendo en peligro nuestra misión”, explican en la empresa,
Se creó una nueva estructura. Se mantenía la organización sin ánimo de lucro con su consejo como órgano rector de todo el grupo, pero nacía una nueva filial con capacidad para emitir acciones, contratar nuevos empleados y captar capital. Esa nueva empresa tiene sus beneficios limitados, está obligada a perseguir la misión de la entidad sin ánimo de lucro y está controlada por ella “para investigar, desarrollar y desplegar la superinteligencia, de forma que se equilibre la comercialización con la seguridad y la sostenibilidad, en lugar de centrarse en la mera maximización del beneficio”, según OpenAI.
La firma dejaba y sigue dejando claro que invertir en ella es una apuesta “de alto riesgo”. Los inversores pueden perder todo el dinero sin lograr ningún retorno, advierte en su página web, que va todavía más allá: “Sería prudente considerar cualquier inversión en OpenAI Global, LLC [la filial empresarial] con el espíritu de una donación, en el entendimiento de que puede ser difícil saber qué papel desempeñará el dinero en un mundo post inteligencia artificial general”.
La compañía establecía que el principal beneficiario debía ser la humanidad, no los inversores de OpenAI. Aun así, esa forma societaria fue suficiente para empezar a captar sumas multimillonarias. Inversores de capital riesgo también hicieron sus aportaciones en 2018 y poco después la firma llegó a un acuerdo estratégico con Microsoft. La empresa fundada por Bill Gates inyectó primero 1.000 millones de dólares como parte de un acuerdo en que se convertía en su socio tecnológico y de computación; luego otros 2.000 y finalmente llegó a un acuerdo por 10.000 millones adicionales, sin exigir representación en el consejo.
Microsoft tiene acceso a licencias de propiedad intelectual y de comercialización de ciertos desarrollos, pero el consejo tiene la potestad de determinar que se ha alcanzado la inteligencia artificial general y Microsoft no tendría derecho sobre la misma.
Pese a las cautelas adoptadas, el giro empresarial levantó suspicacias. Los hermanos Daniela y Dario Amodei, vinculados al movimiento del altruismo efectivo ―que pone el acento en los riesgos de la inteligencia artificial― dejaron OpenAI por sus diferencias con los acuerdos con Microsoft y con la dirección que estaba tomando y fundaron otra empresa de inteligencia artificial con sede en San Francisco, Anthropic, junto a otros antiguos empleados de OpenAI. Uno de los principales inversores iniciales en Anthropic fue Alameda Research, la firma paralela de Sam Bankman-Fried, declarado culpable de diversos delitos por la caída del mercado de criptomonedas FTX. Anthropic ha acabado recurriendo a fondos de Google y Amazon para financiarse.
El propio Musk sigue sin aceptar muy bien aquel cambió de orientación de OpenAI. Según cuenta Isaacson en su biografía, Musk retó a Altman a principios de este año a que justificara legalmente el cambio con los documentos fundacionales de OpenAI en la mano. Altman trató de demostrarle que todo era legítimo, pero no le convenció. “OpenAI fue creada como una empresa de código abierto (por eso le di el nombre de Open AI), sin ánimo de lucro para que sirviera como contrapeso de Google, pero ahora se ha convertido en una empresa de código cerrado y maximización de beneficios controlada en términos efectivos por Microsoft”, dijo, según Isaacson.
La herida de Musk, de hecho, no ha cicatrizado. Esta semana, al hilo de la crisis de la firma de inteligencia artificial, retransmitida en directo en buena medida en X, su red social, el multimillonario magnate ha difundido una carta de supuestos antiguos empleados de OpenAI con ataques a Altman y su aliado Greg Brockman. “A lo largo de nuestro tiempo en OpenAI, hemos sido testigos de un inquietante patrón de engaño y manipulación por parte de Sam Altman y Greg Brockman, impulsados por su insaciable afán de lograr la inteligencia general artificial (AGI). Sus métodos, sin embargo, han suscitado serias dudas sobre sus verdaderas intenciones y hasta qué punto priorizan realmente el beneficio de toda la humanidad”, decían en esa carta.
“Muchos de nosotros, al principio esperanzados con la misión de OpenAI, optamos por dar a Sam y Greg el beneficio de la duda. Sin embargo, a medida que sus acciones se volvían cada vez más preocupantes, quienes se atrevían a expresar sus inquietudes eran silenciados o expulsados. Este silenciamiento sistemático de la disidencia creó un ambiente de miedo e intimidación, sofocando cualquier debate significativo sobre las implicaciones éticas del trabajo de OpenAI”, añadían, para pedir luego a los consejeros que no cedieran al regreso de Altman: “Imploramos al consejo de administración que se mantenga firme en su compromiso con la misión original de OpenAI y no sucumba a las presiones de los intereses lucrativos. El futuro de la inteligencia artificial y el bienestar de la humanidad dependen de su compromiso inquebrantable con el liderazgo ético y la transparencia”.
El consejo de administración de OpenAI era disfuncional. De él habían ido saliendo varios de sus miembros por diferencias con la empresa, por conflictos de intereses o por proyectos personales. Los consejeros eran incapaces de ponerse de acuerdo para cubrir las bajas. Había quedado reducido a seis componentes. Tres de ellos, empleados y fundadores: Greg Brockman, presidente; San Altman, consejero delegado, e Ilya Sutskever, científico jefe. Los otros tres, independientes: Adam D’Angelo, fundador de Quora; Tasha McCauley, ingeniera y emprendedora, y Helen Toner, de la Universidad de Georgetown. Estas dos últimas están vinculadas a la corriente del llamado altruismo efectivo, que aboga por poner coto al desarrollo de la inteligencia artificial, que ven como una caja de Pandora, una posible amenaza existencial para la humanidad.
El movimiento del altruismo efectivo levanta cada vez más contestación. Uno de sus críticos acérrimos, Marc Andreessen, otro inversor de larga trayectoria de Silicon Valley, recuerda que “el miedo a que la tecnología de nuestra propia creación se alce y nos destruya está profundamente arraigado en nuestra cultura”. Cree que con la inteligencia artificial se está repitiendo el mito de Prometeo, de Frankestein o de Terminator. “Mi opinión es que la idea de que la IA decidirá matar literalmente a la humanidad es un profundo error de categoría. (...) La idea de que en algún momento desarrollará una mente propia y decidirá que tiene motivaciones que le llevan a intentar matarnos es una superstición. En resumen, la IA no quiere, no tiene objetivos, no quiere matarte, porque no está viva. Y la IA es una máquina: no va a cobrar vida más de lo que lo hará tu tostadora”, sostiene tajante. “El ‘riesgo de la IA’ se ha convertido en un culto. (...) Resulta que este tipo de culto no es nuevo: existe una larga tradición occidental de milenarismo, que genera cultos apocalípticos. El culto del riesgo de la IA tiene todas las características de un culto milenarista del apocalipsis”, concluye.
Steven Pinker, científico cognitivo de la Universidad de Harvard, coincide: “Yo era un fan del altruismo efectivo (...), pero se convirtió en un culto. Estoy dispuesto a donar para salvar el mayor número de vidas en África, pero no para pagar a técnicos que se preocupan de que la IA nos convierta a todos en clips”, señalaba este viernes.
El caso es que, basándose en cuestiones de seguridad, la consejera Toner publicó en octubre un artículo académico que arremetía contra algunas decisiones de OpenAI y elogiaba las de su rival Anthropic, algo que Altman se tomó como una afrenta. “Anthropic reforzó la credibilidad de sus compromisos con la seguridad de la IA retrasando el lanzamiento anticipado de su modelo y absorbiendo posibles pérdidas de ingresos en el futuro”, escribía.
Al tiempo, otras actuaciones del consejero delegado no gustaban al consejo. Venía de celebrar junto al jefe de Microsoft, Satya Nadella, una conferencia con desarrolladores al más puro estilo de empresas como Apple. También estaba en un proceso de captar inversores con una valoración de la empresa cercana a los 86.000 millones. En paralelo buscaba financiación para nuevos proyectos. La víspera de su despido se había referido a un reciente avance que “empujaba el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante”.
La desconfianza se había instalado en el órgano de gobierno del que dependía todo el grupo. En ese momento, Sutskever se alineó por sorpresa con los tres independientes y juntos decidieron despedir a Altman y echar a Brockman del consejo en sendas videoconferencias el viernes a mediodía. La empresa acusaba a Altman de no haber sido sincero o franco con el consejo, por sorpresa y sin más explicaciones. El directivo de 38 años se conectó a su despido desde un hotel de Las Vegas, a donde había acudido a ver el Gran Premio de Fórmula 1 de ese fin de semana.
“La mayoría de las empresas del tamaño y la importancia de OpenAI tienen consejos de administración de entre ocho y 15 consejeros, la mayoría de los cuales son independientes y todos ellos tienen más experiencia en consejos de administración de esta envergadura que los consejeros independientes de OpenAI”, señalaba al estallar la crisis Marissa Mayer, directiva con una larga trayectoria de Silicon Valley. “No creo que cuenten con un asesoramiento jurídico sólido ni con buenas estructuras de gobernanza”, añadía.
El despido provocó un terremoto. Brockman decidió dejar no solo el consejo, sino dimitir de la empresa. Inversores y empleados empezaron a presionar, más aún cuando no se aportaron razones concretas para el despido. En una primera reunión del consejo con directivos, estos reprocharon al consejo que estaba poniendo en peligro el futuro de la compañía. La sorpresa fue monumental cuando la respuesta del consejo fue que “permitir la destrucción de la empresa sería coherente con la misión” que consideraban que tenían encomendada, de proteger a la humanidad.
Eso era demasiado para inversores y empleados. Unos consejeros independientes parecían dispuestos a llevarse por delante a la firma más prometedora en inteligencia artificial por unas supuestas amenazas para la humanidad poco fundamentadas. Para los empleados peligraba su creación, su trabajo y sus acciones. Se plantaron. En las redes sociales corazones de colores de los empleados se alternaban con un mensaje: “OpenAI no es nada sin su gente”. Altman fue el domingo a la sede de OpenAI a negociar su reincorporación. Llevaba una tarjeta de invitado. Tuiteó un selfi: “Primera y última vez que llevo una de estas”. Los consejeros independientes, sin embargo, se resistieron a ceder y ficharon a un consejero delegado provisional, Emmeth Shear, igual de apocalíptico.
Para los inversores también era una pesadilla. Eran conscientes de que la estructura del grupo es peculiar, pero no podían imaginarse que el propio consejo de administración actuase como un kamikaze. Microsoft, el que más se jugaba, se movió rápido y anunció el fichaje de Altman. Con eso se garantizaba no perder comba en la carrera de la inteligencia artificial. O mantenía la colaboración con OpenAI o se hacía con sus empleados. Para el resto, el riesgo era de perder el grueso de su inversión.
Con la oferta de Microsoft (y la de otras empresas) encima de la mesa, los empleados amenazaron con marcharse si no se readmitía a Altman. El 95% de los empleados firmaron una carta pidiendo la dimisión del consejo, entre ellos Mira Murati, la directora tecnológica, designada inicialmente como sustituta interina de Altman, y Sutskever, científico jefe, arrepentido de haber participado en el golpe, según un mensaje que publicó en la red social X.
Los incentivos económicos para seguir en OpenAI en lugar de marcharse a Microsoft eran muy fuertes. Los empleados tienen su participación en el capital y la valoración de la empresa antes de la actual crisis se había disparado hasta cerca de 90.000 millones de dólares a lomos del fulgurante éxito de ChatGPT, de cuyo lanzamiento se cumple un año este 30 de noviembre. Precisamente estaba en marcha una venta de acciones de empleados a inversores que habría hecho millonarios a varios trabajadores de OpenAI.
Pese al anuncio del fichaje, el jefe de Microsoft seguía dispuesto a que Altman volviese a ponerse al frente de OpenAI. Las negociaciones continuaron durante dos días. El propio Shear, segundo sustituto interino, apoyó la vuelta de Altman como el camino para “maximizar la seguridad sin dejar de hacer lo correcto para todas las partes implicadas”. Al final, la solución incluyó la dimisión de las dos consejeras independientes y de Sutskever. Se formó un consejo inicial con Bret Taylor, expresidente de X y ex consejero delegado de Salesforce, como presidente, con dos vocales: Adam D’Angelo, que se mantenía, y el ex secretario del Tesoro Larry Summers. Altman volvía a ser jefe ejecutivo de la empresa, pero sin ser miembro del consejo. “Estamos colaborando para resolver los detalles. Muchas gracias por su paciencia”, decía el tuit de la empresa. Para la plantilla, fue una fiesta. “Des-dimito”, dijo Brockman.
Los empleados de OpenAI tenían libre la semana de Acción de Gracias, aunque hasta el martes estuvieron pendientes de la vuelta de Altman. Cuando este lunes se reincorporen de lleno a sus puestos, las cosas ya no serán igual que 10 días antes. En realidad, aún no se sabe cómo serán. Se anuncia una investigación independiente sobre las decisiones y actuaciones de Altman y las circunstancias que llevaron a su despido. Al tiempo, el sistema de gobernanza del grupo está en cuestión y podría ser reformado en los próximos meses. El cofundador de OpenAI pasó la noche de Acción de Gracias con D’Angelo, el único consejero que ha sobrevivido al terremoto, y mandó felicitaciones de parte de las familias de ambos.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.