La inteligencia artificial, entre la consolidación y el frenazo
El gran coste de los modelos de inteligencia artificial, la escasez de chips y las exigencias de una regulación favorecerán a los actores grandes. Mientras las empresas se suman a la carrera, en los próximos meses será clave optimizar antes de seguir escalando.
ChatGPT, el producto con la implantación de mercado más rápida de la historia del software, convirtió 2023 en el año de la inteligencia artificial. Tanto la adopción como la inversión fueron masivas, una verdadera fiebre del oro pese a sus notables problemas de fiabilidad y sus infracciones en el campo de la propiedad intelectual y la protección de datos. Sin embargo, todo indica que el desarrollo de modelos generativos de IA está a punto de enfriarse no...
ChatGPT, el producto con la implantación de mercado más rápida de la historia del software, convirtió 2023 en el año de la inteligencia artificial. Tanto la adopción como la inversión fueron masivas, una verdadera fiebre del oro pese a sus notables problemas de fiabilidad y sus infracciones en el campo de la propiedad intelectual y la protección de datos. Sin embargo, todo indica que el desarrollo de modelos generativos de IA está a punto de enfriarse no por falta de entusiasmo, sino por imperativo material. Los costes asociados a la tecnología son insostenibles. La cadena de suministro no está a la altura de la demanda.
“La guerra por los componentes y materiales para la inteligencia artificial se intensifica”, confirma por correo la investigadora Kate Crawford, profesora de investigación en USC Annenberg y autora de Atlas of AI. “Desde el chip H100 de Nvidia hasta los minerales de tierras raras, pasando por la energía y el agua necesarias para alimentar las nuevas infraestructuras de nube hiperescala, la pila de inteligencia artificial generativa está volviéndose aún más intensiva en recursos. En 2024, esto significa más presiones en la cadena de suministro global y un creciente impacto ambiental”, concluye.
“Estoy de acuerdo en que se desacelerará el nivel de entusiasmo y adopción si no se reducen dramáticamente los costes”, añade Darío Gil, vicepresidente de IBM. “El año pasado estaba todo ligado a crecer, a demostrar capacidad, y el coste era irrelevante. Es ahora, al desarrollar los casos de uso que quieres utilizar, cuando te das cuenta de que, si no optimizas muchísimo los modelos, el coste es disparatado y no genera un beneficio. Antes de escalar, hay que optimizar”.
Hasta la disponibilidad de datos apropiados para entrenar los modelos predictivos se ha vuelto complicada, tanto por las demandas por infracción de propiedad intelectual como por la propagación de contenidos sintéticos no identificados. La IA se corrompe cuando se alimenta de su propia carne. Ya no vale entrenarla con todos los contenidos disponibles en la Red. Pero, sobre todo, el mercado de chips de última generación está tan concentrado que todo depende de tres empresas: Nvidia depende de la Taiwan Semiconductor Manufacturing Company para fabricar sus chips, que a su vez depende de los equipos de litografía de la holandesa ASML para su impresión. Y todos los demás dependen de las tarjetas gráficas de Nvidia. En el tercer cuatrimestre de 2023, Nvidia vendió medio millón de estas tarjetas (GPU). Ahora tiene tanta demanda que el tiempo de espera ya supera un año.
Entre el exceso y la escasez. AlexNet, la primera red neuronal de arquitectura profunda desarrollada por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton en 2012, usaba dos GeForce GTX 580, una tarjeta gráfica de Nvidia para videojuegos de alta gama con 3 GB de memoria. Según filtraciones no verificadas, entrenar un modelo de última generación como GPT-4 ha requerido el uso simultáneo de 25.000 GPU A100 de Nvidia durante 90-100 días y una base de datos de 13 billones de tokens. Sam Altman, director ejecutivo de la empresa, dice que les ha costado 100 millones. Solo puede permitírselo gracias a un acuerdo con Microsoft.
La “madrina de la IA” Fei-Fei Li señala el acceso como uno de los grandes problemas del sector. “El gasto mínimo para contribuir a este tipo de investigación ronda ahora casi el millón de dólares”, escribe en su reciente libro The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI. “Eso sin contar el tiempo y el personal necesario para interconectar los procesadores de alto rendimiento y mantener todo funcionando dentro de un rango de temperatura aceptable mientras todo ese silicio hierve durante las 24 horas del día”. Con esos precios, la tecnología más importante de nuestro tiempo solo puede ser desarrollada por empresas con un billón de dólares de capitalización. La escasez y exclusividad de recursos consolida a los gigantes.
El imperio de los gigantes. Los informes de las consultoras anuncian una gran integración en los servicios y un aumento de la productividad. Gartner prevé que, en 2024, el 60% de los negocios globales integrará modelos de IA y machine learning en sus operaciones. “Va a transformar el mundo en el que trabajamos, pero también la manera de interactuar con el mundo que nos rodea”. El Banco Mundial estima un salto del 40% en la productividad global. La consultora Forrester anuncia que la IA generativa va a revolucionar todo lo relacionado con las tecnologías de la información, con mejoras de un 40% en todas las operaciones de software. Pero el coste elevado de los modelos y las exigencias de la nueva regulación favorecerá a los jugadores que ya dominan la carrera. Especialmente, las alianzas entre jóvenes start-ups y gigantes de la nube: OpenAI con Microsoft, DeepMind con Google, Anthropic con Amazon.
Es de prever que, en 2024, las ballenas tecnológicas aumenten su oferta de software como servicio (SaaS) y plataforma como servicio (PaaS) con los poderes de la IA. “Los servidores de inteligencia artificial avanzada tienen una oferta de lógica, memoria y almacenamiento significativamente superior a la de los servidores tradicionales, y se espera que cada aumento incremental del 1% en la penetración de servidores y centros de datos de IA genere de 1.000 millones de dólares a 1.500 millones de inversión adicional [en equipos de chips]”, comentó Tim Archer, CEO de la empresa de semiconductores Lam Research, en un encuentro con analistas. Con una plataforma de acceso a los modelos a través de la nube y de interfaces de programación para desarrolladores externos (API), los gigantes del valle seguirán mejorando sus productos y servicios, elevándose todavía más sobre el resto del mercado y dejando atrás a los laboratorios universitarios de investigación.
Sin una fuerte inversión en el sector público que compense al mercado, Fei-Fei Li advierte que la dependencia de las grandes tecnológicas es un futuro con “menos supervisión, más desigualdad y, en manos equivocadas, posiblemente incluso un tipo de autoritarismo digital inminente”. El año 2024 podría ofrecer un cambio de paradigma o, al menos, una alternativa al imperio de las big tech.
AI Alliance se come a las big tech. “Habrá consolidación a corto plazo porque hay determinadas ventajas competitivas para los que han podido agregar computación, recursos y crear los modelos de IA”, dice Darío Gil, “pero a la vez también hay una fuente de energía por debajo que va a salir, aunque quizá más adelante”. Se refiere a los modelos de código abierto, como Llama 2 y Falcon 180B, que se miden con GPT-3.5 y Bard, y ofrecen una alternativa muy competitiva. “El debate grande va a estar entre código abierto o cerrado en general y que, si de verdad hay alternativas en diferentes áreas, desde el software stack al dataset, el resto de las comunidades en el mundo que quiere participar y crear valor va a migrar a la alternativa que les da más flexibilidad e independencia”.
Gil acaba de presentar una alternativa al monopolio de las empresas del valle llamada la AI Alliance, con más de 50 instituciones, incluyendo universidades de todo el mundo, de la Berkeley en California al Imperial College de Londres, la TU de Múnich, los IIT en la India o la de Tokio. Participan agencias científicas internacionales como la NASA o el CERN, y laboratorios, empresas y fundaciones que desarrollan o invierten en investigación basada en principios de innovación abierta, como la Fundación Simons y el Instituto Flatiron. IBM se ha comprometido a invertir más de 100 millones de dólares en universidades dedicadas a temas de inteligencia artificial.
“Se ha restringido toda la discusión de la inteligencia artificial a modelos de lenguaje para hacer chatbots, y la realidad es que es un mundo muchísimo más amplio y hay necesidades de la sociedad mucho más diversas”, dice Gil. “Las instituciones no están satisfechas con el relato imperante y quieren crear una alternativa que refleje sus inversiones, sus compromisos y su manera de colaborar”. Mientras tanto, una sombra importante planea sobre el año que viene: más de la mitad de la población mundial va a las urnas en 2024, las primeras elecciones generales con inteligencia artificial.
Son 76 países los que tienen programadas elecciones en 2024, incluyendo gran parte de Europa y algunas de las democracias más pobladas y polarizadas del planeta: Bangladés, Brasil, India, Indonesia, México, Pakistán, Rusia y EE UU. “Esto podría significar poderosas campañas de desinformación, deep fakes que parecen completamente reales y una mayor polarización política”, advierte Kate Crawford. Los modelos generativos han desplomado los costes de producción de contenidos realistas, capaces de manipular a millones de forma concreta, específica y personalizada, a través del sistema de publicidad segmentada de las redes sociales. No hay solución ni vacuna para la producción y distribución de noticias falsas, contenidos sintéticos y deep fakes.