El falso “terremoto” de la IA generativa: desmontando el relato de Matt Shumer
El artículo viral habla de una inteligencia artificial generativa capaz de realizar tareas complejas de forma autónoma, pero huele más a estrategia de márketing que a un avance genuino
El circo de la inteligencia artificial no para de ofrecernos números cada vez más audaces, y el último acto estelar viene de la mano de Matt Shumer, inversor, fundador de start-ups y CEO de OthersideAI, que ha publicado un artículo en la revista Fortune, titulado “Algo grande está sucediendo” que se ha hecho viral en X y también se ha recogido en EL PAÍS.
En este artículo, Shumer habla de una inteligencia artificial generativa capaz de programar, depurar y resolver problemas complejos de forma autónoma, que ha sido celebrado por algunos como la antesala de la Inteligencia Artificial General (IAG). Sin embargo, para cualquiera con un mínimo de escepticismo y experiencia en inteligencia artificial, este “milagro” tecnológico huele más a estrategia de márketing que a avance genuino. Shumer no proporciona datos reales para respaldar la afirmación de que la inteligencia artificial de la que habla puede programar y depurar aplicaciones complejas sin errores.
La “demostración” de Shumer es, en el mejor de los casos, una manipulación magistral de la percepción, y en el peor, una desinformación flagrante. Una inteligencia artificial que, supuestamente, “razona” para escribir código, lo ejecuta, encuentra errores y los corrige sin intervención humana es demasiado bueno para ser verdad.
El caso es que hay razones para desconfiar. Se da la circunstancia de que Shumer se hizo famoso por afirmaciones exageradas sobre un gran modelo de lenguaje suyo, llamado Reflection 70B, que no se pudo replicar y que muchos consideraron un fraude.
Lo que Shumer vende como “autonomía” es, como ha ocurrido en otros casos, muy probablemente una orquestación meticulosa de lo que se conoce como “ingeniería de prompts”. No estamos ante una inteligencia artificial que “piensa” de forma general, sino ante un sistema que ha sido alimentado con una secuencia de “súper-prompts”, diseñados para guiarlo paso a paso a través de una tarea específica. Es decir que, en lugar de autonomía, lo que hay es intervención humana extensiva.
La supuesta capacidad de esta inteligencia artificial para “identificar y corregir errores” es el clímax de esta más que probable farsa. La idea de que “entiende” que su código está mal, lo depura y lo mejora por sí misma es pura fantasía. Lo más probable es que la IA recibió directrices específicas para “probar el código”, “reportar el error” y luego se le proporcionó otro prompt que le indicó cómo “corregir” los errores. Esto no tiene nada que ver con el razonamiento, es una cadena de comandos predefinidos inteligentemente disfrazados.
No es descabellado pensar que Shumer, igual que intentó hacerlo con Reflection 70B, se está posicionando una vez más como vendedor de una narrativa triunfalista que beneficia directamente a Anthropic, OpenAI y, de rebote, a su propia start-up, empresas que están desesperadas por justificar las masivas inversiones y las promesas hiperbólicas que han hecho sobre sus modelos. Al presentar una IA que parece hacer cosas tan avanzadas, Shumer ayuda a cimentar la idea de que estamos al borde de una revolución gracias a la IAG, una narrativa muy conveniente para sus intereses como inversor y para los de sus socios del ecosistema de la inteligencia artificial generativa.
La credulidad ante estas supuestas demostraciones de “inteligencia” de la inteligencia artificial es un problema grave. Nos distrae de los verdaderos avances y desafíos de esta tecnología, y nos hace complacientes ante afirmaciones que no resistirían un escrutinio serio. La inteligencia artificial de la que Shumer habla no es el resultado de algoritmos complejos, sino, sobre todo, de una ingeniería de prompts tan sofisticada que raya en el engaño.
Es hora de dejar de caer en el juego de la narrativa interesadamente triunfalista de inteligencias artificiales supuestamente cercanas a IAG. No nos dejemos engañar por un espectáculo diseñado para seguir inflando la burbuja de la inteligencia artificial. Necesitamos más transparencia, más metodología científica, más replicabilidad de resultados y mejores métodos de evaluación que nos permitan medir las capacidades reales de las inteligencias artificiales y menos shows prefabricados. Los relatos sobre grandes logros de la inteligencia artificial deben venir siempre acompañados de referencias a información detallada que permitan su replicabilidad y también de una explicación honesta de sus limitaciones.
La IA es una herramienta sofisticada, pero no es magia. Y mientras sigamos permitiendo que inversores/vendedores como Shumer dicten el discurso, estaremos más cerca de una burbuja de expectativas que de avances genuinos en IA.