2025: ¿qué pensarán las máquinas pensantes?
Hay muchas voces interesadas, temerarias o simplemente ingenuas clamando que los modelos grandes de lenguaje pueden hacer cosas que en realidad no pueden hacer
[Esta pieza es una versión de uno de los envíos de la newsletter semanal de Tendencias de EL PAÍS, que sale todos los martes. Si quiere suscribirse, puede hacerlo a través de este enlace].
Ya sabes lo que pasa entre el Black Friday y Navidad, que todos los medios empezamos a hacer predicciones para el año entrante. Adivinar el futuro es la única forma segura de equivocarse, y además los verdaderos saltos adelante en nuestra comprensión del mundo son impredecibles por definición.
Como dice el matemático John Allen Paulos, nadie publicó en 1904: “¡Ya solo falta un año para que se descubra la relatividad!”. Todo eso es cierto, pero la ciencia ficción es el arte de predecir el presente, y hay unas cuantas cosas de 2025 que ya podemos leer en nuestros posos de café. La principal de ellas es un boom de la inteligencia artificial (IA).
Si Elon Musk se ha confirmado como el Darth Vader de la revolución tecnológica, hay otro personaje que se va perfilando como Luke Skywalker. Neurocientífico, investigador en IA, fundador de Google DeepMind, creador del sistema AlphaFold de predicción de estructura de proteínas, maestro de ajedrez y último premio Nobel de Química, el londinense Demis Hassabis se ha convertido en el lado luminoso de la fuerza.
Alphafold, la obra maestra de Hassabis, es hasta el momento la gran contribución de la IA a la ciencia. El consejero delegado de DeepMind ha devuelto así el favor a la neurociencia en la que se formó en su juventud, y que ha tenido un papel inspirador para el diseño de las mentes de silicio. La última versión del sistema, AlphaFold 3, no solo predice la estructura de cada proteína, sino también sus interacciones con el ADN, el ARN y otras proteínas. DeepMind ha puesto el código de este sistema a libre disposición de los investigadores de todo el mundo.
Hassabis no puede diferir más de Elon Musk, y es una persona tímida y escurridiza para la prensa. Pese a ello, sus proyectos favoritos, para los que ahora tiene todo el respaldo poderoso de Google, no son ningún secreto. El consejero delegado de DeepMind es plenamente consciente de que el bombo que se ha liado con la IA es una exageración en el sentido comercial, pero también sabe que no lo es en el sentido científico.
Hay muchas voces interesadas, temerarias o simplemente ingenuas clamando que los modelos grandes de lenguaje (large language models, LLM), los sistemas que subyacen a ChatGPT, Gemini, Copilot y otra media docena de conversadores digitales (chatbots), pueden hacer cosas que en realidad no pueden hacer. La proliferación de startups y la inyección de capital riesgo no están siempre justificadas cuando se trata de explotar la inteligencia artificial ya existente con fines industriales inmediatos.
Y, sin embargo, Hassabis piensa que las posibilidades científicas de la IA no se están exagerando, sino infravalorando en el momento actual. La más obvia de ellas es la inteligencia general artificial (AGI en sus siglas inglesas, no estoy seguro de que traducirlas por IGA sea de gran ayuda). No es fácil dar una definición técnica de la AGI, pero la idea es que llegue a ser algo similar a la inteligencia humana.
No hablo de Madame Curie, ni de Einstein, sino de la inteligencia del montón que tenemos los demás, esa cosa que sabe manejarse en situaciones a las que nunca se había enfrentado, o que ni se le habían ocurrido a nadie. Analogías, metáforas, vínculos entre conceptos previamente percibidos como estancos. No solo inferencias estadísticas sobre qué palabra o qué pixel suele venir a continuación, sino también la abstracción progresiva de conceptos. Cuando eso llegue, nos dice Hassabis, sí que habrá una auténtica revolución, uno de esos saltos disruptivos que no podemos predecir.
Los sistemas actuales basados en LLM han sorprendido al mundo, e incluso a sus propios creadores, pero es posible que la fama les haya llegado demasiado pronto. ChatGPT, Gemini y los demás “alucinan”, como dicen los propios expertos, su fidelidad a los hechos no se puede dar por garantizada y debe comprobarse a mano, son muy malos planificando acciones o agendas y no saben resolver problemas a largo plazo. Si les pides que te organicen unas vacaciones en Italia, no lo pueden hacer mucho mejor que un par de folletos turísticos. Todo eso queda para la próxima generación de agentes automáticos. Y nadie cree seriamente que vaya a llegar en 2025. Así está el tema.
Puedes apuntarte aquí para recibir la newsletter semanal de EL PAÍS Tendencias, todos los martes de la mano del periodista Javier Sampedro.