IA, inteligencia alienígena
ChatGPT y los sistemas basados en modelos de lenguaje son solo una pequeña pieza del proyecto general de la inteligencia artificial, que es diseñar sistemas que puedan razonar, planear y resolver problemas
En una película de serie B, la crisis sociológica generada por ChatGPT se resolvería cuando el policía descubriera que hay un marciano dentro de la máquina. Si la cinta fuera de serie A, el policía se enamoraría de la máquina, tal y como predice la investigadora Kate Darling. Pero en ambos casos estaríamos tratando con una inteligencia alienígena, por llamar así a una mente no humana. Los mejores escritores...
En una película de serie B, la crisis sociológica generada por ChatGPT se resolvería cuando el policía descubriera que hay un marciano dentro de la máquina. Si la cinta fuera de serie A, el policía se enamoraría de la máquina, tal y como predice la investigadora Kate Darling. Pero en ambos casos estaríamos tratando con una inteligencia alienígena, por llamar así a una mente no humana. Los mejores escritores de ciencia ficción han especulado de vez en cuando con este vertiginoso concepto. ¿Hay solo una forma de inteligencia o muchas, tal vez infinitas? Incluso la aguda imaginación de esa tropa se ha quedado muy corta en este capítulo. Los marcianos de la ficción no solo suelen tener dos brazos y dos piernas, sino también algo muy parecido a un cerebro humano. Y mientras siga sin aparecer ET, no vamos a resolver la cuestión.
Pero ahora tenemos ChatGPT y otra media docena de sistemas similares basados en los llamados modelos grandes de lenguaje (large language models, LLM). Aunque estos modelos se inspiran vagamente en el cerebro humano, lo cierto es que funcionan de una forma muy distinta. Un bebé no necesita tragarse un billón de fotos de gatos para aprender a reconocer un gato, pero así es justo como funciona el aprendizaje de máquina que hace furor en nuestros días. Los modelos de lenguaje no tragan imágenes, sino textos, registrando obsesivamente qué palabras suelen aparecer cerca de qué otras. Su forma de construir frases no se basa en aprender conceptos ni reglas gramaticales. Es más bien un ejercicio de fuerza estadística. ChatGPT no entiende el concepto de verbo, pero lo usa correctamente porque ve cómo lo usamos los terrícolas de carne y nervio, y solo con eso le salen bien las frases. Pero la máquina no sabe lo que está diciendo (y no, no voy a hacer el chiste obvio del tertuliano).
Pero ahora fíjate en dos cosas. La primera es que los datos crudos con los que nuestro cerebro construye un modelo interior del mundo no son mucho más brillantes que los que usa el robot. Abrimos los ojos y vemos lo que hay delante con tal facilidad que no pensamos en el monumental problema de ingeniería natural que eso supone. En sentido estricto, lo único que vemos son líneas de distintas orientaciones. Es nuestro cerebro visual quien abstrae esas líneas en ángulos, polígonos, poliedros y una gramática de las formas que nos permite entender la escena que tenemos delante. No podemos descartar a la ligera que la máquina pueda formar algo similar a un concepto pese a que su material de partida sea tan modesto como la cercanía entre palabras.
La segunda cosa es que estos modelos de lenguaje son solo una pequeña pieza del proyecto general de la inteligencia artificial, que es diseñar sistemas que puedan razonar, planear y resolver problemas. Paradójicamente, esto va a implicar que los ingenieros resuciten los enfoques antiguos de la disciplina, que se basaban en enseñar reglas y símbolos al robot, en lugar de hacerle engullir la Wikipedia y la Biblioteca Nacional antes del desayuno. El historiador Yuval Noah Harari cree que ChatGPT es una amenaza para la civilización. Todavía no ha visto nada.