En la mente de la máquina

ChatGPT exhibe el cociente de inteligencia de un genio. ¿Qué significa eso?

Una usuaria consulta el blog de presentación de ChatGPT en la página de sus creadores, OpenAI.ALEX ONCIU

¿Puede un personaje ser más inteligente que su autor? Sherlock Holmes es seguramente más inteligente que Arthur Conan Doyle, pero ¿cómo se hace eso? ¿Cómo puede un novelista fingir una inteligencia que no tiene? Goethe decía que el valor y la modestia son las únicas dos virtudes ciertas porque no hay manera de simularlas. ¿Ocurre lo mismo con la inteligencia, que no hay manera de aparentarla? Ahora que medio planeta ha sido...

Suscríbete para seguir leyendo

Lee sin límites

¿Puede un personaje ser más inteligente que su autor? Sherlock Holmes es seguramente más inteligente que Arthur Conan Doyle, pero ¿cómo se hace eso? ¿Cómo puede un novelista fingir una inteligencia que no tiene? Goethe decía que el valor y la modestia son las únicas dos virtudes ciertas porque no hay manera de simularlas. ¿Ocurre lo mismo con la inteligencia, que no hay manera de aparentarla? Ahora que medio planeta ha sido abducido por ChatGPT, el conversador digital de moda, tenemos un nuevo ángulo desde el que enfocar todas esas preguntas tan molestas.

Para empezar, no cabe duda de que ChatGPT ha superado el test de Turing. El gran matemático británico Alan Turing, pionero de la computación y la inteligencia artificial, propuso en 1950 que una máquina sería inteligente cuando pudiera hacerse pasar por una persona en una conversación a ciegas. Los textos que produce ChatGPT pueden parecer más o menos atinados, pragmáticos o fantasiosos, pero resulta francamente difícil distinguirlos de lo que diría un Homo sapiens en su lugar. Si le preguntas por qué hay algo en lugar de nada —una pregunta sin respuesta—, empieza por reconocer que se trata de una cuestión muy profunda y luego te da media verónica y acaba respondiendo a otra cosa. Es exactamente lo que haría una persona, y el test de Turing queda, por tanto, superado.

Pero ¿es eso inteligencia? ¿O solo la finge? Sabemos a estas alturas que ChatGPT compone cuentos infantiles y artículos académicos, cuenta chistes, escribe códigos de computación y aprueba la selectividad. El psicólogo clínico Eka Roivainen ha sometido al pobre ChatGPT a una prueba de CI (cociente de inteligencia) como las que hace a sus pacientes en un hospital finlandés. Ha usado el test más común (Wechsler, o WAIS), donde la media humana es de 100, el 10% de la gente alcanza 120, y el 1% más listo llega al 133. ChatGPT ha sacado un 155. Solo el 0,1% de los humanos se le pueden comparar. Eso son 50.000 personas en España, 3.000 en Madrid, 200 en Carabanchel y ninguna en mi casa, redondeando un poco. Planazo.

Ya sé lo que estás pensando: que el CI no mide la inteligencia, ¿no? Es lo que hacemos siempre los humanos en nuestra guerra no declarada contra las máquinas. Si Deep Blue gana a Kaspárov, concluimos que el ajedrez no es un signo de inteligencia. Si una máquina supera el test de Turing, no tiramos a la basura nuestra soberbia, sino el test de Turing. Si ChatGPT tiene un CI como para ingresar en el club Mensa, será que el CI no mide la inteligencia, sino alguna otra cosa que no sabemos lo que es. Cualquier cosa menos admitir que una máquina nos supera en alguna actividad intelectual.

Dicho lo cual, es cierto que muchos científicos de la computación piensan desde hace años que el test de Turing, las pruebas de CI y otros enfoques de caja negra —donde solo ves los resultados sin examinar lo que ocurre en la mente de la máquina— se quedan muy cortos frente a la magnitud de este problema. Si le preguntas ¿cuál es el nombre de pila del padre de los hijos de Sebastián?, ChatGPT te sale por peteneras aduciendo que le falta contexto. Vaya un listillo.

Más información

Archivado En