Ir al contenido
_
_
_
_
tribuna

Otra inteligencia

Tal vez la IA sea nuestra invención más humana: la concebimos a nuestra imagen y semejanza

Eulogia Merle

“Yo sé por lo pronto que no conseguiría respetar a un autor que utilizara los recursos de la inteligencia artificial en sus obras de imaginación”, escribió Juan Gabriel Vásquez en EL PAÍS hace unos días. Y ofreció sus razones: “La inteligencia artificial aprende a pasos agigantados, cierto, pero aprende siempre sobre la base de lo que ya existe; a menos que mucho me equivoque, ignora el accidente y el azar, que son rasgos de lo humano”. Casi al mismo tiempo, Samantha Schweblin declaró en estas mismas páginas: “La mejor ficción pega un salto hacia afuera, descubre algo nuevo, supera al autor. La inteligencia artificial puede ser más brillante, más rápida, estar mejor informada que nosotros, pero no es una inteligencia: es un lenguaje de predicciones. No hay manera de que dé un salto hacia afuera”. Y concluyó: “Dicho de otro modo: tiene todas las posibilidades para producir mala literatura”.

Dos de los más notables escritores de nuestro tiempo —amigos cuya obra admiro sin reservas— parecerían coincidir, así, con el filósofo francés Éric Sadin, quien, en una entrevista también publicada en EL PAÍS, de plano aseguró que “la IA apesta a muerte”. Sin duda, desde que OpenAI lanzó ChatGPT el 30 de noviembre de 2022, las amenazas de la inteligencia artificial generativa no han hecho sino multiplicarse: sus perniciosos efectos sociales, económicos o políticos —con un sinfín de empleos en entredicho o su uso en los bombardeos en Gaza o Irán—, así como ecológicos y de salud mental —millones de jóvenes hoy la usan para gestionar sus emociones—, por no hablar de su cuestionamiento de la autoría o la propiedad intelectual, resultan insoslayables.

Del dominio del fuego a la máquina de vapor y de la imprenta a internet, cada tecnología ha trastocado el orden natural de las cosas, pero lo que ocurre con los grandes modelos de lenguaje (LLM) parecería más extremo: nunca habíamos construido una máquina capaz de valerse del lenguaje humano con una habilidad semejante a la nuestra. Usando solo palabras habituales, podemos comunicarnos con ella —o, según sus detractores, creer que lo hacemos— y pedirle que haga cosas: desde redactar un correo —o, para disgusto de muchos, un poema o una novela— hasta resolver un cálculo imposible para los humanos, y desde escribir toda suerte de programas hasta aprender de sus errores y mejorarse a sí misma.

Sin embargo, no deja de asombrar que el argumento usado para advertirnos sobre sus peligros consista en cuestionar su inteligencia a partir de un prejuicio tan habitual como engañoso: asumir que, dada su naturaleza predictiva, la IA jamás logrará producir algo nuevo. En el centro de su diatriba detecto un añejo temor asociado con la tradición excepcionalista, es decir, aquella que confía en que los humanos poseemos algo que nos vuelve únicos y, sea lo que fuere —nadie ha logrado definirlo—, impedirá que una cosa llegue a emularnos. Desde esta óptica, solo nosotros imaginamos algo nuevo, mientras los miserables algoritmos, anclados en el silicio en vez del carbono, no son sino loros estocásticos —como los bautizó Emily Bender en un artículo viral— que apenas repiten lo que les decimos sin entenderlo y sin a crear jamás una oración de veras novedosa, como si los humanos lo hiciéramos a todas horas.

Me temo que, en efecto, hay una equivocación fatal en asumir que lo único que hacen los LLM es parlotear. Evitando el escabroso debate filosófico en torno a si las IA generativas en verdad saben lo que afirman —lo cual nos llevaría a los oscuros meandros de la conciencia—, cualquiera que haya usado ChatGPT, Gemini, Mistral o Claude puede constatar su impresionante uso del lenguaje. Aun así, los excepcionalistas insisten en que se trata de un espejismo: algo —otra vez: quién sabe qué— nos vuelve por fuerza superiores. Un anhelo romántico desmentido por los hechos.

Como afirma Christopher Sommerfield en Strange New Minds (2025), por supuesto hay cosas que los LLM son incapaces de hacer porque no son humanos: no sienten curiosidad por el mundo, sus memorias son endebles y, por ahora, su agencia es limitada, pero ello no significa que les esté vedado lo insólito. De hecho, dado su carácter predictivo y, sí, probabilístico —están tan dominados por el azar como nosotros—, pueden acomodar frases de formas nunca vistas. ¿Ello las vuelve creativas? Diría que, en general, no, porque suelen recurrir a nuestros clichés, pero en ocasiones sí: cuando uno las agita con entereza, a veces —a veces— alcanzan destellos de alta fantasía, para no hablar de genialidad, pues este término solo reforzaría el mito al que se aferran los escritores que ven amenazado su estatus.

Durante décadas, los excepcionalistas confiaron en que una máquina jamás llegaría a hablar sin cometer errores, a resolver acertijos y crucigramas, a tramar juegos de palabras o a escribir poemas con la misma consistencia de un aficionado: todo eso ya lo hacen con creces. Tal vez el problema sea desconocer cómo funciona nuestra mente: igual que los LLM, nuestros cerebros también son —según la imagen neurocientífica— máquinas de futuros. La principal tarea de nuestras 86 mil millones de neuronas es adelantarse al porvenir, incluso cuando hablamos. O en especial cuando hablamos. Asociamos ideas por similitud o proximidad —metáfora o metonimia— y, copiándonos, la IA hace exactamente lo mismo.

Los chats de IA generativa no son sofisticadas herramientas de copiar y pegar, sino modelos que, tras analizar millones de expresiones humanas —y aprender de ellas, como los niños—, han conseguido abstraer las reglas generales de la lengua, lo que les permite jugar probabilísticamente con ella. Por paradójico que suene, tal vez por ello sean nuestra invención más humana: las concebimos a nuestra imagen y semejanza. Y, al hacerlo —no me queda duda— las volvimos inteligentes. Con ello no quiero decir conscientes, y menos aún deslizar que sean idénticas a nosotros. De hecho, el principal problema al que nos enfrentamos al utilizarlas es no darnos cuenta de que responden con la misma convicción que cualquiera de nuestros amigos. En el fondo, cada uno debería tener una camiseta con el lema: “Soy humano y cometo errores. Verifica mi información”.

Concluyo: si las enfrentamos de manera crítica, buscando que no nos controlen o seduzcan, y si las ponemos a prueba con prompts cada vez más agudos —y dejamos de verlas como oráculos o trucos de circo—, las IA generativas pueden ser creativas. Pero para ello se necesita confrontarlas en un nuevo espacio ontológico, como propone Jianwei Xun, el avatar IA-humano creado por el filósofo italiano Andrea Colamedici, en Pensar con prompts (2026). Las amenazas de la IA para la humanidad apuntan a un colapso civilizatorio, pero de nada sirve resguardarnos en la confortable posición según la cual solo los humanos somos inteligentes y creativos, como si ello bastara para blindarnos contras las guerras con que sus desarrolladores devastan el planeta o para frenar sus brutales usos políticos y bélicos o la manera como acentúan la ya de por sí escalofriante desigualdad que nos sacude.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_