ChatGPT contra la poesía: ¿puede escribir versos la inteligencia artificial?
Esta tecnología ya ha revolucionado nuestras vidas. A partir de sencillas instrucciones, construye textos complejos, sin plagiar una sola frase de Internet. Pero, ¿es capaz de escribir un buen poema?
Franz Kafka escribió un cuento titulado Informe para una academia en el que un mono adquiere inteligencia humana y da una conferencia sobre su pasado como animal salvaje. Algo parecido sucede cuando el aquí firmante le pregunta a ChatGPT por sus propias limitaciones: “¿Eres capaz de escribir un buen poema?”. El modelo de lenguaje —nombre que reciben estas herramientas de inteligencia artificial—, que no se acobarda ante nada, r...
Franz Kafka escribió un cuento titulado Informe para una academia en el que un mono adquiere inteligencia humana y da una conferencia sobre su pasado como animal salvaje. Algo parecido sucede cuando el aquí firmante le pregunta a ChatGPT por sus propias limitaciones: “¿Eres capaz de escribir un buen poema?”. El modelo de lenguaje —nombre que reciben estas herramientas de inteligencia artificial—, que no se acobarda ante nada, responde: “Aunque es posible crear poesía sin autor humano, la mayoría de la poesía considerada relevante y significativa suele ser creada por un poeta con una identidad y una voz distintiva”. Reconoce, con imposible tranquilidad, que la obra de un autor que carece de biografía no suele despertar mucho interés en los lectores.
ChatGPT puede haberse convertido en el poeta más prolífico de la historia de la literatura desde que se lanzó hace unos pocos meses. Gracias a inmensas redes neuronales de deep learning son capaces de escribir textos en muy pocos segundos, a partir de instrucciones muy sencillas y sin plagiar ni una sola frase de Internet. Sin embargo, no puede ser considerado el autor legal de ninguna de sus obras. “Quizás una máquina pueda crear arte, pero no estará protegida por la propiedad intelectual, pues para que esto ocurra debe existir un autor, y como tal, excepto en casos contados, solo pueden serlo las personas físicas“, asegura Mario Sol Muntañola, abogado experto en propiedad intelectual.
Guillermo Marco y Julio Gonzalo, investigadores de la UNED en el campo del Procesamiento del Lenguaje Natural, llevan años investigando los límites y facultades de modelos de lenguaje como ChatGPT, y se declaran escépticos con “el hype” que rodea a esta tecnología. “Estos modelos funcionan como redes de neuronas artificiales, que son como nuestro cerebro, y lo que hacen es aprender a escribir a través de una simulación cognitiva de cómo nosotros leemos”, explica Marco, autor también del poemario Otras Nubes (Rialp, 2019), por el que recibió un Accésit del Premio Adonáis de Poesía en 2019.
En uno de sus primeros experimentos, Marco y Gonzalo le pidieron a un grupo de participantes que evaluara seis aspectos de las sinopsis de libros y películas que producía esta inteligencia artificial. “Nosotros le dábamos un nombre inventado y la máquina ingeniaba un argumento para ese título”, explica Gonzalo. El resultado fue que el modelo de lenguaje sacó mejor nota que los humanos en todos los apartados excepto en el de creatividad. Los investigadores decidieron centrarse en este aspecto en concreto y cambiaron su objeto de estudio. “Empezamos a experimentar con poemas, porque las sinopsis, al menos para los humanos, no son textos intrínsecamente creativos”, cuentan. Antes de medir los resultados se propusieron extraer una definición de aquello que los usuarios entendían por creatividad. “Para cada persona es una cosa distinta, pero casi todas coincidían en señalar que para ellos la creatividad era lo original, lo insólito, lo que nunca habían visto antes”, detalla Marco.
El dúo concluyó que estos modelos de lenguaje no están diseñados para ser particularmente creativos. “Antes están hechos para imitar que para ser originales. Aprenden a decir lo menos sorprendente”, afirman. Marco lo ilustra con un ejemplo: “Si tú le das la secuencia: ‘El cielo es...’, y le pides que complete la frase, de las 50.000 palabras que ha aprendido, siempre escogerá la palabra azul, porque es la más probable”. La prioridad de ChatGPT, explican, es conservar el sentido del texto, lo que dificulta que una frase pueda ser estéticamente llamativa. “Luego resulta que hay gente que le hace preguntas a la máquina que ya tienen un componente tan alto de originalidad que no tiene más remedio que improvisar”, precisa Julio Gonzalo. “Leí un ejemplo en el que alguien le pedía a ChatGPT que escribiera un relato en el estilo de la Biblia sobre una persona que ha metido un sándwich de mantequilla en el agujero de un reproductor de vídeo VHS. El resultado era divertidísimo”.
También es importante considerar que ChatGPT no entiende las palabras que aprende. “Todo su conocimiento es intuitivo. A base de leer aprenden lo que es el lenguaje. Pero no tienen la capacidad de reflexión o de pensamiento racional. Por eso precisamente aprenden a imitar sonetos, pero no son capaces de darse cuenta explícitamente de que hay una regla que relaciona determinado tipo de rima con determinado número de versos”, comenta Gonzalo.
Marco recalca que estos modelos de lenguaje siempre van a estar limitados a la secuencia de entrada, es decir, a la instrucción que le dé un ser humano. “Nunca van a tener una idea de obra. Nunca van a tener intención. Esa intención, por el momento, siempre vendrá dada por un humano. Lo que sería verdaderamente artístico es que se negara a escribir, o que decidiera escribirlo a su manera”.
Neuronas surrealistas
En el libro Escritura no-creativa: Gestionando el lenguaje en la era digital (Caja Negra, 2015) el escritor Kenneth Goldsmith escribe: “Quizá los grandes autores del futuro serán aquellos que puedan escribir los mejores programas para manipular, analizar y distribuir las prácticas del lenguaje”. Hace referencia a la posibilidad de que la literatura se convierta en una colaboración entre máquinas y seres humanos que no trate de reemplazar la creatividad humana sino de aumentarla.
El escritor Jorge Carrión acaba de publicar Los campos electromagnéticos. Teorías y prácticas de la escritura artificial (Caja Negra), un libro que ha escrito con un GPT-2 y 3, y la ayuda de los ingenieros del Taller Estampa. Su punto de partida son Los campos magnéticos, de André Breton y Philippe Soupault, considerado el nacimiento de la poesía automática, en 1919. En su libro compara la llegada y la influencia del grupo surrealista sobre la literatura y la cultura en las primeras décadas del siglo XX, con la expansión de los modelos de lenguaje: “Si el paso entre la escritura consciente y la del inconsciente caracterizó aquellos años, la escritura producida por aprendizaje automático y otras formas de inteligencia artificial está imprimiendo una vibración particular a los nuestros”.
En conversación con ICON asegura que “los algoritmos escriben muy bien, redactan casi a la perfección, acceden a zonas que están vedadas para los humanos, pero todavía son incapaces del fulgor, de la metáfora, del conocimiento de la mejor poesía. Eso no quita que no escriban mejor ya que muchos poetas de la experiencia y su evolución, el poeta influencer”.
Sin embargo, en el capítulo de introducción de su libro no duda en afirmar que la llegada de una tecnología capaz de escribir buena literatura es solo cuestión de tiempo: “La inteligencia de los algoritmos, los robots, las redes neuronales o los programas o fórmulas que todavía no existen de inteligencia artificial, y que por tanto carecen de nombre, acabarán siendo capaces de la metáfora y de la ironía, de formas nuevas, membranosas e indudablemente literarias”.
Puedes seguir ICON en Facebook, Twitter, Instagram,o suscribirte aquí a la Newsletter.