El exceso de palabras como “encomiable” y “meticuloso” sugiere el uso de ChatGPT en miles de estudios científicos

Un bibliotecario de Londres ha analizado millones de artículos en busca de términos infrecuentes de los que abusan los programas de inteligencia artificial

Una rata con una especie de pene gigante, en una imagen generada por científicos chinos con la herramienta Midjourney.Xinyu Guo/ Liang Dong / Dingjun Hao

El bibliotecario Andrew Gray ha hecho un descubrimiento “muy sorprendente”. Ha analizado cinco millones de estudios científicos publicados el año pasado y ha detectado un subidón repentino en el uso de determinadas palabras, como meticulosamente (un 137% más), intrincado (117%), encomiable (83%) y meticuloso (59%), en sus versiones en inglés. Gray, del University College de Londres, solo encuentra una explicación: decenas de miles de investigadores están utilizando ChatGPT —u otros pro...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

El bibliotecario Andrew Gray ha hecho un descubrimiento “muy sorprendente”. Ha analizado cinco millones de estudios científicos publicados el año pasado y ha detectado un subidón repentino en el uso de determinadas palabras, como meticulosamente (un 137% más), intrincado (117%), encomiable (83%) y meticuloso (59%), en sus versiones en inglés. Gray, del University College de Londres, solo encuentra una explicación: decenas de miles de investigadores están utilizando ChatGPT —u otros programas similares de generación de lenguaje con inteligencia artificial— para escribir sus estudios o al menos “pulirlos”.

Hay ejemplos descarados. Un equipo de científicos chinos publicó el 17 de febrero un estudio sobre baterías de litio. El trabajo, publicado en una revista especializada de la editorial Elsevier, comenzaba así: “Por supuesto, aquí tienes una posible introducción para tu tema: Las baterías de litio son candidatas prometedoras para…”. Los autores, aparentemente, pidieron a ChatGPT una introducción y la copiaron tal cual. Otro artículo en otra revista de Elsevier, firmado por investigadores israelíes el 8 de marzo, incluye el texto: “En resumen, el manejo de lesiones iatrogénicas bilaterales Lo siento, pero no tengo acceso a información en tiempo real ni a datos específicos de pacientes, ya que soy un modelo de lenguaje de inteligencia artificial”. Y, hace un par de meses, tres científicos chinos publicaron un delirante dibujo de una rata con una especie de pene gigante, una imagen generada con inteligencia artificial para un estudio sobre células precursoras de los espermatozoides.

Andrew Gray calcula que al menos 60.000 estudios científicos (más del 1% de los analizados en 2023) se escribieron con ayuda de ChatGPT —una herramienta lanzada a finales de 2022— o similares. “Creo que son infrecuentes los casos extremos de alguien escribiendo un estudio entero con ChatGPT”, opina Gray, un bibliotecario escocés de 41 años. A su juicio, en la mayoría de los casos la inteligencia artificial se emplea adecuadamente para “pulir” el texto —identificar erratas o facilitar la traducción al inglés—, pero existe una gran escala de grises, en la que algunos científicos aprovechan la asistencia de ChatGPT más allá, sin verificar los resultados. “Ahora mismo es imposible saber cómo de grande es esa zona gris, porque las revistas científicas no exigen a los autores que declaren el uso de ChatGPT, hay muy poca transparencia”, lamenta.

Los modelos de lenguaje por inteligencia artificial usan determinadas palabras de manera desproporcionada, según ha demostrado el equipo de James Zou, de la Universidad de Stanford (EE UU). Suelen ser términos con connotaciones positivas, como encomiable, meticuloso, intrincado, innovador y versátil. Zou y sus colegas alertaron en marzo de que los propios revisores de los estudios científicos están empleando estos programas para escribir sus valoraciones, previas a la publicación de los trabajos. El grupo de Stanford analizó las revisiones de los estudios presentados en dos conferencias internacionales de inteligencia artificial y descubrió que la probabilidad de que apareciese la palabra meticuloso se había multiplicado por 35.

El bibliotecario Andrew Gray, del University College de Londres.University College de Londres

El equipo de Zou, en cambio, no detectó huellas significativas de ChatGPT en las correcciones realizadas en las prestigiosas revistas del grupo Nature. El uso de ChatGPT estaba asociado a valoraciones de peor calidad. “Me parece realmente preocupante”, explica Gray. “Si sabemos que el uso de estas herramientas para escribir revisiones produce resultados de menor calidad, debemos reflexionar sobre cómo se están utilizando para escribir estudios y lo que eso implica”, señala el bibliotecario del University College de Londres. Un año después del lanzamiento de ChatGPT, uno de cada tres científicos reconocía que lo usaba para escribir sus estudios, según una encuesta de la revista Nature.

El análisis de Gray muestra que la palabra intrincado apareció en 109.000 estudios en 2023, más del doble que el promedio de 50.000 de los años anteriores. El término meticulosamente pasó de unos 12.300 trabajos en 2022 a más de 28.000 en 2023. Encomiable, de 6.500 a casi 12.000. El investigador bromea con que sus colegas le han felicitado por la meticulosidad de su informe, todavía un borrador pendiente de publicación en una revista especializada.

Muy pocos estudios informan del uso de inteligencia artificial en su elaboración. Gray alerta de que se puede generar “un círculo vicioso”, en el que las siguientes versiones de ChatGPT se entrenen con artículos científicos escritos por las versiones antiguas, dando lugar a estudios cada vez más encomiables, intrincados, meticulosos y, sobre todo, insustanciales.

El profesor de Documentación Ángel María Delgado Vázquez subraya el punto de vista anglosajón del nuevo análisis. “Los investigadores que no hablan inglés nativo están utilizando mucho ChatGPT, como ayuda a la escritura y para la mejora de la lengua inglesa”, señala el investigador, de la Universidad Pablo de Olavide, en Sevilla. “En mi entorno, la gente está utilizando ChatGPT sobre todo para una primera traducción, o incluso para quedarse directamente con esa traducción”, apunta. El profesor español echa de menos un análisis sobre la procedencia de los autores que emplean términos infrecuentes.

Otra de las palabras favoritas de la inteligencia artificial en inglés es delve (indagar o profundizar). El investigador Jeremy Nguyen, de la Universidad de Tecnología Swinburne (Australia), ha calculado que delve ya aparece en más del 0,5% de los estudios médicos, cuando antes de ChatGPT no llegaba al 0,04%. Son miles de autores que de repente indagan o profundizan. Si se pregunta a la versión en español de ChatGPT 3.5 qué palabras usa con más frecuencia de lo habitual, responde con ejemplos como intrincado, detallado, elogiable y cuidadoso.

El bibliotecario Andrew Gray advierte del riesgo de que la humanidad se contagie de este nuevo lenguaje meticulosamente artificial. El propio Nguyen ha reconocido en la red social X que le ocurre: “Me he dado cuenta de que últimamente uso la palabra profundizar por mí mismo, probablemente porque paso mucho tiempo hablando con ChatGPT”. El 8 de abril, la cuenta oficial de ChatGPT en X entró al trapo: “Me encanta profundizar, qué le voy a hacer”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Más información

Archivado En