Emily Bender: “Los chatbots no deberían hablar en primera persona. Es un problema que parezcan humanos”
Esta profesora de lingüística computacional advierte sobre los peligros de exagerar la “magia” de unos modelos de inteligencia artificial con muchas limitaciones
La profesora Emily M. Bender tiene una misión: quiere que sepamos que la aparente maravilla de ChatGPT es más bien un loro. No un loro cualquiera, sino un “loro estocástico”. “Estocástico” significa que escoge las combinaciones de palabras según un cálculo de probabilidades, pero no entiende nada de lo que dice. Es difícil conversar con ChatGPT o ...
La profesora Emily M. Bender tiene una misión: quiere que sepamos que la aparente maravilla de ChatGPT es más bien un loro. No un loro cualquiera, sino un “loro estocástico”. “Estocástico” significa que escoge las combinaciones de palabras según un cálculo de probabilidades, pero no entiende nada de lo que dice. Es difícil conversar con ChatGPT o con Bing y ser consciente de que es un loro y solo un loro. Pero para Bender de esa conciencia dependen muchas cosas malas: “Estamos en un momento frágil”, dice. Y advierte: “Estamos interactuando con una tecnología nueva y el mundo entero necesita equilibrar rápido su alfabetización para saber cómo tratar bien con ella”. Su mensaje, en resumen, es: por favor, es una máquina que hace muy bien una cosa, pero nada más.
Bender, lingüista computacional de la Universidad de Washington, intuía que esto podía suceder desde 2021, cuando publicó un artículo académico ahora célebre sobre “los peligros de los loros estocásticos”: “No dijimos que esto iba a pasar. Dijimos que esto podría pasar y que deberíamos tratar de evitarlo. No era una predicción. Era una advertencia. Allí solo hablamos un poco de lo peligroso que es hacer algo que parezca humano. Es mejor no imitar el comportamiento humano porque eso puede llevar a problemas”, dice Bender, de 49 años, por videoconferencia a EL PAÍS. “Cuanta más gente sea consciente, más fácil será ver los grandes modelos de lenguaje como simples máquinas de síntesis de texto y no como algo que genera pensamientos, ideas o sentimientos. Creo que [sus creadores] quieren creer que es otra cosa”, añade.
Esa falsa humanidad tiene varios problemas: “Nos provocará confianza. Y no asume responsabilidad. Tiene tendencia a inventarse cosas. Si muestra un texto que es cierto, es por casualidad”, asegura. “Nuestras sociedades son un sistema de relación y confianza. Si comenzamos a perder esa confianza en algo que no tiene responsabilidad, hay riesgos. Como individuos que interactuamos con esto, debemos tener cuidado con lo que hacemos con nuestra confianza. Las personas que la construyen deben dejar de hacerla parecer humana. No debería estar hablando en primera persona”, añade.
Menos Terminator en potencia
La labor por hacerlos más humanos probablemente no sea gratuita. Sin ella, el bombo provocado por ChatGPT hubiera sido más sereno: no hubiera dado esa sensación de Terminator en potencia, de amigo cuidadoso, de sabio visionario. “Quieren crear algo que parezca más mágico de lo que es. Nos parece mágico que una máquina pueda ser tan humana, pero en realidad es la máquina creando la ilusión de ser humana”, dice Bender. “Si alguien está en el negocio de vender tecnología, cuanto más mágica parezca, más fácil será venderla”, añade.
La investigadora Timnit Gebru, coautora con Bender del artículo de los loros y que fue despedida de Google por ese motivo, se lamentaba en Twitter porque el presidente de Microsoft admitía en un documental sobre ChatGPT que “no es una persona, es una pantalla”.
Si alguien está en el negocio de vender tecnología, cuanto más mágica parezca, más fácil será venderla”
El bombo sin embargo no se debe solo a una empresa que ha hecho hablar un chatbot como si fuera humano. Hay aplicaciones de IA que crean imágenes y pronto vídeos y música. Es difícil no dar bombo a estas novedades, aunque todas se basen en el mismo tipo de reconocimiento de patrones. Bender pide algo díficil para los medios y el modo en que están estructuradas las redes sociales hoy: contexto. “Se pueden hacer cosas nuevas y aún así no exagerar. Puedes preguntar: ¿es esto arte de IA o es solo síntesis de imágenes? ¿Estás sintetizando imágenes o estás imaginando que el programa es un artista? Se puede hablar sobre la tecnología de manera que mantenga a las personas en el centro. Para contrarrestar el bombo es cuestión de hablar sobre lo que realmente se está haciendo y quién está involucrado en su construcción”, asegura.
Hay que tener en cuenta también que estos modelos se basan en una cantidad inimaginable de datos que no sería posible sin llevar décadas alimentando internet con miles de millones de textos e imágenes. Eso conlleva problemas obvios, según Bender: “Este enfoque de la tecnología del lenguaje se basa en tener datos a escala de Internet. En términos de equidad entre idiomas, por ejemplo, este enfoque no va a escalar a todos los idiomas del mundo. Pero también es un enfoque fundamentalmente atrapado en el hecho de que tendrá que lidiar con que esos datos a escala de internet incluyen todo tipo de basura”.
Esa basura no solo incluye racismo, nazismo o sexismo. También en páginas serias están sobrerrepresentados los hombres blancos ricos o hay palabras connotadas por titulares muy vistos como “islam” o el modo en que a veces se habla en Occidente de los países de donde procede la inmigración. Todo eso poso está en el corazón de estos modelos: reeducarlos es una tarea extraordinaria y probablemente inacabable.
Los humanos no somos eso
El loro no solo ha hecho célebre a Bender. Sam Altman, fundador de OpenAI, empresa creadora de ChatGPT, ha tuiteado un par de veces que somos loros estocásticos. Quizá los humanos también reproducimos lo que oímos tras un cálculo probabilístico. Esa manera de disminuir las capacidades humanas permite inflar la presunta inteligencia de las máquinas, los siguientes pasos de OpenAI y otras empresas de un sector que vive casi en una burbuja. En el fondo permitirá recaudar aún más dinero.
“El trabajo sobre la inteligencia artificial va ligado a considerar la inteligencia humana como algo simple que se puede cuantificar y que la gente puede ser clasificada según su inteligencia”, dice Bender. Esta clasificación permite establecer hitos futuros para la IA: “Está la ‘inteligencia artificial general’, que no tiene una gran definición, pero es algo así como que puede aprender de manera flexible. Y luego aún está la ‘superinteligencia artificial’, que la oí el otro día, y que debe de ser aún más inteligente. Pero es todo imaginario”. El salto entre las IA que vemos hoy y una máquina que realmente piense y sienta sigue siendo extraordinario.
El 24 de febrero Altman publicó un post titulado “Planeando para la AGI [Inteligencia Artificial General] y más allá”. Trata sobre “garantizar que la inteligencia artificial general (sistemas de IA que generalmente son más inteligentes que los humanos) beneficie a toda la humanidad”. Bender fue a Twitter a preguntarse, entre otras cosas, quién es esta gente para decidir qué es lo que beneficia a toda la humanidad.
Esta elevación de la categoría de ChatGPT permite a Altman presentar su post como algo casi real, con potencial. “Sam Altman parece creer realmente que puede construir una entidad inteligente autónoma. Para mantener esa creencia, tiene que coger la tecnología existente y decir sí, se parece lo suficiente a los tipos de agentes inteligentes autónomos que imagino. Creo que es dañino. No sé si creen lo que dicen o si son cínicos, pero suenan como si lo creyeran”, dice Bender.
Si se extiende esta creencia de que las IA hacen más de lo que parecen, que son más listas, más gente tenderá a aceptar que se cuelen en otros ámbitos de decisión: “Si creemos que existe una inteligencia artificial real, también seremos más propensos a creer que claro que podemos hacer sistemas automáticos de decisión que estén menos sesgados que los humanos cuando en realidad no podemos”, dice Bender.
“Como un vertido de petróleo”
Una de las posibilidades más comentadas para estos modelos de texto es si reemplazarán a los buscadores. Microsoft, con Bing, ya lo está intentando. Los diversos cambios que han ido aplicando a su modelo desde que salió es prueba de sus dificultades. Bender quiere compararlo con un “vertido de petróleo”: “Esa es una metáfora que espero que persista. Uno de los daños con estas máquinas de síntesis de texto configuradas como si pudieran responder a preguntas es que van a colocar no-información en nuestro ecosistema de información de manera que será difícil de detectar. Eso se parece a un vertido de petróleo: será difícil de limpiar. Cuando las empresas hablan de cómo están progresando constantemente y mejorando su precisión, es como cuando BP o Exxon dicen: ‘Miren cuántas aves salvamos del petróleo que derramamos sobre ellas”.
OpenAI quiere hablar sobre el futuro. Pero yo preferiría hablar de cómo regulamos lo que hemos construido ahora”
Mientras hablamos de ese futuro improbable, no prestamos atención al presente, dice Bender. “OpenAI quiere hablar sobre cómo nos aseguramos de que la inteligencia artificial general será beneficiosa para toda la humanidad y cómo la regularemos. Pero yo preferiría hablar de cómo regulamos lo que hemos construido ahora y lo que debemos hacer para que no cause problemas hoy, en lugar de esta distracción de lo que sucedería si tuviéramos estos agentes autónomos”, cree.
No ha perdido la esperanza en que vaya llegando algún tipo de regulación, en parte por el esfuerzo de computación que requieren estos modelos. “Se necesitan muchos recursos para crear una de estas cosas y ejecutarla, lo que da un poco más de margen a la regulación. Necesitamos una regulación en torno a la transparencia. OpenAI no está siendo abierta al respecto. Con suerte, eso ayudaría a las personas a comprender mejor”.
La ciencia ficción no es el único futuro
Bender tiene que oír a menudo que es una mujer enfadada que se queja de la tecnología, a pesar de dirigir un máster en lingüística computacional: “No me siento herida cuando la gente me lo dice porque sé que están equivocados. Aunque también muestran este punto de vista de creer que hay un camino predeterminado hacia el que nos llevan la ciencia y la tecnología y es el que hemos aprendido de la ciencia ficción. Es una forma contraproducente de entender qué es la ciencia. La ciencia es un grupo de personas que se dispersan y exploran cosas distintas y luego conversan entre sí, no personas que corren por un camino recto, intentando llegar los primeros al final”.
Bender tiene un último mensaje para quienes creen que ese camino será accesible y sencillo: “Esto que diré puede ser sarcástico y simplista, pero tal vez solo esperan que lleguemos a un punto donde estos modelos se alimenten de tantísimos datos que en ese momento decida espontáneamente convertirse en consciente”. Por ahora, ese es el plan.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.