LaMDA, la máquina que “parecía un niño de siete años”: ¿puede un ordenador tener conciencia?

Un ingeniero de Google cree haber hablado con un robot con voluntad propia. Aunque la comunidad científica no le da crédito, los avances de la inteligencia artificial cada vez plantearán más dudas de este tipo

Si le dejáramos un teléfono inteligente a Isaac Newton, quedaría totalmente hechizado. No tendría la más remota idea de cómo funciona y probablemente conseguiríamos que una de las mentes más brillantes de la historia hablara de brujería. Quizás hasta creería estar ante un ser consciente, en caso de probar los asistentes de voz. Este mismo paralelismo se puede hacer hoy con algunos de los logros de la inteligencia artificial (IA). Esta tecnología ha alcanzado tal nivel de sofisticación que, en ocasiones, sus resultados pueden agitar totalmente nuestros esquemas.

Blake Lemoine, un ingeniero de Google integrado en el equipo de IA de la compañía, parece haber caído en esa trampa. “Si no supiera que se trata de un programa informático que desarrollamos recientemente, hubiera pensado que estaba hablando con un niño de siete u ocho años con conocimientos de física”, dijo en un reportaje publicado el fin de semana pasado por The Washington Post. Lemoine se refiere en estos términos a LaMDA, el generador de bots (programa informático que realiza tareas automatizadas a través de internet como si se tratase de un ser humano) conversacionales de Google. Empezó a dialogar con la máquina en otoño para comprobar si esta inteligencia artificial usaba lenguaje discriminatorio o que incitara al odio. Y su conclusión ha sido demoledora: cree que han conseguido desarrollar un programa consciente, con voluntad propia.

¿Tiene eso sentido? “Quien lance una afirmación de este tipo demuestra que no ha escrito una sola línea de código en su vida”, afirma con rotundidad Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC. “Con el actual estado de la tecnología, es totalmente imposible llegar a desarrollar una inteligencia artificial autoconsciente”, dice.

Eso no quita que el generador de chatbots LaMDA sea muy sofisticado. Esta herramienta usa redes neuronales, una técnica de inteligencia artificial que trata de replicar el funcionamiento del cerebro humano, para autocompletar conversaciones escritas. LaMDA ha sido entrenado con miles de millones de textos. Según explicó recientemente en The Economist Blaise Agüera y Arcas, el responsable de Google Research (y jefe directo de Lemoine), el generador de chatbots contempla 137.000 millones de parámetros para decidir cuál es la respuesta que con mayor probabilidad encajará con la pregunta planteada. Eso le permite formular oraciones que podrían pasar por las que escriba una persona.

Sin embargo, aunque logre escribir como un humano, no sabe lo que está diciendo. “Ninguno de estos sistemas tiene comprensión semántica. No entienden la conversación. Son como loros digitales. Somos nosotros quienes le damos el sentido al texto”, describe López de Mántaras.

El artículo de Agüera, que fue publicado escasos días antes que el reportaje del Post, destaca también la increíble precisión con la que responde LaMDA, aunque ofrece una explicación distinta a la de Lemoine. “La IA está entrando en una nueva era. Cuando empecé a hablar con LaMDA sentí que estaba conversando con alguien inteligente. Pero estos modelos están muy lejos de ser los robots hiperracionales de la ciencia ficción”, escribe el directivo de Google. El sistema presenta avances impresionantes, dice el experto, pero de ahí a hablar de conciencia hay un mundo. “Los cerebros reales son mucho más complejos que estos simplificados modelos de neuronas artificiales, pero quizás de la misma forma que el ala de un pájaro es ampliamente más compleja que el ala del primer avión de los hermanos Wright”, argumenta Agüera en el artículo.

Las investigadoras Timnit Gebru y Margaret Mitchell, entonces codirectoras del equipo de Ética de la IA de Google, advirtieron ya en 2020 de que pasaría algo similar al caso de Lemoine. Ambas firmaron un informe interno que les valió su despido, tal y como recordaban el viernes en una tribuna en The Washington Post, y en el que señalaban el riesgo de que “la gente le atribuya intención comunicativa” a unas máquinas que generan texto aparentemente coherente o “que puedan percibir una mente donde solo hay combinaciones de patrones y series de predicciones”. Para Gebru y Mitchell, el problema de fondo aquí es que, como estas herramientas se alimentan de millones de textos extraídos sin filtro alguno de internet, reproduzcan en sus operaciones expresiones sexistas, racistas o que discriminen a alguna minoría.

Entonces, ¿puede surgir una IA general?

¿Qué llevó a Lemoine a dejarse seducir por LaMDA? ¿Cómo pudo concluir que el chatbot con el que conversó era un ente consciente? “En la historia de Blake convergen tres capas: una de ellas son sus observaciones, otra sus creencias religiosas y la tercera su estado mental”, explica a EL PAÍS un ingeniero de Google que ha trabajado estrechamente con Lemoine, pero que prefiere mantener el anonimato. “Considero a Blake un tipo listo, pero es verdad que no tiene formación en machine learning [o aprendizaje automático, la estrategia de inteligencia artificial que domina hoy la disciplina]. No entiende cómo funciona LaMDA. Creo que se ha dejado llevar por sus ideas”, sostiene esta fuente.

Lemoine, que ha sido suspendido temporalmente por haber violado la política de confidencialidad de la compañía, se ha definido como “cristiano agnóstico” o como miembro de la Iglesia del SubGenio, una parodia posmoderna de religión. “Se podría decir que Blake es todo un personaje. No es la primera vez que llama la atención dentro de la compañía. De hecho, diría que en otra empresa quizás ya le habrían despedido hace tiempo”, añade su compañero, que lamenta el modo en que los medios están haciendo sangre de Lemoine. “Más allá del esperpento, me alegro de que este debate esté emergiendo. Por supuesto que LaMDA no tiene conciencia, pero también es evidente que la IA cada vez será capaz de ir más lejos y habrá que revisar nuestra relación con ella”, opina este destacado ingeniero de Google.

Parte de la controversia que rodea este debate tiene que ver con la ambigüedad de los términos usados. “Estamos hablando de algo de lo que todavía no hemos sido capaces de consensuar. No sabemos qué son exactamente la inteligencia, la conciencia y los sentimientos, ni si necesitamos que se den los tres elementos para que un ente sea autoconsciente. Sabemos diferenciarlos, pero no definirlos con precisión”, reflexiona Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología y asesora del Gobierno de España y del Parlamento Europeo para cuestiones relacionadas con la inteligencia artificial.

“Quien lance una afirmación de este tipo demuestra que no ha escrito una sola línea de código en su vida”
Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC

Tratar de antropomorfizar los ordenadores es un comportamiento muy humano. “Lo hacemos constantemente con todo. Incluso vemos caras en las nubes o las montañas”, ilustra Jaume-Palasí. En el caso de las máquinas, bebemos también de la herencia racionalista europea. “Conforme a la tradición cartesiana, tendemos a pensar que podemos delegar pensamiento y racionalidad en las máquinas. Creemos que el individuo racional está por encima de la naturaleza, que la puede dominar”, indica la filósofa. “A mí me parece que la discusión de si un sistema de inteligencia artificial tiene o no conciencia se enmarca en una tradición de pensamiento en la que se intentan extrapolar a las tecnologías características que no tienen y no podrán tener”.

Hace tiempo que el Test de Turing quedó superado. Formulado en 1950 por el famoso matemático e informático Alan Turing, esta prueba consiste en hacerle una serie de preguntas a una máquina y a una persona. La prueba se pasa si el interlocutor no es capaz de discernir si quien responde es el ser humano o el ordenador. Más recientemente se han propuesto otros, como el Test de Winograd, de 2014, que requiere de sentido común y conocimiento del mundo para responder satisfactoriamente a las preguntas. Nadie lo ha podido superar por el momento.

“Puede ser que haya sistemas de IA que logren engañar a los jueces que les hagan preguntas. Pero eso no demuestra que una máquina sea inteligente, sino que ha sido bien programada para engañar”, subraya López de Mántaras.

¿Veremos algún día una inteligencia artificial general? Es decir, una IA que iguale o supere a la mente humana, que entienda los contextos, que sea capaz de relacionar elementos y anticipar situaciones como hacen las personas. Esta pregunta es en sí misma un campo de especulación tradicional en la disciplina. El consenso de la comunidad científica es que, si sucede, es muy improbable que sea en lo que queda de siglo.

Sin embargo, es posible que los constantes avances de la IA propicien más reacciones como la de Blake Lemoine (aunque no necesariamente tan histriónicas). “Debemos estar preparados para tener debates que a menudo serán incómodos”, concluye el excompañero de trabajo de Lemoine.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Manuel G. Pascual

Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.

Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS