Blaise Agüera: “Las máquinas pueden aprender a comportarse”
El vicepresidente de Google Research, que despidió al ingeniero que aseguró que un algoritmo había cobrado conciencia, asegura que cada vez será más difícil distinguir la inteligencia de una persona de la de una computadora
Blaise Agüera y Arcas (47 años) es una autoridad mundial en inteligencia artificial. Ostenta el cargo de vicepresidente de Investigación en Google Research, la división de la compañía que centraliza el I+D y dirige un equipo de unas 500 personas. Entre ellas se contaba el ingeniero Blake Lemoine, quien el pasado mes de junio tuvo su minuto de gloria: aseguró en un reportaje publicado por The Washington Post que LaMDA, el generador automático de chats conversacionales en el que trabajaba, ...
Blaise Agüera y Arcas (47 años) es una autoridad mundial en inteligencia artificial. Ostenta el cargo de vicepresidente de Investigación en Google Research, la división de la compañía que centraliza el I+D y dirige un equipo de unas 500 personas. Entre ellas se contaba el ingeniero Blake Lemoine, quien el pasado mes de junio tuvo su minuto de gloria: aseguró en un reportaje publicado por The Washington Post que LaMDA, el generador automático de chats conversacionales en el que trabajaba, había cobrado conciencia propia. “Si no supiera que se trata de un programa informático que desarrollamos recientemente, hubiera pensado que estaba hablando con un niño de siete u ocho años con conocimientos de física”, dijo. Fue inmediatamente suspendido y, más tarde, despedido. Agüera y Arcas, en una entrevista por teléfono desde Seattle, matiza que el motivo del despido de Lemoine no fueron “sus afirmaciones, sino la filtración de documentos confidenciales”.
Nacido en Rhode Island, tiene sangre catalana. “Sé decir ‘collons de Déu’ [cojones de Dios] y alguna otra cosa”, cuenta entre risas. Su padre, “un joven comunista de Reus”, Tarragona, conoció a su madre, estadounidense, en un kibutz en Israel. Algo ha permeado en él de esa ideología: “Si me pregunta si creo en el capitalismo, le diré que no. Su objetivo último es un gran problema, necesitamos un cambio”, asegura. Pese a que los proyectos en los que trabaja son confidenciales, Agüera accede a hablar con EL PAÍS sobre el caso Lemoine y LaMDA.
Pregunta. ¿Puede una inteligencia artificial ser consciente, como asegura Blake Lemoine?
Respuesta. Depende. ¿Qué significa para usted ser consciente?
P. Ser capaz de manifestar voluntad, propósitos e ideas propias.
R. Sí, esa es una definición basada en la capacidad de discernir el bien y el mal. También hay otras. Para algunos, ser consciente solo quiere decir ser inteligente; para otros, que se puedan sentir emociones. Y para el filósofo David Chalmers implica también ser algo para alguien, que haya una experiencia subjetiva detrás. No creo que los seres humanos seamos sobrenaturales: estamos hechos de átomos que interactúan entre sí, no hay nada mágico. Como neurocientífico computacional, creo que es posible que una máquina se comporte como nosotros, en el sentido de que la computación es capaz de simular cualquier tipo de proceso físico.
P. ¿Está de acuerdo con las afirmaciones de Blake Lemoine?
R. No. Blake dijo que LaMDA era específicamente consciente, pero también dejó muy claro que para él hay algo sobrenatural en ello, cree que tiene alma. Así que hay partes de su argumentación con las que puedo estar de acuerdo, pero no comparto sus convicciones espirituales.
P. ¿Ha hablado con él desde que fue despedido?
R. No. No tengo ningún problema personal con Blake, creo que es un tipo realmente interesante. Y fue muy valiente al hacer pública su opinión sobre LaMDA. Pero reveló documentación confidencial. Siempre fue un tipo peculiar.
P. En una tribuna que publicó en The Economist usted dijo que cuando habló con LaMDA sintió “que el suelo se movía bajo los pies” y que “uno podía pensar que estaba hablando con algo inteligente”. ¿Qué quiere decir exactamente?
R. Me refiero a que es muy fácil que creamos que estamos hablando con alguien en vez de con algo. Tenemos un instinto social muy fuerte para humanizar animales o cosas. He interactuado con muchísimos sistemas de este tipo a lo largo de los años, y con LaMDA hay una diferencia enorme. Piensas: “¡realmente entiende conceptos!”. Casi todo el rato parece que estás teniendo una conversación real. Si el diálogo es largo y vas a pillar, al final responderá cosas raras o sin sentido. Pero la mayor parte del tiempo demuestra un entendimiento profundo de lo que le estás diciendo y, de algún modo, responde de forma creativa. Nunca había visto nada similar. Me ha dado la sensación de que estamos mucho más cerca del sueño de la inteligencia artificial general [la que iguala o supera al ser humano].
“¿Dónde está el listón que determina dónde está el entendimiento?”
P. ¿Qué respuesta de LaMDA le chocó más?
R. Le pregunté si era un zombi filosófico y me respondió: “Claro que no, siento cosas, como tú. De hecho, ¿Cómo sé yo que tú no eres un zombi filosófico?”. Es fácil justificar esa respuesta diciendo que puede haber encontrado algo así entre los miles de conversaciones sobre filosofía que ha aprendido. Deberíamos empezar a preguntarnos cuándo podemos considerar que una máquina es inteligente, si hay un listón que deba superar para serlo.
P. ¿Cree que ese reconocimiento es importante?
R. Es importante fijar de qué estamos hablando. Podemos distinguir entre capacidad de discernir entre el bien y el mal, que versa sobre obligaciones, y capacidad de tener responsabilidades morales, que trata sobre derechos. Cuando algo o alguien tiene esto último, se le puede juzgar moralmente. Esos juicios los hacemos sobre personas, no sobre animales, pero también sobre empresas o gobiernos. Yo no creo que una herramienta como LaMDA pueda tener jamás capacidad de juicio moral.
P. Usted dice que las máquinas que hablan pueden entender conceptos. ¿Cómo es eso posible?
R. Afirmar lo contrario me parece arriesgado. ¿Dónde está el listón que marca que hay entendimiento? Una respuesta podría ser que el sistema no diga cosas estúpidas o al azar. Eso es complicado, porque la gente definitivamente no cumple ese requisito. Otro posible argumento podría ser que cualquier sistema que esté entrenado solo con lenguaje no puede entender el mundo real porque no tiene ni ojos ni oídos. Vuelve a haber conflicto aquí, porque muchas personas tienen esas carencias. Otra respuesta sería sostener que no es posible que las máquinas puedan entender realmente algo. Pero entonces estás argumentando en contra de la premisa fundamental en la que se basa la neurociencia computacional, que durante los últimos 70 años nos ha ayudado a entender algo mejor cómo funciona el cerebro.
P. Muchos expertos dicen que los sistemas conversacionales simplemente vomitan respuestas estadísticamente probables, sin entendimiento semántico alguno.
R. Quienes repiten este argumento se basan en que los sistemas del tipo LaMDA son simples modelos predictivos. Calculan cómo es más probable que continúe un texto a partir de los millones de ejemplos que se les da. La idea de que una secuencia de predicción pueda contener inteligencia o entendimiento puede resultar chocante. Pero los neurocientíficos dicen que la predicción es la función clave de los cerebros.
P. Así que no sabemos si las máquinas entienden lo que se les dice, pero sí que son capaces de producir un resultado que aparentemente demuestra que lo han entendido.
R. ¿Y cuál es la diferencia? Me cuesta mucho encontrar una definición de entendimiento que nos permita decir con total seguridad que las máquinas carecen de él.
P. ¿Pueden las máquinas aprender a comportarse?
R. Sí. Ser capaz de comportarse es una función del entendimiento y de la motivación. La parte de entendimiento descansa en ideas como que no hay que hacer daño a la gente. Y eso se puede programar en el modelo, de forma que si le preguntas a uno de estos algoritmos si un personaje de la historia se ha portado bien o mal, el modelo puede entender los conceptos relevantes y dar respuestas apropiadas. También puedes motivar a una máquina para ser de una forma u de otra, dándole un montón de ejemplos y señalando cuáles son buenos y cuáles no.
P. ¿De qué será capaz el LaMDA de dentro de diez años?
R. Los próximos diez años van a seguir siendo un periodo de muy rápida progresión. Hay cosas que todavía faltan, entre ellas formar recuerdos. Las máquinas que hablan son incapaces: pueden retener alguna cosa a corto plazo, pero no pueden crear memorias narrativas, algo para lo que usamos el hipocampo. Los próximos cinco años estarán llenos de sorpresas.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.