_
_
_
_

Laurence Devillers: “Uno es libre de enamorarse de lo que quiera. Pero si es de una máquina, es falso”

La científica francesa, experta en computación afectiva, reflexiona sobre la relación de los seres humanos con los productos de inteligencia artificial

Laurence Devillers
Laurence Devillers en Santiago (Chile).FERNANDA REQUENA
Antonia Laborde

Un hombre japonés de mediana edad aparece en la imagen durmiendo en su cama. Una voz proveniente de un holograma proyectado en su velador lo despierta con un buenos días. El dibujo, una mujer de pelo celeste. Él, con solo apretar un botón, comienza a dialogar. La máquina le advierte que lleve un paraguas y le mete prisa para que no llegue tarde al trabajo. Mientras el hombre almuerza solo en su oficina, se textea con el holograma, que le pide que llegue temprano a casa. En el bus de regreso, le avisa que estará ahí en breve. “No puedo esperar a verte”, le responde la máquina de inteligencia artificial, que enciende las luces de la casa para recibir a su dueño. Cuando el hombre cruza el umbral, lo primero que hace es ir a verla. Ven la televisión y el hombre le dice lo bien que se siente “tener a alguien en casa”.

El vídeo de la empresa Gatebox es uno de los ejemplos que enseña este jueves la científica francesa Laurence Devillers en su presentación en Congreso Futuro, un encuentro entre científicos y humanistas de talla mundial celebrado en Santiago de Chile. Devillers, profesora de Inteligencia Artificial y Ética en la Universidad de la Sorbona, lleva 20 años investigando la computación afectiva. En una entrevista posterior a su presentación en el centro de extensión del Instituto Nacional aborda las relaciones máquinas-seres humanos.

Pregunta. El hombre japonés del vídeo dice que se siente bien tener a alguien en casa, pero en realidad no hay nadie ahí…

Respuesta. Sí, es una ilusión total. Muchas personas pueden ser muy vulnerables a este tipo de máquinas, porque la soledad es una pesadilla, especialmente al final de la vida. Quizá pueden hacernos compañía. No es fácil una discusión sobre este tipo de cosas, pero no creo que simplemente haya que prohibirlas. Si te hacen más feliz, ¿por qué no? Lo que sí, hay que tener en cuenta a dónde van tus datos obtenidos por la máquina, qué grabaciones recopila, con qué propósito accede a tu información… También que son una especie de adicción. Podemos pasar demasiado tiempo interactuando con este nadie, como dice usted. Aunque no es nadie, es algo que viene de ti porque hablas con una máquina que aprende de tu historia, de tus gustos…. Este recuerdo de lo que eres tiene una manera maravillosa de manipularte. Ese es el problema.

P. ¿Cómo se aborda ese problema?

R. Hay que desarrollar normas para este tipo de máquinas. Hay tres tipos de dimensiones muy importantes: una es la ley, con sus líneas rojas. Otra es ayudar a las empresas del rubro a construir un sistema alineado con la ley. Y la tercera es intentar que las directrices éticas estén disponibles para todos en la sociedad.

P. ¿Cuán delicado es que la gente que usa estas máquinas confunda la realidad con la realidad virtual?

R. La mayoría del tiempo no hay confusión. Es el mismo cuerpo. Lo que pasa es que en la realidad virtual puedes hacer lo que quieras, no hay reglas… En la serie Westworld mucha gente intenta matar, robar, porque no hay pecado, pero no es cierto. Finalmente, lo que hagas en el espacio virtual también tendrá algunas consecuencias en tu vida real. Y debemos tener algunas reglas, al igual que en la vida real.

P. Es posible que pasemos cada vez más tiempo en la realidad virtual, donde no hay consecuencias.

R. Sí, es un riesgo. Si pasas toda tu vida en esta realidad virtual, eres solo un cliente en la matrix. Necesitamos educarnos sobre este sistema para usarlo bien. También está el problema de género, racial, la falta de diversidad cultural. Estas máquinas hacen estadísticas. El chat GPT, por ejemplo, es mayoritariamente en inglés, porque se alimenta de mucha opinión del pueblo estadounidense. Cuando preguntas por la fiesta nacional te dice el 4 de julio, que no es tu fiesta. Para evitar este tipo de cosas tenemos que construir nuestro propio sistema de IA, entenderlo mejor y utilizarlo para cosas útiles, como la ciencia, la medicina, la ecología. Ahora estamos como un bebé frente a algo que no entendemos.

P. Sobre el sesgo de género, raza… ¿Qué se puede hacer?

R. En estas máquinas hay mucha más presencia de mujeres que de hombres. Cuando hablas con un chatbot, su voz es femenina. Cuando buscas un robot sexual u otro tipo de robots, hay muchas más chicas. Una vez le pregunté a un gran director de un banco en Francia por qué el chatbot se llamaba Greta y no Gerk. Dijo: Hablé con mis clientes masculinos y prefieren la voz de mujer y mis clientas mujeres respondieron lo mismo. La voz femenina está predeterminada en todas partes. Cuando compras un auto, viene por defecto con voz de mujer. Y si quieres cambiarla, tienes que seguir los pasos, lo que implica un esfuerzo que no todos hacen. ¿Qué es esta representación en la mente de las personas? ¿Creen que es algo positivo? La pregunta es por qué no hay hombres robots para mujeres.

P. ¿Nadie los pide?

R. Hay dos cosas. Una es que los que están construyendo los robots son hombres, entonces las hacen para ellos sin pensar en las consecuencias. Está Sofía, Alexa, Siri… La segunda es que efectivamente no tenemos el mismo deseo de dominio. Me gustaría que Europa, por ejemplo, aplicara una pequeña regla que diga que cuando compras un objeto capaz de hablar con los demás se debe colocar de manera aleatoria la voz de un hombre, una mujer o una tercera opción. Si para su producto necesita que haya una voz femenina, debe explicar bien por qué.

P. En su presentación se vio a una madre que, a través de unas gafas de realidad virtual, abrazaba a su hija muerta. ¿El cerebro es capaz de que algo así no lo engañe?

R. Sí, pero es difícil. La representación de personas reales en estas máquinas es una pesadilla porque normalmente piensas que hay una parte de la persona que conoces en el artefacto. Es muy difícil mantener la distancia. Ahora hay un mercado para eso y el problema siempre es el mismo: si hay mercado, algunas personas dudan. Lo que podemos hacer es poner el foco en los estándares que deben cumplir, las normas, las pautas.

P. ¿Qué tipo de normas se pueden establecer en este caso en particular?

R. Es un tema que hay que estudiarlo mejor, todavía no puedo decir si es bueno o malo. Algunos países como Japón ya conectan la cara de alguien a un robot y lo usan durante el duelo. El robot utiliza los vídeos, imágenes y recuerdos grabados de la persona fallecida. Es capaz de elaborar preguntas y respuestas, como simulando una conversación entre el usuario y el fallecido. Hasta ahora, era un sistema que podía reproducir las frases que había dicho realmente la persona muerta, pero si uso chat GPT o algo por el estilo, el sistema puede inventar nuevas frases, y ahí hay un problema porque pones palabras en la boca de alguien sin su consentimiento. A raíz de esto, muchas personas empezaron a ir a las residencias de ancianos para recolectar datos, diciendo que finalmente hay una manera de ser inmortal. Ahí hay algo que tenemos que reflexionar.

P. Se dice que una de las dificultades para regular la inteligencia artificial es que avanza tan rápido que una vez que se aprueba la norma, ya está obsoleta.

R. Es muy rápido, pero cuidado, la mistificación de la IA es un gran tema. Simplemente son números, algunos datos recopilados y mezclados con otros en un modelo que es una caja negra. Luego pueden producir algo parecido a nuestro idioma, que es maravilloso. Pero no hay verificación, no hay fuentes, es incierto. A Google le haces una pregunta –cuyos resultados sabemos que están manipulados porque hay gente que paga por aparecer primero-, pero hay una serie de enlaces ordenados y tú valoras cuáles son buenos o malos, cuáles te sirven para tu investigación, cuáles te parecen poco confiables, etcétera. Tomas decisiones. Ahora es la máquina de IA la que hace eso sin ninguna consciencia ni contexto del contenido. Sin moral. Nada. Solo estadísticas. Para los niños es una pesadilla porque tienen los resultados sin pasar por el procedimiento de cómo obtenerlos. Tenemos que impulsar la IA para aprender a cómo aprender.

P. Usted lleva 20 años en la computación afectiva y ahora ya se habla de la posibilidad de que alguien se enamore de una máquina. ¿Qué opina?

R. Mi libertad es poder enamorarme de lo que quiero. Un árbol, una computadora, chatbots informáticos ¿por qué no? Es mi libertad. Pero debo entender que si me enamoro de una máquina, es falso. Recuerda la película Her, cuando en un punto el chico descubre que la máquina está enamorada de mucha gente. La unicidad del amor no está en la máquina.

P. ¿El japonés solitario de su vídeo puede que esté enamorado del la máquina?

R. No. Creo que uno puede imaginar eso más en los ancianos. Cuando estás cerca de la muerte y tu pareja está muerta y tus hijos no están y te sientes realmente solo. Ahí quizá este tipo de máquinas sean un compañero útil. Mucha gente hace lo mismo con las mascotas. Para mí es obvio que si eres bastante estable en tu vida, con gente a tu alrededor, no querrás tener este tipo de máquinas. Seguro que si estás solo y no tienes mucha gente alrededor, quizá podría ayudar. No sé. Es una pregunta que hay que pensar… Este es un problema de coevolución de máquinas. La inteligencia artificial no es inteligente, pero sí artificial, es un artefacto que hemos construido como un automóvil. Entonces, si prefieres pasar tu tiempo con objetos, ¿por qué no? Para mí, debemos ser conscientes colectivamente de los riesgos y construir más comunidad, más intercambios. Entender lo que pasa y ayudar a los demás a intentar no perderse en esta transición. Es fundamental estar alertas y detectar la mejor manera de utilizar este tipo de máquinas.

Suscríbase aquí a la newsletter de EL PAÍS Chile y reciba todas las claves informativas de la actualidad del país.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Antonia Laborde
Periodista en Chile desde 2022, antes estuvo cuatro años como corresponsal en la oficina de Washington. Ha trabajado en Telemundo (España), en el periódico económico Pulso (Chile) y en el medio online El Definido (Chile). Máster de Periodismo de EL PAÍS.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_