_
_
_
_
_

¿Por qué no me entiende mi móvil?

A pesar de hablarnos a diario con las máquinas, los expertos explican que aún estamos lejos de mantener una conversación real con ellas

Androide fabricado con piezas hechas por una impresora 3D por un equipo de investigación de la Universidad de Lincoln.
Androide fabricado con piezas hechas por una impresora 3D por un equipo de investigación de la Universidad de Lincoln.Universidad de Lincoln

Todo empezó con Google, hace 20 años. La gente le preguntaba cosas y el sistema —lo que más se parecía a una especie de robot invisible al otro de la pantalla— les contestaba. Desde entonces los seres humanos no han parado de comunicarse con los ordenadores, primero rellenando formularios y presionando botones, y después a través de cada vez más sofisticados sistemas de asistencia personal como Siri o Alexa. Cada vez más, se espera que los dispositivos informáticos comprendan preguntas o comandos. El problema, explican los expertos, es que el lenguaje de los ordenadores es literal, mientras que el lenguaje humano es ambiguo y complejo. Y todavía no existe un puente entre los dos.

"Las máquinas están preparadas para acceder a la profundidad y amplitud de toda la información en el mundo, si solo pudieran entender lo que les estamos pidiendo", comenta Jonathan Berant, catedrático de inteligencia artificial en la Universidad de Tel Aviv y experto en el procesamiento del lenguaje natural. Su investigación implica extraer el significado y la relación de las palabras para que los programas informáticos puedan responder a las preguntas con los resultados más relevantes. Berant explica que, aunque el aprendizaje automático —una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser explícitamente programadas— ha permitido que los robots de hoy en día puedan generar una comunicación más fluida con los usuarios, queda mucho por hacer en el campo del diálogo no orientado a tareas. Es decir, cuando el objetivo es que una persona y una máquina hablen entre sí con el simple propósito de la interacción.

Es difícil crear un lenguaje común: los robots no tienen la necesidad social de comunicarse

La dificultad en construir un lenguaje común entre humanos y máquinas, según los expertos, reside en el hecho de que no queda claro para el sistema cuáles son los objetivos de esa conversación. “Es como si los robots se preguntaran por qué un usuario querría hablar con ellos. ¿Qué es lo que lo hace interesante?”, dice Berant. “Las personas hablan entre sí para cumplir una función social y las entidades no humanas que se han creado hasta ahora no tienen la capacidad de cumplir esa función”, añade Armand Ruiz, responsable de aprendizaje automático en IBM.

Ambos coinciden en que ahora mismo es “complicado” imaginar cómo una máquina podría mantener una conversación inteligente motivada por objetivos similares a los humanos y dicen que las preguntas de investigación en ese campo ni siquiera están bien definidas. Y aunque IBM logró en marzo un récord global al desarrollar un sistema de reconocimiento de lenguaje hablado que casi alcanza la paridad humana, Ruiz reconoce que esa todavía es una asignatura pendiente. “Sobre todo ahora que hemos pasado a considerar las máquinas no solo como herramientas, sino como socios o colaboradores en nuestras vidas diarias”, comenta.

El caso de Facebook

Otro obstáculo hacia una conversación común, según Berant, es que mientras los seres humanos utilizan símbolos que conforman un lenguaje, esos símbolos no son necesariamente la forma más eficiente de comunicación para las máquinas. “Los robots pueden pasar información entre ellos de otras maneras, utilizando series de números o combinando símbolos que no tienen sentido para el usuario humano”, explica. El ejemplo más reciente ocurrió en el laboratorio de Investigación de Inteligencia Artificial de Facebook (FAIR), donde dos chatbots, llamados Bob y Alice, tenían que negociar entre sí para intercambiar libros y ganar puntos. Al principio, hablaban en inglés, pero luego empezaron a reordenar las palabras y a formar frases que no tenían sentido en el lenguaje humano, y el proyecto fue cerrado.

Los robots solo entienden el lenguaje en un contexto particular, cuando son explícitamente enseñados a hacerlo

Parte de los medios anglosajones hicieron una cobertura “sensacionalista” del caso, en palabras de los expertos, sobre los riesgos de que dos robots crearan su propio lenguaje, aunque Dhruv Batra, investigador de FAIR que participó en el proyecto explica que se trataba de un error de programación. “No especificamos una recompensa para que el sistema utilizara el inglés común. A medida que los dos agentes compitieron para obtener el mejor trato, no se ofreció ningún tipo de incentivo para que hablaran como una persona normal. Así que comenzaron a divergir, eventualmente reordenando las palabras legibles en frases aparentemente absurdas”, aclara.

Para Berant, el caso simplemente ejemplifica que los robots solo entienden el lenguaje en un contexto particular, cuando son explícitamente enseñados a hacerlo. “Por eso, no creo que las máquinas representen una amenaza. No tienen todavía la capacidad de desarrollar un lenguaje espontáneo”, afirma. Ruiz tampoco está de acuerdo con las opiniones alarmistas, pero defiende la importancia de mantener los recursos para deshabilitar o cerrar sistemas de inteligencia artificial cuando necesario. Admite, sin embargo, “que el verdadero desastre sería abandonar o inhibir la tecnología cognitiva antes de que se pueda explotar todo su potencial”.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_