_
_
_
_
_

“Hola, le atiende un robot sin sentimientos ni empatía”

La sustitución de personas por máquinas en la atención al consumidor es una mala noticia para los usuarios

Agente virtual atendiendo a un consumidor a través de su 'smartphone'.
Agente virtual atendiendo a un consumidor a través de su 'smartphone'.Shutterstock

En los tiempos que corren es cada vez más difícil tener una conversación telefónica con una persona de carne y hueso. Casi cada vez que necesitas hablar con el banco, con el médico o con cualquier otro servicio, lo más probable es que te dé la bienvenida un ayudante automatizado aparentemente pensado para evitar que hables con alguien que realmente trabaje para la empresa. Este estado de cosas podría empeorar en breve debido a la generalización de los chatbots.

Los chatbots son programas de inteligencia artificial empleados a menudo en aplicaciones o en servicios de transmisión de mensajes. Están diseñados para contestar a las preguntas de la gente como en una conversación en vez de limitarse a darle indicaciones para que encuentre información, como hacen los buscadores. Empresas como Uber, Lufthansa y Pizza Express ya los utilizan para responder a las consultas de los clientes y anotar reservas, y muchas otras están en camino de hacerlo.

Estos agentes virtuales tienen la capacidad de mejorar algunos aspectos de la atención al cliente, y desde luego, son más fáciles de utilizar que los sistemas telefónicos automatizados a los que les cuesta entender hasta tus datos personales básicos. No obstante, también son un obstáculo más que separa a los usuarios de un ser humano capaz de dar verdaderas respuestas a preguntas difíciles, y ‒algo fundamental‒ de mostrar la compasión y la buena disposición que suelen ser la base de un servicio de atención al cliente de calidad. Es posible que los chatbots sean los responsables de que los clientes y las empresas lo descubran a base de tropiezos.

Para muchas compañías, automatizar el servicio de atención al cliente, o al menos parte de él, es una idea tentadora. De este modo no solo se logra reducir la exposición de los empleados a muchas de las situaciones desagradables propias de este trabajo, sino que también se ayuda a cribar numerosos problemas corrientes o sin importancia antes de que sea necesaria la atención, más cara, de una persona. Esto podría facilitar que las empresas redujesen sus costes, al tiempo que serviría para calmar a los clientes que únicamente necesitan soluciones sencillas a los problemas habituales.

Sin embargo, sustituir a los empleados humanos por otros artificiales no es tan sencillo. Para empezar, a pesar de los avances verdaderamente asombrosos en el reconocimiento y la traducción automáticos, el lenguaje, con todas sus variantes y errores, sigue siendo un asunto peliagudo. Los agentes automatizados todavía son demasiado incompetentes y poco sensibles a él, y en el caso de determinados problemas, sería difícil o imposible comunicarse con ellos.

Buenos, pero no lo suficiente

El talento es la capacidad de lograr buenos resultados, y el dominio, la de resolver una situación más difícil de lo normal. Manejar las situaciones excepcionales es un arte, y a menudo la calidad de un servicio de atención al cliente tiene que ver con los casos inusuales o imprevistos en los que intervienen clientes potencialmente enfadados. Si bien los agentes virtuales pueden proporcionar respuestas a preguntas básicas de manera convincente, la inteligencia artificial aún no es lo bastante hábil para vérselas con los casos atípicos y excepcionales.

Es posible que, al principio, las empresas no lo perciban como un problema, ya que la automatización de la atención introduce una manera de separar a los clientes cuyo servicio requiere un esfuerzo adicional. Solo hay que poner en contacto con un empleado humano a aquellas personas cuyos problemas confunden al robot. Sin embargo, es probable que, al pasar por el frustrante proceso de hablar con un ordenador desconcertado, el cliente se enfade todavía más con el servicio. A la larga, la consecuencia podría ser que este se buscase otro proveedor, en particular si le resulta difícil conseguir que un asistente humano venga en su ayuda cuando el robot es incapaz de hacerlo.

Yo mismo experimenté una variante del tema al intentar pedir un taxi una vez que un tren sufrió una avería. Tenía el número de teléfono de una empresa de la zona y llamé. Me pusieron con un servicio automatizado incapaz de reconocer la dirección de recogida en cualquiera de las modalidades de denominación y expresión que se me pudieron ocurrir.

En los tiempos que corren es cada vez más difícil tener una conversación telefónica con una persona de carne y hueso

Por alguna feliz casualidad, me pusieron con un agente humano, pero, antes de que tuviese tiempo de explicar el aprieto en que me encontraba, este me dijo que me pasaba con el sistema de reservas, y el bucle infernal volvió a empezar. Esta triste historia acabó con una caminata, una afortunada recogida por un taxi negro conducido por una persona en una zona por lo demás absolutamente desierta, y el juramento de que, en adelante, evitaría la primera empresa siempre que me fuese posible.

Los servicios automatizados pueden encargarse de los casos corrientes, pero todavía son incapaces de adaptarse a las circunstancias excepcionales o, al menos, de reconocer cuándo es necesaria la flexibilidad de la intervención humana. Desde el punto de vista del cliente, el problema va aún más allá. Algunas situaciones no solo requieren la capacidad humana de entender y resolver los problemas, sino una dosis de compasión y empatía.

Es posible programar un agente virtual para que adopte determinado estilo de interacción, pero, en situaciones inesperadas o difíciles, seguirá resultando extrañamente incoherente. Hoy en día, la investigación de la inteligencia artificial no dispone de una hoja de ruta funcional que le permita aplicar algo que se parezca a la compasión humana de manera convincente.

A veces los clientes enfadados necesitan una palabra amable y la oportunidad de expresarse con alguien dispuesto a escuchar, así como ‒o a veces en vez de‒ que les resuelvan el problema. Y, a menudo, la calidad del servicio al cliente depende de los gestos de buena voluntad hechos a su criterio por un empleado concreto siguiendo sus propios sentimientos de empatía, más que de una serie de normas fijas.

Esto es algo muy difícil de reproducir mediante la inteligencia artificial, ya que depende en gran medida del contexto de la situación. En mi opinión, la comprensión del contexto sigue siendo uno de los problemas más escurridizos y pendientes de resolver de la disciplina, y es probable que lo siga siendo unos cuantos años.

A pesar de ello, por lo visto la promesa de la reducción de costes, además de otras ventajas de la automatización, son tan atractivas que, en los próximos años, los chatbots y otros servicios de inteligencia artificial dirigidos a los clientes van a seguir expandiéndose sin contemplaciones. Lo más probable es que, a medio plazo, el resultado sea un tratamiento de las quejas aún más tecnocrático y menos flexible. O peor aún. A medida que los algoritmos se refinen, el proceso de toma de decisiones puede volverse opaco y dejar muy poco margen a la intervención apaciguadora de un supervisor humano.

Si no queremos que esto ocurra, tenemos que ser conscientes de que el camino de la asistencia no está pavimentado con buenas intenciones, sino que se fundamenta en la comprensión de lo limitada que es hoy por hoy la inteligencia artificial a la hora de entender los contextos, las excepciones y la condición humana.

Daniel Polani es catedrático de Inteligencia Artificial de la Universidad de Hertfordshire.

Cláusula de divulgación: Daniel Polani recibe financiación de los proyectos Horizon 2020 socSMCs y WiMUST, y actualmente es presidente de la Federación RoboCup.

Este artículo fue publicado originalmente en inglés en la web The Conversation.

Traducción de News Clips.

The Conversation

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_