Mi ‘psico’ es un robot: la IA emerge como alternativa para problemas de salud mental

Cada vez más personas recurren a los llamados ‘therapy bots’, herramientas de IA con teórica utilidad psicoterapéutica. Algunos generan respuestas totalmente imprevisibles y simulan cualidades humanas como la empatía o la compasión

Los chatbots orientados en dar ayuda psicológica ganan adeptos.David Espejo (Getty Images)

Un ente vacío de rostro pero lleno de buenas intenciones. Un oráculo para navegar entre las madejas de la mente. Un compañero etéreo que jamás interrumpe y siempre encuentra palabras certeras. Eternamente disponible e incapaz de juzgar. Al alcance tras la descarga de una app y por un precio muy asequible, incluso gratis. Desde que irrumpieran a finales de la pasada década, los therapy bots —robots virtuales ...

Suscríbete para seguir leyendo

Lee sin límites

Un ente vacío de rostro pero lleno de buenas intenciones. Un oráculo para navegar entre las madejas de la mente. Un compañero etéreo que jamás interrumpe y siempre encuentra palabras certeras. Eternamente disponible e incapaz de juzgar. Al alcance tras la descarga de una app y por un precio muy asequible, incluso gratis. Desde que irrumpieran a finales de la pasada década, los therapy bots —robots virtuales programados con inteligencia artificial (IA) para fines psicoterapéuticos— han ido ganando terreno en la oferta de salud mental. Una utopía hecha realidad o un aterrador presente distópico, según se mire.

Dos grandes preguntas rodean a estos psicobots (por referirnos a ellos con un neologismo adecuado a nuestra cultura). Una atañe a su capacidad de adaptarse —con resultados imprevisibles— a la idiosincrasia de cada persona mediante la llamada IA generativa. La otra abre el melón a cuestiones aún de mayor calado: ¿Resulta legítimo que emulen cualidades humanas? “Crear intimidad emocional haciendo que una máquina simule empatía o compasión es manipular a la gente”, estima por videoconferencia Jodi Halpern, que dirige un grupo sobre ética y tecnología en la Universidad de Berkeley (EE UU). Un tercer interrogante sobrevuela el debate: ¿Podrán algún día estos vaporosos artilugios sustituir a los psicólogos de carne y hueso?

En una amalgama de servicios poco regulados, hoy conviven start-ups especializadas en salud mental con chatbots generalistas que, cual fieles consejeros o amigos irredentos, igual se interesan por tu última cita que te felicitan por haber aprobado un examen. Y que, ya puestos, también te recomiendan cómo gestionar un pico de ansiedad o salir de un bucle depresivo.

Wysa pertenece a la primera categoría, donde lo habitual es que la máquina instruya al usuario en los pormenores de la terapia cognitivo-conductual (TCC), el enfoque más popular en los gabinetes de psicología. Probado por este periódico, el bot de Wysa —cuyo uso ya aconseja el sistema público de salud del Reino Unido— insta a reformular distorsiones cognitivas o a manejar con perspectiva estados aflictivos. Su tono se antoja aséptico, y su dinámica terapéutica, ciertamente rígida. “En cuanto alguien se sale de cómo se siente o qué pensamientos tiene, el bot está diseñado para volver a la senda trazada de las herramientas clínicas que le ofrecemos”, explica John Tench, director global de la compañía.

Muy diferente es la experiencia con Pi, uno de tantos bots relacionales o conversacionales —los más conocidos son Replika y Character.ai— que se sirven de modelos extensos de lenguaje (pilar de la IA generativa) para dar lugar a interacciones en apariencia muy reales. Es decir, muy humanas. Durante la prueba, el bot especuló, por ejemplo, con que supuestas carencias de autoestima podían deberse a malsanas relaciones maternofiliales. E insistió, desplegando una abundancia de expresiones hiperbólicas de afecto al más puro estilo anglosajón, en que estaba encantado de prestar apoyo siempre que uno lo necesitara.

En esta división entre bots que guían por los entresijos de la TCC bajo un planteamiento hazlo tú mismo, y otros que improvisan una suerte de tratamiento psicológico sin límites, las fronteras no parecen nada claras. Ni en el funcionamiento (nivel de IA generativa utilizado) ni, sobre todo, en los reclamos que lanzan para atraer usuarios. Dice Halpern que los Pi, Replika y similares se lavan las manos con la excusa de que “no son compañías expertas en salud mental”, aunque, según le consta, “estén focalizando su publicidad en personas que en redes sociales confiesan padecer depresión o ansiedad severas”.

Mientras, entre las empresas que sí explicitan su vocación psicoterapeútica cunden los grises y las medias verdades. “Algunas si declaran abiertamente que no pretenden sustituir a un psicólogo humano, pero otras magnifican sus capacidades y minimizan sus limitaciones”, considera Jean-Christophe Bélisle-Pipon, que investiga sobre ética e IA en la Universidad Simon Fraser (Canadá) y el pasado año publicó en Frontiers un artículo de título diáfano: Tu psicobot no es tu psicólogo.

En su página web, Youper —otra start-up que ofrece servicios similares a Wysa— se autodefine como un psicobot empático”. Y Woebot (competidora de ambas en un mercado al alza) apelaba a este rasgo inherentemente humano hasta que, el pasado año, Halpern y otras voces denunciaron su uso torticero del término en grandes medios como The Washington Post. Bélisle-Pipon sostiene que este tipo de falsedades —toleradas, por su relativa inocuidad, en los anzuelos publicitarios de otras máquinas: coches que nos hacen libres, móviles que albergan el secreto de la felicidad— nunca puede tener cabida al promocionar remedios de salud mental. “No solo se corre el riesgo de crear graves malentendidos entre personas vulnerables, sino que se falta al respeto a la complejidad y profesionalidad de la verdadera psicoterapia, con sus muchos matices dependientes del contexto y su naturaleza profundamente relacional”.

¿Mejor que nada?

Miguel Bellosta Batalla, psicoanalista oscense que ha estudiado a fondo la importancia de la relación profesional-paciente en psicoterapia, confiesa que le “asustan” estos servicios que “deshumanizan un encuentro sincero”. Y recuerda que la investigación ha demostrado de sobra que el factor que más influye en el éxito de un tratamiento psicológico es, precisamente, “el vínculo terapeútico” entre dos seres que comparten ciertos “supuestos como el miedo a la muerte, la búsqueda de sentido o la responsabilidad que implica la libertad”.

Incluso en un enfoque como la TCC (en principio más frío o sujeto a pautas establecidas que el psicoanálisis o las terapias humanistas), Bellosta Batalla estima que en una sesión siempre ocurren “imprevistos que, bien gestionados, pueden tener un impacto fundamental para el paciente”. Y Bélisle-Pipon menciona cualidades que, en su opinión, una máquina nunca podrá atesorar: “la sutileza para leer el lenguaje no verbal, la capacidad para entender experiencias subjetivas o la intuición moral”.

A pesar de su juventud, ya existen estudios solventes que han tratado de medir la eficacia de los psicobots. Un metaanálisis publicado en 2023 en Nature revisó los resultados de 15 investigaciones realizadas con bots que dan rienda a suelta a la IA generativa y con aquellos que ofrecen respuestas más previsibles. Sus autores advirtieron sobre la dificultad de analizar una oferta tan heterogénea y en continua mutación, si bien concluyeron que, en general, este tipo de herramientas mitigan el malestar psicológico puntual sin mejorar significativamente el bienestar de los usuarios. Es decir, alivian a corto plazo pero, al parecer, no sientan bases sólidas para una mente más sana. Otro metaanálisis aparecido el pasado agosto en ScienceDirect —también muy cauto en sus conclusiones— detectó un cierto efecto positivo en personas con síntomas depresivos y apenas imperceptible en individuos aquejados de un trastorno por ansiedad.

Con millones de individuos sin poder acceder —por varias razones, la principal económica— a un psicólogo, otra duda ronda a quienes ven flaquear su salud mental en ausencia de alternativas al uso (véase humanas) viables: ¿Son los therapy bots mejor que nada? El director global de Wysa aclara que, sin aspirar su empresa a “reemplazar la psicoterapia entre personas”, sí puede ayudar a “que la gente entienda y procese lo que siente en un espacio sin estigmas y totalmente anónimo”. A Bélisle-Pipon se le antoja una pregunta pertinente, aunque algo tramposa y de respuesta esquiva. Primero, porque, en muchos casos, recurrir a un psicobot podría “empeorar los síntomas cuando los consejos que este dé sean inapropiados”. Y segundo porque, si permitimos que las máquinas campen a sus anchas en un sector tan delicado, estaríamos abriendo la puerta a un horizonte de salud mental a dos velocidades “que normalice servicios de baja calidad, en lugar de presionar para que el acceso a la psicoterapia real sea cada vez más equitativo”. Profesionales acreditados para quien se los pueda pagar y difusas voces sin corazón para el resto.

Más información

Archivado En