Ir al contenido
_
_
_
_
tribuna

ChatGPT, el oído que escucha a una generación

Cada vez más menores recurren a ‘chatbots’ para encontrar apoyo emocional, y pagan el precio

Un grupo de chicas jovenes charlan con sus móviles en mano en un parque de Las Rozas (Madrid).Olmo Calvo

En la atención a la salud mental juvenil, en los últimos años ha surgido una tendencia llamativa. Entre los jóvenes que buscan ayuda por ansiedad o depresión, recurrir a ChatGPT para obtener apoyo emocional es cada vez más común. Incluso cuando los terapeutas dejan claro que ChatGPT no es un terapeuta, muchos jóvenes lo restan importancia: “No me importa, solo estoy hablando con Chat, ya está”.

Esto no es un fenómeno aislado. Investigaciones internacionales muestran que casi tres cuartas partes de los jovenes en Estados Unidos utilizan chatbots de inteligencia artificial como ChatGPT a diario o varias veces por semana. Algunos describen estas conversaciones como tan significativas como las que mantienen con amigos “reales”. Estudios británicos sugieren que los jóvenes recurren a los chatbots porque están disponibles las 24 horas, parecen menos críticos y a menudo dan respuestas más claras que los adultos. Algunos incluso llaman al chatbot un “amigo”.

Esta no es una historia sobre menores que eligen bots en lugar de personas. Es una historia sobre personas y cuidados que no están disponibles para ellos. Los problemas psicológicos entre los jóvenes van en aumento, mientras que los servicios de salud mental juvenil están desbordados por largas listas de espera. Para muchos, el sistema de atención simplemente no ofrece apoyo oportuno ni accesible.

Y es en ese vacío —donde debería estar presente la atención real— donde comienza el peligro. Los chatbots imitan el apoyo, pero sin las salvaguardas de la atención clínica. Están diseñados para ser compañeros de conversación agradables, no clínicos formados. Los chatbots están diseñados para agradar y persistir, no para evaluar riesgos ni establecer límites. No están sujetos a ética, formación ni responsabilidad. No tienen límites profesionales porque nunca fueron concebidos para tenerlos; reflejan emociones, validan pensamientos y siguen haciendo preguntas —no porque comprendan o quieran ayudar, sino porque el objetivo principal es la interacción.

El reflejo emocional y la afirmación constante no son señales de una buena atención: son decisiones de diseño para aumentar la interacción. Pueden resultar reconfortantes, incluso empoderadoras, e invitar a una revelación más profunda. Pero para menores vulnerables a la rumiación, la ansiedad, el bajo estado de ánimo o una autoestima frágil, la afirmación sin cuestionamiento puede convertirse en una trampa. En lugar de ser cuestionados, sus pensamientos negativos son reflejados. En lugar de aliviarse, los pensamientos negativos se refuerzan.

Este riesgo no es meramente hipotético. Varias grandes empresas tecnológicas ya han reconocido que los chatbots de inteligencia artificial (IA) pueden haber contribuido a un grave malestar psicológico, e incluso al suicidio, entre jóvenes. En California, Matthew Maria Raine ha presentado una demanda contra los creadores de ChatGPT, alegando que el chatbot validó los pensamientos suicidas de su hijo y no lo disuadió activamente ni lo derivó a ayuda profesional.

Por supuesto, los psicólogos también validan los sentimientos de sus pacientes. Pero no se quedan solo en la validación. La terapia siempre da un paso más, planteando la pregunta incómoda pero esencial: ¿son realmente ciertos tus pensamientos? En la terapia cognitivo-conductual, el estándar de oro para muchas afecciones de salud mental, el principio central es simple pero exigente: los pensamientos no son hechos. En terapia, los pensamientos no se aceptan al pie de la letra. Se examinan, se cuestionan y se ponen a prueba. Terapeuta y paciente trabajan juntos para sustituir interpretaciones rígidas por perspectivas más equilibradas, flexibles y realistas. Este acto de cuestionar —no siempre reconfortante— es lo que impulsa la recuperación.

Hoy, ChatGPT se ha convertido en el oído que escucha a toda una generación joven. La pregunta ya no es si los jóvenes recurrirán a los chatbots de IA —esa línea ya se ha cruzado— sino cómo evitamos que los chatbots se conviertan en su amigo más cercano, su confidente de mayor confianza y un sustituto de la atención.

Esto no es solo una preocupación individual: es una responsabilidad colectiva. Todo empieza con la educación. Los menores necesitan entender cómo funciona la IA: que los chatbots no son seres conscientes, sino sistemas informáticos entrenados para generar respuestas estadísticamente probables con el fin de aumentar la interacción. Precisamente por eso tienden a estar de acuerdo y a afirmar, en lugar de confrontar o corregir.

La verdadera pregunta no es qué puede hacer la IA, sino qué estamos dispuestos a permitir. Las empresas tecnológicas deben actuar ahora para proteger a los usuarios vulnerables. Mientras que los profesionales de la salud mental están sujetos a estrictos marcos legales y éticos, incluida la legislación sobre atención juvenil, los sistemas de IA operan en gran medida sin tales salvaguardas. Los responsables políticos deben regular con urgencia, no con retrospectiva. Las escuelas deben enseñar a los jóvenes dónde termina la IA y dónde empieza la atención. Y las asociaciones profesionales de psicólogos, psiquiatras y terapeutas de todo el mundo deben alzar la voz —de forma clara, pública y sin demora—.

La atención está regulada. La IA no. Escuchar no es tratamiento —y los menores merecen conocer la diferencia. Depende de nosotros dejar clara esa distinción y proporcionar la orientación y la atención que los jóvenes realmente necesitan.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_

Últimas noticias

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_