_
_
_
_

El lado oscuro de las apps de salud mental: así maltratan la privacidad de sus usuarios

Tras su objetivo declarado de ayudar con la ansiedad o el estrés, la mayoría de estas aplicaciones recogen y comparten una gran cantidad de información confidencial

Salud Mental
Varios jóvenes utilizan sus móviles.

En solo dos años, entre 2019 y 2021, el mercado de las apps de salud mental creció un 54,6%. La pandemia disparó las descargas de estas aplicaciones, orientadas a ayudar a gestionar los efectos del estrés o la ansiedad, según la firma analista Grand View Research. Pero el crecimiento de estas plataformas tiene un lado preocupante. Un estudio de la Fundación Mozilla, que revisó 32 aplicaciones de salud mental y otras destinadas a guiar oraciones, marcó a 28 de ellas con su etiqueta de alarma: Privacidad no incluida.

La mayoría de las apps analizadas recopilan una gran cantidad de datos sensibles y los comparten con terceros. Todo en un contexto en el que debía primar la confidencialidad, teniendo en cuenta que se trata de cuestiones muy íntimas, que van de la depresión o la ansiedad a trastornos alimentarios o pensamientos suicidas. La Fundación Mozilla afirma que muchas de estas aplicaciones piden más información de la necesaria para prestar sus servicios, como la geolocalización, permiso para acceder a los contactos de la agenda o para acceder a fotos y vídeos.

Aunque lo más grave es la recopilación de información confidencial. “Algunas de ellas hacen un cuestionario a la gente sobre cómo se siente, registran su diagnóstico, les preguntan si están tomando alguna medicación, cuál es su edad, su orientación sexual. Y lo hacen sin mostrarles antes su política de privacidad o pedirles consentimiento para usar sus datos”, explica Misha Rykov, uno de los investigadores que ha trabajado en el estudio. “Estamos hablando de personas que generalmente están en un estado vulnerable. La gente acude a estas aplicaciones porque no se encuentra bien”, añade.

Algunas de estas apps de salud mental conectan a usuarios con terapeutas, como BetterHelp o Talkspace, mientras que otras son chatbots, como Youper o Woebot, que personalizan la conversación con el individuo para adaptarse a sus problemas. Su modelo de negocio se basa en suscripciones, pero también en capitalizar los datos de los usuarios. “Hay muy poca transparencia sobre lo que sucede con los datos después de que sean recopilados. Lo único que vemos es que recogen una gran cantidad de ellos, y que, según sus documentos de privacidad, frecuentemente los venden o los comparten para fines publicitarios”, apunta Rykov.

Una de las aplicaciones, Talkspace, almacena las transcripciones de los chats entre los terapeutas y los usuarios, que evidentemente deberían considerarse privadas. Según dos antiguos empleados de la compañía contactados por The New York Times, los científicos de datos de Talkspace compartían frases de estas transcripciones con el equipo de marketing para personalizar la publicidad de los usuarios.

Mercado en auge

El mercado global de apps de salud mental está en auge. Se prevé que alcance un valor de 6.200 millones de dólares (5.680 millones de euros) en 2023. Para 2030 se espera que esa cifra crezca hasta los 17.500 millones de dólares, con una tasa de incremento anual del 15,8%, según Grand View Research. Las cifras de otra firma que ha analizado este mercado, The Business Research Company, coinciden notablemente: en 2022 registró un volumen de negocio de 5.490 millones de dólares en el sector y para 2023 vaticinan 6.360 millones de dólares. En su caso, la estimación es hasta el año 2027, cuando calculan que se llegará a los 11.620 millones de dólares de facturación, previo crecimiento del 16,3% anual.

Una de las cuestiones más alarmantes es la relación entre las apps de salud mental y los llamados data brokers, empresas que se dedican a comprar datos y a venderlos a terceros. Las aplicaciones revisadas por la Fundación Mozilla utilizan información de estas entidades y la combinan con la que tienen de sus usuarios. Pero también ceden información a estos data brokers.

“Cuando los datos personales de un usuario terminan en un data broker pueden acabar en otras empresas que tienen capacidad para hacer más difícil la vida de esta persona”, señala Rykov, quien se refiere a las trabas que puede encontrar alguien a la hora de pedir una hipoteca, contratar un seguro médico e incluso obtener un trabajo si cierta información, asociada al estigma de la salud mental, se comparte entre las empresas. “Por ejemplo, Woebot puede compartir datos personales de los usuarios con terceros y estos incluyen a autoridades administrativas, instituciones financieras, compañías de seguros, la policía, procuradores públicos, reguladores y consultorías externas. Todo está escrito en su política de privacidad”, destaca el investigador de la Fundación Mozilla.

Qué sucede con los datos delicados

La información que se puede compartir con los data brokers va desde datos demográficos, como el nombre, la dirección postal, la edad o el género, a detalles más íntimos. Las apps saben (y pueden compartir) si un usuario tiene una relación sentimental, si piensa en el suicidio, si toma medicación, cuál es su trabajo, información sobre su salud, sobre su historial médico, sus síntomas.

“Los datos se usan para entrenar nuevos algoritmos y también para servir publicidad dirigida específicamente a personas en un estado de vulnerabilidad”, incide Rykov. Muchas de estas aplicaciones incluyen rastreadores de anuncios de terceros, entre los que se cuentan habitualmente Google y Facebook. El analista Jen Caltrider, que ha liderado la investigación de la Fundación Mozilla, explica las repercusiones que esto puede tener: “Si Facebook y Google, a través de rastreadores de anuncios, recogen datos de las apps de salud mental, como BetterHelp o Headspace, pueden incorporar esta información sensible a tu perfil como receptor de publicidad”.

Esto les proporciona conocimiento sobre el usuario en cuestiones problemáticas donde los mensajes publicitarios, con un interés económico detrás, pueden contribuir a enturbiar el problema. “Google o Facebook podrían saber que usas frecuentemente una app de meditación o para reducir la ansiedad y podrían mostrarte anuncios de medicamentos para la ansiedad o de seudoterapias, que pueden causar más daño que beneficio”, aclara Caltrider.

Aparte del entramado para la rentabilización de los datos, las apps de salud mental también adolecen de una falta de seguridad llamativa para el tipo de información que manejan. La Fundación Mozilla hace hincapié en que estas aplicaciones permiten contraseñas débiles y no ha podido averiguar si impulsan actualizaciones de seguridad con frecuencia. Esto último es clave para protegerse de ataques y evitar filtraciones de datos.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_