El suicidio de una niña británica dispara el debate sobre la responsabilidad de las redes sociales
Un tribunal apunta por primera vez a dos tecnológicas, Instagram y Pinterest, al considerar que contribuyeron a que la joven Molly Russell se quitara la vida
La joven Molly Russell, de 14 años, fue hallada muerta en su habitación la mañana del 21 de noviembre de 2017 en Harrow, al noroeste de Londres. Se había quitado la vida. Su familia nunca detectó ningún comportamiento extraño en ella, más allá de que durante el último año pasaba más tiempo encerrada en su habitación. Lo achacaron a los cambios propios de la adolescencia. Pero cuando su padre, Ian Russell, revisó el correo electrónico de Molly en busca de alguna posible explicación de la tragedia, se encontró con un mensaje de Pinterest de hacía dos semanas titulado “Pins de depresión que te pueden gustar”. Siguió investigando y comprobó que, durante los seis meses anteriores a su muerte, la joven compartió o reaccionó en Instagram ante más de 2.000 publicaciones relacionadas con el suicidio, las autolesiones o la depresión.
Cinco años después, Instagram y Pinterest han sido llamadas a capítulo por las autoridades británicas. Elizabeth Lagone, directora de salud y política de bienestar de Meta, empresa matriz de Instagram, y Jud Hoffman, director global de operaciones de la comunidad de Pinterest, declararon a principios de octubre en un juzgado británico. Es la primera vez que dos tecnológicas participan en un proceso legal relacionado con el suicidio de un usuario.
“[Molly Russell] murió a causa de lesiones provocadas por ella misma mientras padecía de depresión y sufría los efectos negativos de contenidos en internet”, dijo Andrew Walker, abogado y médico forense (senior coroner) para el Distrito Norte de Londres. Esta figura tiene en el Reino Unido la potestad de iniciar investigaciones independientes que determinen las causas de la muerte de las personas. Walker no clasificó el suceso como un suicidio: el jurista estableció que internet había “afectado su salud mental [en referencia a Russell] de forma negativa y contribuido a su muerte”.
Las empresas no se enfrentan a multas ni sanciones. No se las convocó a un juicio penal o civil, sino a sesiones forenses. Pero se ha abierto el debate acerca de su corresponsabilidad en ciertos casos de suicidio, algo que no había sucedido antes. “Nuestros pensamientos están con la familia de Molly y con otras familias que se han visto afectadas por el suicidio o las autolesiones”, asegura Hoffman a EL PAÍS por correo electrónico. “La historia de Molly ha supuesto un cambio significativo para nosotros y seguiremos trabajando para crear un lugar seguro y positivo para nuestros pinners [usuarios de Pinterest]”.
Frances Haugen señaló el camino hace ahora un año. La exempleada de Meta llevó a la compañía a su peor crisis existencial a golpe de filtraciones de documentos internos, que alimentó una vasta investigación periodística de The Wall Street Journal. De entre las muchas revelaciones que aportó la ingeniera, hubo una que tuvo especial repercusión: los ejecutivos de Instagram ofrecían a sabiendas contenidos tóxicos a los jóvenes porque resultaban más adictivos y se monetizan mejor. Hasta el punto de que una presentación de trabajo revelaba que un 13% de las chicas británicas y un 6% de las estadounidenses que decían haber tenido pensamientos suicidas habían cultivado ese deseo gracias a dicha red social.
Los datos del Pew Research Center muestran que se multiplican las demandas en EE UU de padres que consideran que los algoritmos de las redes sociales causan perjuicios físicos a sus hijos. En lo que va de año se han registrado más de 70 pleitos contra Meta, Snap (dueña de Snapchat), ByteDance (matriz de TikTok) y Google por haber provocado ansiedad, depresión, trastornos alimentarios o falta de sueño en adolescentes y jóvenes adultos por culpa de su adicción a las redes sociales. De acuerdo con Bloomberg Businessweek, al menos siete de esos procesos proceden de padres cuyos hijos se han suicidado.
Janet Majewski, cuya hija de 14 años se quitó la vida, demandó en agosto a TikTok, Snapchat y Meta aludiendo que las citadas redes sociales son responsables de que la joven emprendiera un camino de no retorno. “Tienen que cambiar lo que muestran a los niños, modificar el algoritmo de manera que no les lleven a la oscuridad”, declaró a Bloomberg Businessweek.
Los pleitos a los que se enfrentan las redes sociales les piden que se responsabilicen de los efectos nocivos de sus productos, igual que sucedió hace 30 años con las tabaqueras. “Las tecnológicas creen que ese no es su problema. No está en su cultura empresarial luchar de verdad contra la difusión de contenidos que puedan fomentar el suicidio”, opina Albert Gimeno, portavoz de la asociación Padres 2.0, especializada en ciberacoso, adicciones tecnológicas o violencia digital, entre otras. “Las medidas que han puesto en marcha y los equipos que han creado para eliminar el contenido dañino no solo tienen que lidiar con un ingente volumen de información a revisar, sino con otros departamentos de las propias compañías que van en la dirección opuesta, como marketing, publicidad, ventas o comunicación”, añade.
Las redes sociales son enormemente influyentes en las vidas de los jóvenes. “La población adolescente con ciertos rasgos de personalidad y vulnerabilidades emocionales se ponen en contacto en un entorno donde pueden desplegar dolor, desesperación y desconexión con las vías de contacto tradicionales”, ilustra el psicólogo y psicoterapeuta Luis Fernando López, codirector del Proyecto ISNISS y coordinador técnico del programa Hablemos de Suicidio del Colegio Oficial de Psicólogos de Madrid. “Estos perfiles se encuentran en las redes sociales porque se sienten acompañados en los temas que les preocupan, mantienen cierto anonimato y ven que pertenecen a un grupo, tienen la seguridad de no ser enjuiciados y rechazados. Empiezan con comunicaciones públicas y luego evolucionan a entornos privados donde empiezan a desarrollarse conductas como las autolesiones o los pensamientos suicidas”, describe. En España, el número de suicidios infantiles se ha triplicado desde 2006.
Gimeno no tiene constancia de que en España estén proliferando demandas contra las redes sociales, como sí sucede en EE UU. Tampoco cree que tuvieran demasiado recorrido, y mucho menos que resolvieran el problema. “Los propios padres, la Administración, los centros educativos, el resto de internautas y otras empresas tecnológicas y de la comunicación también tiene un papel que desempeñar”, explica.
Algoritmos y supervisión manual
Cada minuto se suben a internet 2,4 millones de imágenes en Snapchat, 1,7 millones de publicaciones en Facebook o 66.000 fotos en Instagram, según la consultora Domo. La aproximación de las tecnológicas para cribar toda esa información combina los medios automáticos y analógicos. “La política actual de Pinterest sobre autolesiones ofrece una lista detallada de contenidos para su eliminación y la limitación de su distribución, con más de 25.000 términos en la lista de bloqueados”, apunta Hoffman. “Cuando el contenido infringe nuestras políticas, tomamos medidas al respecto a través de procesos humanos y automatizados. Si un usuario busca contenidos relacionados con el suicidio o las autolesiones, que no se le muestren resultados y, en su lugar, se le muestre un aviso que le dirija a expertos que puedan ayudarle si tiene problemas”.
La respuesta de Instagram es más flexible. Por un lado, establecen herramientas de control parental de los contenidos que ven los adolescentes. También prohíben los que promueven el suicidio o las autolesiones. “Encontramos y eliminamos el 98% de ese contenido antes de que se nos comunique acerca de ello”, apunta un portavoz de Meta. Por otro lado, la compañía permite que la gente hable de sus propios sentimientos y que comparta contenidos que traten sobre el suicidio, siempre que no lo promuevan.
El enfoque mixto, que combina herramientas automáticas de detección de material problemático con la moderación humana de contenidos, predomina en el sector. TikTok, por ejemplo, publica informes trimestrales sobre el cumplimiento de sus normas. En el último, que abarca de abril a julio de este año, se muestra que se eliminaron 113,8 millones de vídeos, lo cual supone en torno al 1% del total de vídeos publicados. “De estos, el 6,1% fueron eliminados por incumplir las políticas relacionadas con suicidio y retos peligrosos”, sostienen fuentes de ByteDance, propietaria de la red social.
Una medida más porosa, porque se puede falsear, pero que las tecnológicas se toman en serio, es la edad mínima de acceso. Facebook, TikTok, Instagram, Pinterest y Snapchat no aceptan a menores de 13 años; en YouTube hace falta tener 14. Google bloquea ciertas búsquedas y muestra teléfonos de ayuda a quienes se interesan por contenidos relacionados con las autolesiones o el suicidio. Lo mismo hace TikTok, que está empezando a sustituir a Google como el buscador preferido de los más jóvenes.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.