Expulsar a los líderes tóxicos de las redes sociales reduce la propagación del odio en internet
Un estudio de Facebook demuestra que borrar un centenar de cuentas de ‘insultadores’ tiene un impacto positivo en la audiencia
Controlar el discurso de odio en internet es uno de los mayores desafíos de esta era de la información. Nadie lo niega, pero tampoco se sabe cómo hacerlo de manera efectiva. Por ejemplo, eliminar a quienes diseminan contenidos tóxicos es una de las alternativas escogidas por algunas plataformas; ahora, un estudio llevado a cabo internamente por Facebook, con 26.000 de sus usuarios, muestra que excluir a los líderes de las comunidades extremistas es una forma eficiente de desmantelar el disc...
Controlar el discurso de odio en internet es uno de los mayores desafíos de esta era de la información. Nadie lo niega, pero tampoco se sabe cómo hacerlo de manera efectiva. Por ejemplo, eliminar a quienes diseminan contenidos tóxicos es una de las alternativas escogidas por algunas plataformas; ahora, un estudio llevado a cabo internamente por Facebook, con 26.000 de sus usuarios, muestra que excluir a los líderes de las comunidades extremistas es una forma eficiente de desmantelar el discurso de odio en las redes sociales, sobre todo a largo plazo. La eliminación de un centenar de cuentas de ese tipo tuvo un gran impacto porque negar el altavoz a los miembros principales conduce a la mejora de la red en general.
Algunos estudios anteriores apuntaban a que la exclusión de estos perfiles nocivos en plataformas como Twitter, Reddit o Telegram ayudaron a reducir las actividades indeseadas, incluso esos discursos de manera general. Pero no era suficiente para demostrar la relación de causa y efecto que sí expone este estudio, llevado a cabo por investigadores de Meta, empresa matriz de Facebook, y publicada hoy en PNAS.
Para llegar a esas conclusiones, Daniel Robert Thomas y Laila A. Wahedi analizaron los efectos producidos en la audiencia de seis comunidades, cuyos representantes más activos fueron expulsados de la plataforma. En concreto, los investigadores de Meta querían entender hasta qué grado este público seguía observando, publicando y compartiendo contenidos de odio o interactuado con otros perfiles, después de que sus referentes dejaran de existir. Los resultados manifiestan que, de media, todos esos factores disminuyeron. “Reducen su consumo y producción de contenidos que incitan al odio, y se relacionan menos con otros miembros de la audiencia”, afirman en el estudio.
Tras las exclusiones de los perfiles, los usuarios pasaron a ver un 10% menos contenido de odio de media. Dado que consumían al rededor de cinco publicaciones tóxicas diariamente, el resultado se traduce en una menos cada dos días. Además, al dejar de interaccionar con miembros de la misma comunidad tóxica, los miembros pasaron a ser expuestos a otro tipo de contenido, grupos o comunidades, que no eran esencialmente de carácter violento. Ninguno de los datos del estudio puede vincularse a las cuentas de usuario originales, debido a los términos de protección de la intimidad de Facebook.
La audiencia más fiel a esas organizaciones que diseminan odio puede buscar otras fuentes tras la expulsión de los odiadores profesionales. Sin embargo, se trata de una reacción efímera y que se ralentiza en tan solo dos meses. La audiencia más lejana a esos líderes disminuye su interacción con este contenido desde un primer momento. Según manifiesta el estudio, esto es positivo, porque se trata del grupo que tiene más riesgo de ser influenciados por las comunidades tóxicas.
En general, los resultados sugieren que la eliminación selectiva puede llevar a redes sociales “más saludables”. “La eliminación de líderes y los esfuerzos de degradación de la red pueden reducir la capacidad de las organizaciones de odio a operar con éxito en internet”, explican.
No es fácil, en cualquier caso. Al ser excluidos de las plataformas populares, esos perfiles podrían fácilmente crear a nuevos, y tratar de construir una nueva red. También podrían migrar a otras plataformas. Y además, otras organizaciones tóxicas que sí siguen vigentes podrían reemplazar su posición y cooptar a los simpatizantes, que seguirían expuestos a los contenidos dañinos. Para que esta estrategia de eliminación sea más eficaz, los autores proponen que las eliminaciones sean hechas por varios perfiles a la vez porque “impide a las organizaciones reconstruir sus redes”, de manera que se dificulta para los miembros encontrarse de nuevo, porque no hay cuentas restantes para coordinar a los que regresan a la plataforma.
Discurso de odio y tóxicos
Si se trata de una decisión que queda a las manos de las plataformas, ¿querrán realmente llevarlos a cabo? Sílvia Majó-Vázquez, investigadora asociada al Instituto Reuters para el estudio del periodismo de la Universidad de Oxford y profesora en la Vrije University Amsterdam, explica que la moderación de contenidos en redes sociales debe “hacerse buscando un equilibrio entre la libertad de expresión y la preservación de otros derechos que pueden verse dañados”, por lo que es fundamental diferenciar entre el discurso de odio, el discurso tóxico y el incivismo.
En términos conceptuales, tal y como explica Majó-Vázquez, el incivismo se trata del nivel más leve, que va desde un lenguaje informal que incluye faltas de respeto o sarcasmo. Cuando se trata de una manifestación más extrema y “se ahuyenta a los demás de participar de una conversación”, nace el discurso tóxico, que puede convertirse en violento. “Desde un punto de vista democrático, son muy dañinos, porque no permiten el ideal democrático de deliberación pública”, detalla por correo electrónico.
Según opina esta experta, la suspensión de perfiles se debe hacer teniendo en cuenta esas dimensiones conceptuales y con mecanismos manuales “que puedan garantizar que la libertad de expresión se está preservando”. Y este criterio también debe servir para las figuras políticas. “Hay que hacer un ejercicio como el que haríamos fuera de las redes, en el que se equilibre el derecho a la libertad de expresión del que emite el mensaje y la preservación de los demás derechos fundamentales de la audiencia. Los mecanismos automatizados de eliminación de mensajes y suspensión de cuentas deben revisarse continuamente y debe priorizarse la evaluación de esos mensajes por parte de expertos, como ya hacen algunas plataformas con los consejos asesores externos para los casos más relevantes”, subraya.
Uno de sus estudios llevados a cabo en el Instituto Reuters en siete países ha demostrado que ni siempre la relación entre toxicidad y engagement es positiva, que cada caso es diferente: depende de la temática de cada discusión y de cómo de severo es el contenido. En el contexto de la pandemia y al analizar Twitter, los resultados demostraron que la toxicidad y la popularidad del contenido tóxico no van de la mano. “De hecho, vemos que los tuits más tóxicos pierden popularidad entre la audiencia. Sin embargo, mensajes con niveles bajos de toxicidad sí, que ven sus niveles de popularidad crecer”, dice Majó-Vázquez. Por lo cual, no es posible afirmar si esta relación es fruto de una decisión de la audiencia de “no premiar la toxicidad” o si el resultado de las moderaciones llevadas a cabo por la plataforma. “Es algo que no podemos responder con los datos de nuestro trabajo, pero este resultado cuestiona la creencia que los contenidos tóxicos siempre son los más populares”, concluye.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.