Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

Facebook eliminará los contenidos engañosos que inciten a la violencia

La medida ha sido probada en Sri Lanka, un país sacudido por los enfrentamientos religiosos

Facebook
Mark Zuckerberg durante una conferencia en California en mayo. AFP

Facebook vuelve a cambiar sus políticas para apagar incendios. La gigante tecnológica, que castiga los discursos de odio y los llamamientos a la violencia, será más severo y a partir de ahora bloqueará los contenidos que incitan al vandalismo. Así responde la red social a los críticos que apuntan a que su servicio ha contribuido a la violencia sectaria en países como Sri Lanka y Myanmar. El anuncio llega la misma semana en que el dueño de la compañía, Mark Zuckerberg, se vio acorralado tras desechar la idea de retirar de la plataforma a los negacionistas del Holocausto y sus post conspirativos, ya que hacerlo sería ir en contra de la misión de la compañía. No pasaron 24 horas antes de que matizara sus dichos: “No tenía intención de defender las intenciones de la gente que lo niega”.

La nueva política restrictiva está siendo probada desde el mes pasado en Sri Lanka, un país sacudido por los enfrentamientos religiosos entre musulmanes y budistas. Los mensajes eliminados afirmaban que los musulmanes estaban dando o vendiendo comida envenenada a los budistas. "Estamos comenzando a implementar esta nueva política en países donde vemos ejemplos en los que la información errónea (...) ha llevado a la violencia", ha dicho Tessa Lyons, una portavoz de Facebook. La compañía se apoyará en organizaciones locales y agencias de seguridad para determinar si el contenido compartido en la red social, como fotos o noticias, puede ser inexacto o engañoso con el único fin de contribuir o agravar la violencia física.

Uno de los mayores desplazamientos forzosos del 2017, el de la minoría musulmana rohingyá de la antigua Birmania (Myanmar), fue causado en parte por la divulgación de mensajes de odio y ataques contra ellos a través de las redes sociales. En abril, Facebook pidió perdón por su responsabilidad en la difusión de ataques contra los rohingya. La compañía reconoció que fue demasiado lenta en responder a las demandas de las organizaciones de la sociedad civil birmana, que alertaron de la propagación de mensajes de odio. “Me temo que Facebook se ha convertido en una bestia”, declaró la investigadora de la ONU para Myanmar, Yanghee Lee, en marzo en Ginebra. India también ha presionado a la compañía para que desarrolle medidas más efectivas que frenen la difusión de noticias falsas en su plataforma de mensajería WhatsApp que ha llevado a enfrentamientos violentos.

Hasta ahora, el gigante tecnológico bajaba de categoría a las publicaciones que incitaban a la violencia, disminuyendo su visibilidad, en vez de eliminarlas por completo. Con esto, se "logra el equilibrio correcto entre la libre expresión y una comunidad segura y auténtica", según Zuckerberg, que ha sostenido en varias ocasiones que su empresa es una compañía tecnológica, no un medio que edita información.

La mano dura contra este tipo de mensajes Facebook acaba de comenzar en los territorios más vulnerables a la violencia sectaria, pero debiera ser común para todos los países en los próximos meses. "Estamos empezando a trabajarla en países donde hemos visto casos recientes en los que se ha percibido que la desinformación alienta a la violencia física más allá de la virtual. Si provocan daños reales, daños físicos reales, o si atacan a personas, ese contenido no debería estar en la plataforma", ha agregado Lyons.

Los cambios de política de Facebook vienen precedidos del escándalo de Cambridge Analytica, que desveló la fuga de datos de 87 millones de usuarios y ha supuesto una gira del mea culpa de su fundador en el Senado de Estados Unidos y en la Eurocámara"Ha quedado claro en los últimos años que no hemos hecho lo suficiente para evitar que las herramientas que hemos creado se utilicen también para causar daño. Ya se trate de noticias falsas, la interferencia extranjera en elecciones o el mal uso de los datos de la gente. Fue un error y lo siento”, admitió Zuckerberg, una vez más intentado apagar el fuego, en Bruselas.

Continúa la lucha contra las fake news

Ana Torres

Facebook celebró este jueves un evento en Menlo Park (California) al que invitó a 32 periodistas internacionales en un intento por ofrecer una imagen de transparencia de la compañía. Los portavoces destacaron el esfuerzo de la tecnológica por identificar publicaciones categorizadas como falsas por expertos independientes con los que colaboran. Su fórmula para controlar la difusión de esos post es darles menor visibilidad en el News Feed(el llamado “muro”) de los usuarios, de forma que la promoción interna de esos contenidos en la plataforma queda limitada.

Como novedad, a aquellos usuarios que sí les aparece esa información categorizada como falsa, Facebook les ofrece unos recuadros en la parte posterior del post con enlaces a otras fuentes de información consideradas como fiables por la tecnológica.

¿Cómo diferencia Facebook los contenidos falsos a los que su algoritmo penaliza con menor visibilidad de aquellos que pueden incentivar o promover agresiones físicas y que, por lo tanto, deben ser eliminados? “No siempre hay una línea clara. Toda esta problemática supone un gran reto para nosotros”, señaló Tessa Lyons. “Por eso estamos dando tanta importancia a la valoración de nuestros colaboradores”, dijo en alusión a las asociaciones locales con las que están trabajando en Sri Lanka, una acción que pronto quieren poner en marcha en Myanmar, aseguró la portavoz. “No podemos hacer esto solos”, reconoció Sara Su, otra de las portavoces de Facebook.

Más información