La crisis del coronavirus

Un estudio alerta de que Facebook no detecta el 70% de los bulos

La red social avisará a sus usuarios de la desinformación dañina sobre la epidemia

La granadina María Ruiz cada mañana mira las noticias digitales en el ordenador y se comunica con su compañera de trabajo Laura durante el confinamiento.
La granadina María Ruiz cada mañana mira las noticias digitales en el ordenador y se comunica con su compañera de trabajo Laura durante el confinamiento.Miguel Angel Molina / EFE

El coronavirus está cambiando el mundo que conocíamos. Los bulos que circulan por Internet, probablemente también, y desde antes. Su peso decisivo en el Brexit y en las elecciones estadounidenses que auparon a Donald Trump pusieron en alerta a las redes sociales, que comenzaron a tratar de acotar la intoxicación digital. Vistas las mentiras que circulan durante esta pandemia, fueron insuficientes. Un estudio alerta de que Facebook no localiza el 70% de los bulos en español sobre la pandemia.

La Fundación Avaaz, que lleva años presionando a las redes sociales para que tomen medidas contra los bulos, ha analizado una muestra de más de 100 noticias falsas sobre el coronavirus en Facebook en seis idiomas. Estas publicaciones se compartieron 1,7 millones de veces y tuvieron 117 millones de visualizaciones estimadas, a pesar de haber sido desmentidas por verificadores independientes. “La compañía puede tardar hasta 22 días en emitir etiquetas que avisen de desinformación sobre el coronavirus, con retrasos significativos incluso cuando los socios de Facebook han informado rápidamente a la plataforma sobre el contenido pernicioso. El 41% de las noticias falsas analizadas permanecen en la plataforma sin ninguna etiqueta de advertencia”, informa Avaaz. Además, en función de los idiomas, el panorama es distinto: la compañía no ha emitido etiquetas de advertencia para el 70% del contenido en castellano, comparado con el 29% en inglés.

Facebook responde sobre esos resultados a través de un portavoz: “Su muestra no es representativa de la comunidad en Facebook y sus hallazgos no reflejan el trabajo que hemos realizado. Desde que comenzó el brote hemos eliminado cientos de miles de informaciones erróneas sobre el virus que podrían provocar daños físicos inminentes. También hemos dirigido a más de 2.000 millones de personas a recursos de las autoridades de salud”.

Enlaces a contenido fiable

La empresa anunció este jueves que va a dar otro paso contra la desinformación: avisará a todo el que haya visto un contenido considerado dañino y le remitirá información oficial y fiable. Hasta ahora, la red social tenía varias formas de luchar contra los bulos, como eliminar lo que identifica que puede causar daño físico en las personas, ya que va contra los términos y condiciones de la plataforma. Ahora, quienes hayan interactuado con estos contenidos falaces relativos al coronavirus (ya sea simplemente clicando, compartiendo, comentando o haciendo likes) recibirán a posteriori un aviso de que vieron información falsa con un enlace a una página de la Organización Mundial de la Salud que derriba mitos sobre la covid-19.

Además de esto, Facebook ya marcaba como información posiblemente falsa aquella sobre la que sus verificadores independientes habían alertado, algo que la compañía asegura que reduce su difusión entre un 85% y un 95%. Esto seguirá siendo así, pero si no la consideran “dañina” ni la eliminan ni enviarán alertas a los usuarios que la vieron.

“Lo ideal sería que la alerta fuera más específica y también sería muy recomendable que se aplicase a otras redes sociales, como Twitter o YouTube y WhatsApp, donde sabemos que están circulando muchos bulos. Pero lo que se da ahora es un primer paso importante; Facebook reconoce que hay un problema que puede perjudicar a la salud pública”, explica Luis Morago, director de campañas de Avaaz.

Otro estudio encargado por la misma fundación a la Universidad George Washington y la Universidad Estatal de Ohio titulado Rectificar la Información muestra que, si se le proporciona información fiable, un usuario de Facebook expuesto a bulos puede reducir radicalmente la creencia en la desinformación a casi la mitad de media.

“La típica pregunta que surge es: '¿Se va a censurar? ¿Van a surgir ministerios de la verdad?”, reconoce Morago. “Estamos muy preocupados con que llegue un Gobierno o una empresa y empiece a tomar decisiones sobre la información que considera válida o no, por eso somos partidarios de un sistema de verificadores independientes, que hagan su trabajo con transparencia y que los usuarios sean parte de estos mecanismos”, continúa.

En España, la asociación Maldita es parte de este sistema de verificadores. Clara Jiménez Cruz, una de sus fundadoras, explica que ellos priorizan las noticias que verifican con dos criterios: que sean virales y que puedan suponer un peligro para la salud o la paz social. “Por ejemplo, hubo una tras un incendio en Galicia que decía que el agua en Vigo estaba contaminada por el fuego y no era potable”, expone. A partir de ahí, escrutan la información con una metodología pública, en la que siempre ofrecen las fuentes, que deben ser portavoces autorizados. “Los lectores deben ser capaces de replicarlas para comprobar que lo que decimos es cierto. Cada proceso está auditado y votado por los redactores sénior de Maldita: tiene que haber al menos cuatro votos a favor [de siete] y ninguno en contra”, añade. Jiménez Cruz subraya que los verificadores no son quienes deciden qué contenidos se eliminan de Facebook, esto lo hace la propia red social en función de sus criterios y sus condiciones de uso.

Información sobre el coronavirus

- Aquí puede seguir la última hora sobre la evolución de la pandemia

- Así evoluciona la curva del coronavirus en España y en cada autonomía

- Preguntas y respuestas sobre el coronavirus

- Guía de actuación ante la enfermedad

- En caso de tener síntomas, estos son los teléfonos que se han habilitado en cada comunidad

- Pinche aquí para suscribirse a la newsletter diaria sobre la pandemia


Lo más visto en...

Top 50