Ramón Salaverría: “La salud se ha convertido en un arma arrojadiza de tipo ideológico”
El investigador acaba de recibir una ayuda de la Fundación BBVA para estudiar durante dos años cómo se difunden en las redes sociales las noticias falsas
El clima frío mata el coronavirus. Usar soluciones salinas en la nariz previene el contagio. La culpa de la pandemia es del 5G. Son solo algunos de los centenares de bulos que se han compartido miles de veces en las redes sociales en las últimas semanas. El equipo que lidera Ramón Salaverría Aliaga (Burgos, 1970) captura todos los tuits que se publican a escala mundial relacionados con la Covid-19. Este grupo de investigadores forma parte de la Universidad de Navarra y del Centro Nacional de Supercomputación de Barcelona y acaba de recibir...
El clima frío mata el coronavirus. Usar soluciones salinas en la nariz previene el contagio. La culpa de la pandemia es del 5G. Son solo algunos de los centenares de bulos que se han compartido miles de veces en las redes sociales en las últimas semanas. El equipo que lidera Ramón Salaverría Aliaga (Burgos, 1970) captura todos los tuits que se publican a escala mundial relacionados con la Covid-19. Este grupo de investigadores forma parte de la Universidad de Navarra y del Centro Nacional de Supercomputación de Barcelona y acaba de recibir una ayuda de la Fundación BBVA para investigar durante los próximos dos años cómo se difunden en redes sociales las noticias falsas sobre salud.
“Fake news se ha convertido en una especie de palabra marchamo utilizada por todo el mundo y asociada al contenido falso”, afirma Salaverría, que es profesor de periodismo y vicedecano de investigación de la Facultad de Comunicación de la Universidad de Navarra. Para él, es importante hacer una diferenciación entre dos tipos de contenidos: “Por un lado, los que no son ciertos pero no responden a una voluntad deliberada de engañar al público. Por otro, aquellos creados para engañar a segmentos concretos de la sociedad”.
Los primeros a veces nacen con una simple broma: “Un usuario lo dice sin pensar que va a crear un efecto bola de nieve. La creación de estos contenidos atiende a una irresponsabilidad social que sería la misma que la de quienes estos días van al campo a hacer una barbacoa con 20 personas cuando les han dicho 60.000 veces que se queden en su casa”.
En otras ocasiones “hay una voluntad deliberada de generar una polarización ideológica, de atacar al adversario y mostrarse al frente de la batalla ideológica”. Salaverría explica que este tipo de comportamientos primero fueron comunes en el ámbito político. Después en el climático. “Ahora la salud se ha convertido en un arma arrojadiza de tipo ideológico. Desde la extrema izquierda, el argumento principal es que cuando la derecha estaba en el poder desmanteló la sanidad pública y por eso estamos así. Desde la extrema derecha, se plantea que el Gobierno no sabe operar frente a la crisis y no asume responsabilidades”, cuenta el profesor.
Estos posicionamientos son los que llevan a los usuarios a fabricar informaciones e imágenes. Así lo explica el investigador, que hace referencia al bulo de que hay respiradores reservados para determinados políticos o al montaje difundido por Vox de unos ataúdes con banderas de España en la Gran Vía de Madrid. Detrás de las noticias falsas, según sostiene, hay toda una estructura. Especialmente en el ámbito de la política, donde “muchas veces los creadores buscan cambios de pensamiento a medio y largo plazo”: “No debemos pensar en una persona aislada. Hay equipos de usuarios perfectamente organizados que tienen estrategias sobre cuándo es mejor publicar las noticias falsas o las dinámicas de redifusión. Por no hablar de los bots”.
En los últimos meses, Twitter ha eliminado centenares de bots en la plataforma. Más recientemente, durante la alerta sanitaria, la compañía ha detectado 1,5 millones de cuentas sospechosas de manipular información sobre el coronavirus. Además, ha borrado centenares de tuits con información engañosa sobre la Covid-19. ¿Son más peligrosos los bots o los humanos? “Son peligrosos los humanos que no están prevenidos sobre los bots. Los bots son simples cajas de resonancia de la información. No es lo mismo que un mensaje en las redes te llegue de un único usuario que de 20 perfiles diferentes. Lo verdaderamente delicado es el comportamiento posterior de las personas como tú y yo a partir de ese contenido”, asegura Salaverría.
Desde que se decretó el estado de alarma el pasado 14 de marzo, ha aumentado considerablemente el uso del teléfono móvil. La primera semana de confinamiento los usuarios lo utilizaron de media una hora más de lo habitual cada día —unas tres horas y media al día—, según el estudio del impacto del coronavirus en el uso del móvil de Smartme Analytics. Chatean, hacen videollamadas y también consumen más información. “Esta pandemia de la Covid-19 es la primera pandemia de las redes sociales. La estamos viviendo en tiempo real a través de estas plataformas”, asegura.
La información falsa llega más lejos, más rápido y a más gente que la verdadera. En redes públicas como Twitter o Facebook, la difusión de fake news “es más rápida”. Pero en WhatsApp “es mucho más efectiva, ya que las envían familiares, amigos o compañeros trabajo”. La ausencia de pensamiento crítico, para Salaverría, “es un problema planetario”: “De los miles de millones de usuarios de Internet, que no disponen de una alfabetización mediática”.
Sí que hay diferencias por edades. Pese a que “hay una idea extendida de que los peor informados son los jóvenes”, el profesor hace hincapié en que la gente que más se cree las noticias falsas son los adultos y ancianos. Estudios recientes revelan que los mayores de 60 años tienen más dificultades para identificar noticias falsas y son mucho más propensos a difundirlas en redes. “Están menos alerta ante informaciones potencialmente engañosas porque toda su vida han estado acostumbrados a contenidos que habían tenido un filtro profesional tanto en el periódico como en la radio o la televisión”, añade.
Las consecuencias de creer noticias falsas pueden ser directas o indirectas. Salaverría pone como ejemplo un bulo viral en Irán. Indicaba que si se bebía alcohol puro una persona con la Covid-19 podía curarse: “Las agencias de noticias internacionales señalan que hay personas que han muerto después de haber consumido ese alcohol. En este caso el efecto directo es la muerte de quien ha creído esa noticia”.
Sin embargo, explica que lo más habitual son efectos indirectos. “En Pamplona hace unos días se compartió en WhatsApp una supuesta llamada para que los ciudadanos facilitaran unas gafas especiales de buceo al sistema de salud. Se decía que las querían convertir en respiradores”, explica. Los usuarios empezaron a llamar al teléfono de información por el coronavirus. La policía tuvo que desmentirlo en Twitter. Pidió que pararan porque estaban colapsando las líneas.
Los gigantes tecnológicos han tomado medidas para combatir la desinformación durante la pandemia. Instagram anunció a finales de marzo que dejaría de recomendar contenido relacionado con la Covid-19 a menos que sea publicado por entidades como la Organización Mundial de la Salud. WhatsApp solo permitirá compartir mensajes “altamente reenviados” con un contacto cada vez. Para Salaverría, “no están haciendo todo lo que está en su mano para atajar este grave problema”. Subraya que “siguen sin hacerse responsables de los contenidos que se publican en ellas” y sugiere que no se deberían admitir cuentas anónimas o bajo pseudónimos. “Alguien determinó en algún momento que Popeye podía publicar desde Twitter, pero ¿quién es Popeye? Cuentas que se esconden tras el anonimato son muchas veces las que lanzan la piedra y esconden la mano. Y las que se atreven a hacerlo. Hay pocas personas que lo hagan con nombre y apellidos porque podrían ser objeto de persecución legal”, afirma.
‘Big data’ para investigar las dinámicas de difusión en redes sociales
El grupo, formado por ocho profesionales de la Universidad de Navarra y del Barcelona Supercomputing Center, va a aplicar las metodologías big data a escala masiva para ver cuál ha sido el modelo de diseminación de las noticias falsas sobre salud especialmente en España. Los investigadores presentaron su propuesta para recibir la ayuda de la Fundación BBVA en noviembre de 2019. “Las noticias falsas eran objeto de polémica, sobre todo en el ámbito de la política y del cambio climático. También existía una producción sustancial en el ámbito de la salud, principalmente en cuanto a las vacunas y la homeopatía”, cuenta Salaverría. En la solicitud, señalaban que “si hubiera una pandemia, el fenómeno de las noticias falsas podría generar un impacto social importante”. Ni por asomo se imaginaban que esto ocurriría unas semanas más tarde.
Twitter, según subraya el investigador, es la plataforma que más se presta a realizar un análisis masivo con big data. “Al ser abierto, permite analizar grandes volúmenes de datos sin invadir la privacidad de los usuarios”, explica. Su equipo también investigará cuáles son las dinámicas de difusión en Facebook y WhatsApp hablando con usuarios de estas plataformas: “Les preguntaremos por sus comportamientos cuando les llega una información: si la comprueban y cómo, de qué informaciones se fían o desconfían, si dan crédito a una noticia cuando les llega por un familiar o cómo la comparten”.