_
_
_
_

Los titulares engañosos de medios tradicionales son más peligrosos que las noticias claramente falsas

Un estudio revela que los encabezados sin contexto viralizan en redes con la ayuda de actores malintencionados, provocando un riesgo mayor de desinformación

Legislación UE
Un usuario sostiene un móvil con la aplicación de Facebook abierta en Moscú en 2021.Pavel Golovkin ( AP / LAPRESSE )
Jordi Pérez Colomé

Titulares como “Un médico ‘sano’ muere dos semanas después de recibir una vacuna contra la covid; el Gobierno investiga por qué” del Chicago Tribune o “Sorprendente número de trabajadores sanitarios de primera línea rechaza una vacuna de la covid”, de Forbes, fueron dos ejemplos de los mensajes más virales en Facebook a principios de 2021 y los que más afectaron la tasa de vacunación en EE UU contra la covid. Las noticias falsas son más efectivas, pero su alcance fue mucho menor, porque lo importante es la voluntad de quienes mueven las noticias de medios fiables.

Esta es la principal conclusión de un nuevo artículo publicado en la revista Science que analiza el impacto de los links sobre vacunas en Facebook entre enero y marzo de 2021. Los enlaces marcados como falsos fueron vistos 8,7 millones de veces, que fueron solo un 0,3% de los 2.700 millones de visualizaciones sobre vacunas en ese periodo, según datos de la plataforma. En cambio, titulares no marcados como desinformación, pero que insinuaban que las vacunas eran dañinas, muchos en medios tradicionales, fueron vistos cientos de millones de veces. La diferencia en alcance es tan extraordinaria que en comparación la desinformación pura tiene mucha menos relevancia.

“Nuestro análisis sugiere que los verificadores de Facebook identifican la desinformación más perjudicial, así que en eso Facebook hacía un trabajo ‘decente”, dice Jennifer Allen, investigadora del Massachusetts Institute of Technology (MIT) y coautora del artículo. “Pero otras historias pueden volverse virales en redes y actores malintencionados pueden usar historias rigurosas para promover narrativas engañosas, algo que las plataformas deberían esforzarse más en abordar. Aunque también los medios deberían ser conscientes al escribir sus titulares, ya que su contenido puede presentarse fuera de contexto”, añade. Un titular como el del Chicago Tribune en un grupo contrario a las vacunas, con ese contexto cargado, puede ser devastador.

Este hallazgo desplaza una parte del foco tradicional sobre las noticias falsas y la desinformación para recordar que los medios más tradicionales tienen también que vigilar qué publican, más en una era donde la viralidad se explica a menudo solo por el titular. “La competencia por los clics es un reto”, dice Allen, “pero no creo que eso libere a los medios de responsabilidad. Los periodistas deberían tener en cuenta que en redes solo se leen los titulares y las historias pueden sacarse de contexto. Deberían esforzarse en evitar posibles malinterpretaciones de su trabajo”.

Los autores calculan el impacto real que tuvieron estos titulares según las cifras de usuarios que los consumieron. El impacto negativo de los titulares engañosos sobre la gente que debía vacunarse fue 46 veces mayor que la desinformación más evidente. En un comentario en Science sobre el artículo, el investigador de la Universidad de Cambridge Sander van der Linden usa los 233 millones de estadounidenses de Facebook para calcular que esos titulares evitaron la vacunación de al menos 3 millones de personas. “Es un cálculo aproximado” advierte Allen.

El estudio estima que el contenido escéptico sobre las vacunas en Facebook redujo la intención de vacunarse en EE UU en 2,3 puntos, pero la intención de vacunarse puede diferir de la decisión real final de vacunarse. “Asumimos, basándonos en otra investigación, que la adopción de la vacuna es el 60% de la intención de vacunarse y de ahí obtenemos el número de 3 millones. Esa cifra es especulativa, pero sugiere que el impacto potencial de estos titulares podría ser considerable”.

El artículo se centra en los efectos de los titulares sobre vacunación. Pero Van der Linden cree que sería fácilmente replicable en otros ámbitos, como la política, y “solo depende de un acceso continuado a datos relevantes”, dice.

Mujer, mayor y conservadora

En este debate entre noticias falsas de poco alcance y titulares aparentemente serios que se vuelven virales, Science publica un segundo artículo sobre un fenómeno conocido pero pocas veces medido: los superdifusores. Son un subgrupo centrado en desinformación de los “semibots”, como EL PAÍS los bautizó en una investigación de 2019 titulada “A 200 tuits por hora desde el sofá: quién está detrás de los perfiles políticos más activos de Twitter”. Son el pequeño grupo de usuarios que convierte su cuenta en una metralleta de retuits de desinformación o información sesgada. Gracias a esta nueva investigación, se sabe que su impacto real en el debate público es mayor del que parece.

El estudio observó un panel de más de 664.000 usuarios votantes registrados durante las elecciones presidenciales de EE UU en 2020. Entre todos ellos, solo un pequeño grupo de 2.107, que representaba el 0,3%, lograba distribuir el 80% de las noticias falsas. Son esos superdiseminadores. Solo ese grupo lograba con su labor alcanzar un 5,2% de los votantes registrados en Twitter. “Estos hallazgos destacan una vulnerabilidad de las redes sociales para la democracia, donde un pequeño grupo de personas distorsiona la realidad política de muchos”, escriben los autores del artículo.

La investigación ha permitido también identificar algunas características personales de este grupo: son sobre todo mujeres, más bien mayores y conservadoras. Este detalle coincide con un estudio de Nature de verano de 2023, con datos en ese caso de Facebook, que demostraba que la mayoría abrumadora de consumidores de desinformación eran conservadores. Este estudio se limita a Twitter por falta de datos de otras redes sociales, según Nir Grinberg, investigador de la Universidad Ben Gurion en el Negev (Israel) y uno de los coautores: “Me hubiera gustado tener la capacidad de responder a las preguntas sobre otras redes con evidencia empírica, pero la disponibilidad de datos de las plataformas de redes sociales limita este tipo de investigación”.

Los usuarios de Twitter [hoy X] que seguían a estas cuentas tendían a estar más expuestos a desinformación y exposición repetida, lo que son factores destacados en la creencia en mentiras, según el artículo. El impacto de estos usuarios que dedican buena parte de sus jornadas a retuitear no es banal: si un candidato hubiera querido influir como ese grupo de superdifusores debería haber gastado 20 millones de dólares: “No solo encuentran una audiencia considerable en redes, sino que resultaron ser miembros influyentes de sus comunidades, porque proporcionan una cuarta parte de las noticias falsas a sus seguidores”, dice el artículo.

Estas novedades para entender la desinformación abren opciones para pensar en nuevas maneras de limitar su alcance. “La moderación de contenido es un equilibrio entre la libertad de expresión y el daño potencial”, dice Allen. “Pero es difícil para las plataformas medir cómo de dañino puede ser el contenido”. Así ha ocurrido hasta ahora, donde las plataformas se han limitado a reducir el alcance del y han pasado por alto este otro tipo de contenido más dañino que viola el espíritu, pero no la letra de la ley.

“Nuestra metodología permite que las plataformas primero identifiquen el contenido que potencialmente tiene un impacto negativo y luego elaboren políticas”, dice Allen, que trabajó en Meta antes de empezar su doctorado en el MIT. “Como primer paso, Facebook podría priorizar el envío de contenido a los verificadores basándose en su impacto potencialmente dañino, en su capacidad persuasiva multiplicada por su potencial audiencia, donde las páginas con muchos seguidores se priorizan más”, explica.

Allen también propone como alternativa válida algo similar a las Notas de Comunidad de X, que son una comprobación de hechos colaborativa entre usuarios. “Puede ser una forma de mitigar el impacto de historias dañinas que pasan en una verificación de hechos, pero que carecen de contexto relevante”, dice Allen.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Jordi Pérez Colomé
Es reportero de Tecnología, preocupado por las consecuencias sociales que provoca internet. Escribe cada semana una newsletter sobre los jaleos que provocan estos cambios. Fue premio José Manuel Porquet 2012 e iRedes Letras Enredadas 2014. Ha dado y da clases en cinco universidades españolas. Entre otros estudios, es filólogo italiano.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_