_
_
_
_

Un estudio revela que Facebook podría tumbar el impacto viral de los bulos

Un oscuro cambio en sus políticas de moderación redujo a cero las visualizaciones de contenidos falsos en las elecciones estadounidenses de 2020, pero no lo hizo en 2024

Mark Zuckerberg Facebook
Mark Zuckerberg, presidente ejecutivo de Meta, durante una audiencia en el Senado de EE UU en enero de 2024. Matt McClain (The Washington Post/Getty)
Jordi Pérez Colomé

Los cambios en las políticas de moderación de una red social pueden tener un rol enorme en lo que ven sus usuarios. Este hecho, ya conocido, se ha podido medir por primera vez con datos cedidos por una plataforma. La desinformación etiquetada en Facebook pasó de 50 millones de visualizaciones en julio de 2020 a prácticamente cero en noviembre, días antes de aquellas elecciones de EE UU.

Ese cambio momentáneo se debió a medidas extremas de moderación llamadas “romper el cristal” y tenían como objetivo limitar la viralización de contenido problemático en plena campaña electoral. Y lo consiguieron. Sin embargo, este año, tras el cambio de presidente en la Casa Blanca y con Mark Zuckerberg cenando con Donald Trump en su residencia, Meta dice que ha aprendido la lección de la moderación excesiva: “Sabemos que cuando aplicamos nuestras reglas cometemos demasiados errores, lo que limita la libertad de expresión que queremos permitir. Demasiadas veces quitamos o limitamos contenido inofensivo y castigamos injustamente a demasiada gente”, escribió Nick Clegg, presidente de Asuntos Globales de Meta, el pasado 3 de diciembre.

El problema de estas prácticas es que dependen solo de la voluntad de Meta y sus dirigentes, que a su vez dependen de sus intereses, no del interés público para una democracia: “La preocupación es que estas empresas ignoren el interés público general, solo para cumplir con su objetivo de ganar dinero a corto plazo, y que también puede implicar servir sin que se note a los que mandan”, dice David Lazer, coautor de la investigación publicada en Sociological Science y profesor de la Universidad Northeastern de Boston (EE UU). El artículo pertenece a la serie de trabajos que un grupo de investigadores empezó a publicar en las revistas Science y Nature en verano de 2023 y que descubrió, por ejemplo, que la desinformación era ampliamente consumida por gente de ideología de derechas. La publicación tanto tiempo después de los hechos analizados —cuatro años— de esta nueva investigación se debe a los intrincados procesos de revisión y aceptación de los artículos en las revistas científicas.

Cada red es un mundo propio

Este acceso sin precedentes a las tripas de una red social permite probar cómo las reglas y la moderación de cada plataforma influyen en cómo se distribuye y viraliza el contenido. Las características de una red, como por ejemplo el funcionamiento de Páginas y Grupos en el caso de Facebook, y sus normas de moderación, son dos elementos clave. Y ambos pueden tener un peso potencialmente mayor que el propio algoritmo para la información que ven los usuarios.

Junto a ese hallazgo, la investigación también ha confirmado algo ya apuntado por otras investigaciones anteriores: la distribución de la desinformación depende de un grupo pequeño de usuarios muy disciplinados. “El resultado de que solo alrededor del 1% de los usuarios son responsables de la difusión de la mayoría de los mensajes etiquetados como desinformación es consistente con lo que otras investigaciones han encontrado en otras plataformas y momentos”, dice Sandra González Bailón, profesora de la Universidad de Pensilvania (EE UU) y también coautora del artículo. “Podemos generalizar este patrón según el cual una minoría es responsable de la mayoría del contenido problemático que circula por las redes”, añade.

Más allá de ese detalle, es difícil aclarar si el comportamiento que describe este artículo funcionaría igual en otras redes. X, Instagram o TikTok tienen sus propias características que provocan dinámicas distintas, además de su propia moderación.

La capacidad de influir en elecciones

Este mes Meta ha revelado que, solo en 2024, ha eliminado unas 20 operaciones secretas de influencia organizadas por Gobiernos. Rusia sigue siendo el principal responsable, seguida por Irán y China. Ninguno de estos esfuerzos tuvo éxito, según la compañía.

La capacidad de impactar en un proceso democrático en un país es mucho mayor desde los puestos directivos estas redes. El problema es que a veces la corriente puede ir a favor de una ideología, pero luego se gira. Los casos recientes de X y Telegram, influidos por sus dueños y luego por presión de las autoridades en Brasil y Francia, demuestran que la única solución razonable es que las redes sean más transparentes con sus medidas.

“A estas alturas resulta muy difícil asumir que las plataformas van a hacer lo más conveniente para proteger los procesos democráticos, la convivencia, o un intercambio de opiniones racional y deliberativo”, dice González Bailón. “La investigación, el acceso a datos, es la única manera de determinar cómo las plataformas controlan el flujo de información. Nuestro trabajo deja clarísimo que tienen la capacidad de controlarlo. Es una fuente de poder que, en sociedades abiertas, no debería poder ejercerse en la oscuridad”, añade. La esperanza de los investigadores es la regulación para forzar a las plataformas a abrir el acceso a estos datos. Europa está intentando hacer algo con su Ley de Servicios Digitales, que de momento no tiene equivalente en EE UU.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Jordi Pérez Colomé
Es reportero de Tecnología, preocupado por las consecuencias sociales que provoca internet. Escribe cada semana una newsletter sobre los jaleos que provocan estos cambios. Fue premio José Manuel Porquet 2012 e iRedes Letras Enredadas 2014. Ha dado y da clases en cinco universidades españolas. Entre otros estudios, es filólogo italiano.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_