_
_
_
_
_

Corregir antes que censurar: la estrategia más útil para combatir las ‘fake news’

Un estudio revela que demostrar la falsedad de una noticia, posibilidad que ha incorporado recientemente X en sus tuits, es más eficaz que eliminarla en la batalla contra la desinformación

Elon Musk
Elon Musk en un simposio sobre antisemitismo, organizado por la European Jewish Association, en Cracovia, Polonia el 22 de enero de 2024.NurPhoto (NurPhoto via Getty Images)

Elon Musk ha tenido una buena idea. Lo afirma un estudio publicado en la Journal Information Systems Research, el pasado 28 de febrero. Las Community Notes (notas comunitarias) de X (antes Twitter), diseñadas para combatir la desinformación, han probado ser más efectivas que la censura en prevenir la propagación de noticias falsas, de acuerdo con los hallazgos de esta investigación. Un punto a favor para el magnate, quien, desde su adquisición de la plataforma, ha recibido críticas por su enfoque en el manejo de las fake news, entre otras cosas, por haber dificultado la evaluación de sus políticas al limitar el acceso a los datos de la plataforma.

El análisis se basa en 1.468 artículos periodísticos que difunden información falsa acerca de temas relacionados con la salud. La conclusión principal es que la implementación de la política de X, lanzada por primera vez en 2021 con el nombre de Birdwatch, logra reducir la difusión de estas noticias falsas. Los post que incluyen enlaces a artículos de desinformación tienen menos probabilidades de ser retuiteados, citados o comentados. Este efecto se nota principalmente en que hay menos casos de personas reales compartiendo enlaces a información dudosa. Sin embargo, no afecta a las cuentas manejadas por bots. En 2022, un artículo científico de la Universidad de Purdue (EE UU) analizó este sistema y llegó a una conclusión similar, añadiendo que esta medida podría reducir el número de publicaciones y quizás la actividad total de los usuarios en la plataforma.

Las Community Notes son un mecanismo a través del cual los usuarios pueden escribir notas en tuits específicos para proporcionar contexto adicional, señalar errores o destacar información verificada que contradice o aclara el contenido de la publicación. Otras personas en la plataforma pueden valorar estas notas en términos de su utilidad y precisión. Esto se hace para asegurar que los apuntes agregados sean de alta calidad y confiables. Los usuarios votan si la nota es útil o no, y estos votos determinan la visibilidad de la corrección, que aparecen directamente bajo el tuit como una forma de contexto. Según especifica la compañía, este mecanismo busca fomentar un ambiente de transparencia y colaboración, donde la comunidad juega un papel activo en la moderación del contenido.

Una mejora que llega tarde

Por otro lado, diversos expertos en verificación han destacado que los cambios implementados por Elon Musk en las políticas de seguridad y moderación de contenidos tras adquirir Twitter han llevado a que la plataforma sea ahora considerablemente menos confiable que antes. Raúl Magallón, autor de Unfaking news: cómo combatir la desinformación (Pirámide, 2019), cree que estas notas son una buena medida, pero pone en duda que vayan a tener un impacto significativo en el actual panorama en el que se encuentra la red social. “Cuando das cinco pasos para atrás y uno hacia delante, no sé hasta qué punto se puede hablar de una mejora”, se pregunta.

En principio, hay varios estudios que confirman las impresiones de los expertos, recordando que ahora es más difícil sacar conclusiones de la proliferación de noticias falsas en la antigua Twitter. Según un informe elaborado por Sience Feedback, las cuentas de X de superpropagadores de desinformación han aumentado un 42% sus interacciones desde la compra de esta red social por el dueño de Tesla, mientras que las de cuentas de alta credibilidad han bajado un 6%. En la semana siguiente a que Musk adquiriera la compañía, las cuentas consideradas poco fiables experimentaron un incremento del 57% en su nivel de interacción, medido en “me gustas” y retuits, de acuerdo con un estudio de NewsGuard.

Myriam Redondo, autora del libro Verificación digital para periodistas (Editorial UOC, 2018), valora de manera positiva esta herramienta a condición de que los usuarios de la plataforma sepan que se está utilizando esta política. “También se les debe ofrecer esta opción como una ‘ruta’ que puede tomar o no tomar, es decir, que en última instancia ellos naveguen con conciencia de lo que sucede”, afirma. En su opinión, lo más acertado sería aplicar el desvío (nudge) en aquellos casos en que la desinformación afecte a aspectos esenciales como la salud o la seguridad pública y “cuando alcance cotas previamente establecidas como alarmantes por esa plataforma”.

Por ejemplo, si una plataforma de redes sociales identifica una noticia que ha sido desmentida o que carece de fundamento, en lugar de eliminarla o censurarla, podría aplicar un “desvío” mostrando un mensaje o enlace hacia artículos verificados o fuentes confiables que contrarresten o aclaren la información presentada. “Es esencial que las plataformas establezcan y comuniquen claramente sus criterios para determinar qué se considera desinformación alarmante, asegurándose de que estas medidas no parezcan tener un sesgo o una agenda oculta”, añade Redondo.

Un estudio realizado por el MIT en 2018 concluyó que las noticias falsas se difunden más rápidamente en Twitter que las noticias reales, y por un margen significativo. El análisis es notable por ser el estudio longitudinal más grande jamás realizado sobre la difusión de noticias falsas en línea. Utilizó datos de Twitter, que abarcan desde 2006 hasta 2017, involucrando aproximadamente 126.000 historias tuiteadas por alrededor de 3 millones de personas, más de 4.5 millones de veces. Según los hallazgos de la investigación, las historias falsas tenían un 70% más de probabilidades de ser retuiteadas que las historias verdaderas. Los investigadores utilizaron información de seis organizaciones independientes de verificación de hechos para clasificar las historias de noticias como verdaderas o falsas.

Desconfianza en la IA

En enero de 2024, el Informe de Riesgos Globales 2024 del Foro Económico Mundial identificó la desinformación como uno de los principales riesgos en el contexto global actual y a futuro. Manifestó una preocupación particular por las noticias falsas generadas mediante inteligencia artificial, las cuales poseen el potencial de intensificar la polarización social y deteriorar el discurso público.

Este fenómeno ha suscitado especial alarma en el ámbito de las elecciones en diversos países durante los últimos años. El informe del Foro Económico subraya la importancia de implementar campañas de alfabetización digital que equipen a las personas con las herramientas necesarias para discernir y desestimar la desinformación y los datos incorrectos. También resalta la necesidad de una acción colectiva y coordinada a nivel tanto local como internacional para contrarrestar la desinformación. De acuerdo con el documento, la colaboración entre los distintos sectores, incluyendo los ámbitos público y privado, es esencial para desarrollar estrategias eficaces que atenúen las repercusiones de la desinformación en la sociedad.

En la misma línea, Jesús Miguel Flores Vivar, catedrático de periodismo en la Universidad Complutense de Madrid, subraya la importancia de la alfabetización mediática. “Es crucial que las personas aprendan lo antes posible a diferenciar una noticia falsa de información veraz”. ¿Cómo lograrlo? Vivar sugiere la creación de un organismo independiente, distinto de las plataformas y medios de comunicación, que otorgue sellos de calidad a las fuentes de noticias confiables.

“La gente debería estar informada de que existen este tipo de distintivos de calidad. Un buen ejemplo es el Trust Project, que a través de sus Indicadores de Confianza, ofrece un método para evaluar la integridad y transparencia de las organizaciones periodísticas, promoviendo así un entorno informativo más veraz y de confianza”. Flores Vivar también señala la tendencia creciente hacia el uso de inteligencia artificial que, mediante algoritmos, facilita el diseño y desarrollo de bots y plataformas dedicados a combatir la toxicidad informativa.

Los tres expertos consultados coinciden en que la actuación actual de las plataformas digitales en la lucha contra la desinformación es insuficiente. Redondo opina que “buena parte de lo que hacen en este campo son actuaciones de cara a mejorar su imagen, pero no a solventar el problema de verdad, ya que hacer lo segundo supondría una merma demasiado importante de sus ingresos”.

Por su parte, Magallón es contundente al calificar a estas compañías, asignándoles una nota de suspenso.: “Aunque cada red social presenta un escenario distinto, las medidas implementadas hasta ahora resultan claramente insuficientes”. El experto considera que la desinformación se ha enraizado de manera permanente. “Se ha transformado en un componente esencial de la geoestrategia internacional, afectando ámbitos críticos como el cambio climático. Lo cierto es que estamos considerablemente atrasados en materia de alfabetización mediática, la cual debería ser un componente fundamental de la educación secundaria”. La buena noticia es que la solución está nuestras manos.

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_