El debate | ¿Cómo condicionan las redes y los bulos nuestro modelo de convivencia?

La tragedia de la dana y la campaña electoral en EE UU han puesto en evidencia el descarado papel de las plataformas en la propagación de desinformación y su capacidad para amenazar la seguridad ciudadana y, a la larga, la propia democracia

Las redes sociales contribuyen a propagar noticias falsas y desinformación.Arkadiusz Warguła (Getty Images/iStockphoto)

Las redes sociales han amplificado el alcance y el impacto social del viejo fenómeno de la desinformación hasta niveles que amenazan tanto cuestiones de seguridad como los procesos electorales sobre los que se sustenta la democracia. La tragedia de la dana en Valencia y la campaña electoral en Estados Unidos son claros ejemplos de cómo interactúan las redes sociales en la propagación de bulos y su impacto sobre la vida de los ciudadanos.

Decía la filósofa Hannah Arendt que “mentir constantemente no tiene como objetivo hacer que la gente crea una mentira, sino garantizar que nadie crea e...

Suscríbete para seguir leyendo

Lee sin límites

Las redes sociales han amplificado el alcance y el impacto social del viejo fenómeno de la desinformación hasta niveles que amenazan tanto cuestiones de seguridad como los procesos electorales sobre los que se sustenta la democracia. La tragedia de la dana en Valencia y la campaña electoral en Estados Unidos son claros ejemplos de cómo interactúan las redes sociales en la propagación de bulos y su impacto sobre la vida de los ciudadanos.

Decía la filósofa Hannah Arendt que “mentir constantemente no tiene como objetivo hacer que la gente crea una mentira, sino garantizar que nadie crea en nada” y esa es sin duda la mayor amenaza a la que se enfrenta nuestro modelo de convivencia. Javier Salas, periodista de EL PAÍS, incide en que no es casualidad que el Rey, recibiendo una lluvia de barro de los vecinos en Paiporta, señalara con rotundidad que la desinformación había emponzoñado el ambiente, mientras que Marta Peirano, ensayista especializada en tecnología, analiza cómo ha cambiado el ecosistema mediático en Estados Unidos en los últimos años y el papel central que desempeñan las plataformas en el discurso político.


Tras la máquina del veneno hay personas interesadas

Javier Salas

Nadie que siga las redes sociales españolas puede haberse sorprendido por el estallido de contenidos tóxicos tras la tragedia de la dana. Es la dinámica natural de ese ecosistema cada vez que hay un evento estremecedor: en apenas unas horas, la consternación da paso a la toxicidad, cuando no directamente al odio. Y a los bulos, que llevaron al inspector jefe de Bomberos de Valencia, José Miguel Basset, a señalar que estaban siendo un “problema de orden público” por confundir y asustar a la población en unos momentos especialmente delicados, la mañana del miércoles 30. Desde entonces, la desinformación ha cristalizado en forma de mentiras brutales, medias verdades interesadas y señalamientos para ganar la batalla del relato.

La percepción inicial es que el volumen de veneno y falsedades es monumental, casi como concentrar lo que sufrimos en la pandemia en unos pocos días. En muchos casos, se han roto algunos de los filtros básicos de contención de bulos, ya que aparecen con naturalidad en programas con millones de espectadores y concentran la atención de periodistas guiados por una nueva audiencia: la que demanda las verdades que han visto en las redes. Por eso, tras varios días asomados al pozo de las mentiras, y ya cansados de pedir regulación y transparencia a las plataformas digitales, surge la pregunta: ¿Cómo es posible que sigamos aún en el primer curso de redes sociales? ¿Cómo es posible que no hayamos aprendido a usarlas y que sigan desbordando su lodazal sobre la vida real?

La primera lección que deberíamos aprender es que no existe la dicotomía entre lo real y lo digital. Lo hemos visto cientos de veces y no terminamos de entender que nuestras emociones, intereses y conflictos fluyen por lo digital y vuelven hacia nosotros, como en una máquina de diálisis inversa, en la que nuestra sangre se ensucia si no aplicamos filtros. Cuando seguíamos Eurovisión por Twitter, la experiencia podía ser muy gratificante: no hay nada más satisfactorio que la risa colectiva. Pero en momentos de miedo y desasosiego, las redes pueden ser auténtico chapapote pegajoso en nuestros sentimientos. Conozco gente que es capaz de mirar las redes en circunstancias como estas sin sufrir cicatrices, pero creo que la experiencia general es la contraria: yo he perdido un año de vida por cada día que he mirado Telegram y X durante la crisis de la dana.

La segunda lección es que no hay nada espontáneo en las redes. Absolutamente nada. Cuando es el algoritmo el que manda, el móvil nos maneja como una tragaperras. Y en el escaso margen que no son capaces de controlar y explotar desde Silicon Valley, se cuelan numerosos actores que se dedican profesionalmente a aprovechar esos vacíos. Conozco bien Instagram o TikTok por pasar muchas horas delante, pero hay gente que estudia cada línea del código de la red social para colarse delante de mis ojos, para meterse en mi vida. Pueden ser profesionales de la publicidad, pero también profesionales de la toxicidad. Es la industria del bulo, que trabaja sin descanso para generar narrativas falsas, con la convicción de que alguna de esas mentiras se terminará filtrando hacia el gran público. Fue especialmente notable que el Rey, mientras volaba el barro en Paiporta, señalara con rotundidad que la desinformación había emponzoñado el ambiente. El dolor de los vecinos es real, pero hay pirómanos echando gasolina en los móviles.

La tercera lección, y decisiva, es la importancia del factor humano. Los estudios más recientes sobre desinformación coinciden en que muchas veces los usuarios diseminamos bulos a sabiendas: porque fastidiar al contrario da placer, porque es un granito de arena más en mi discurso, porque da la razón a mi bando. Y porque pensamos: “Al final y al cabo, si no es real, podría serlo”. Por eso, los agitadores se aprovechan sin dificultades de nuestros sesgos y prejuicios. Y ese factor humano, el de los activistas del odio, también debemos visualizarlo: detrás de la máquina del veneno hay personas interesadas. Como en la escena de El mago de Oz: cuando se corre la cortina, vemos que tras esa temible voz atronadora hay un frágil señor de carne y hueso. Con sus intereses e incentivos. A este lado del móvil, hay una persona. Al otro lado del bulo, también.


Las urnas son el objetivo final de la desinformación

Marta Peirano

Si pensábamos que las elecciones presidenciales estadounidenses de 2016 pasarían a la historia como las más desquiciadas de la democracia, aquel momento parece lleno de tierna ingenuidad. El asalto al Capitolio en enero de 2021 y la campaña para deslegitimar el resultado electoral de 2020 han subido las apuestas. Hoy el drama electoral se desarrolla en un ecosistema mediático mucho más complejo: más escenarios, más concursantes, más opacidad, más teorías de la conspiración. Y más esfuerzos de coordinación por parte de quienes quieren intervenir el proceso democrático. Importante tenerlo en cuenta mientras esperamos resultados en un tsunami de desinformación.

Para empezar, las plataformas han desmantelado o reducido drásticamente sus equipos de moderación, incluyendo los dedicados a garantizar la integridad electoral. Tanto Elon Musk como Mark Zuckerberg han renegado públicamente de la política de moderación de contenidos de X y Meta, aunque con soluciones muy distintas. Mientras Meta ha decidido desincentivar los contenidos políticos, Musk ha convertido X en el epicentro de la campaña republicana. Google, por su parte, ha anunciado que ya no intentará moderar contenidos políticos en YouTube.

Para complicarlo más, el ecosistema está todavía más descentralizado, ofuscando nuestra capacidad para entender de un vistazo lo que está ocurriendo en tiempo real. Además de Truth Social y capítulos locales de plataformas de proximidad como Tinder o NextDoor, los dos nuevos escenarios de acción política son TikTok y Telegram. Con 170 millones de usuarios, el gigante asiático centraliza el discurso político de la generación que vota por primera vez. Por su parte, las características únicas de Telegram, a medio camino entre la mensajería y la red social, lo han convertido en un sistema de comunicación de masas clandestino, donde miles de personas pueden planear un ataque coordinado a las infraestructuras del voto sin que las autoridades, la justicia, los académicos o los periodistas lo puedan ver.

Al mismo tiempo, las plataformas han limitado o eliminado el acceso a herramientas como Crowdtangle, una aplicación que usaban investigadores y equipos de verificación de todo el mundo para analizar dónde nace y cómo se distribuye la desinformación en tiempo real. X ya no permite ver quién da like a un post, impidiendo comprobar si la popularidad de un contenido ha sido inflada artificialmente por cuentas falsas. TikTok ha desactivado el recuento de visualizaciones de hashtags, una herramienta para medir el alcance y la propagación de contenidos. Por no mencionar los modelos de IA generativa, que han abaratado y acelerado la producción de cuentas, contenidos y hasta medios de comunicación falsos.

Hoy hay más actores externos produciendo desinformación. En 2016, Rusia era el único actor estatal tratando de influir en las elecciones. Fueron los servicios secretos rusos los que hackearon los correos de Hillary Clinton, y la Internet Research Agency, la agencia de trolls y noticias falsas del oligarca Yevgeny Prigozhin, creó docenas de grupos políticos con cuentas falsas a través de grupos de Facebook para sembrar violencia en las distintas comunidades de EE UU. Prigozhin, que pasó de “chef de Putin” a fundar el grupo paramilitar Wagner, murió en previsibles circunstancias tras una dramática insurrección contra el Gobierno ruso. Ahora Rusia paga a influencers estadounidenses para crear videos virales a favor de Donald Trump, mientras dos nuevos actores estatales han entrado en juego: Irán y China.

Hoy la nueva fuente de desinformación se llama X y Musk es el nuevo Prigozhin. En 2020, Twitter centralizaba la conversación entre la clase política y los medios de comunicación y fue el primero en bloquear a Trump durante el asalto al Capitolio. Ahora Musk ha transformado X en una máquina de distribución de contenidos falsos sobre inmigración y fraude electoral. Imposible mirar las métricas sin pensar que han sido manipuladas. Pero la diferencia más importante es que somos tan conscientes de la inundación de noticias falsas que nos cuesta creer los hechos, incluso cuando ocurren de verdad.


Más información

Archivado En