¿Sabes cómo funcionan los algoritmos? Es la manera de saber si nos manipulan
Los usuarios deberían aprender a detectar cómo la personalización de contenidos configura su ecosistema informativo. Solo así podremos evitar que nos hagan morder el anzuelo
En los comienzos de las redes sociales, escritores y periodistas de todo el mundo ensalzaban su poder mientras despertaba la Primavera Árabe. Ahora, en la era de la covid-19, los expertos alertan contra la desinformación sobre la pandemia o infodemia, que abunda en las redes sociales. ¿Qué ha cambiado en esta década? ¿Cómo entendemos ahora el papel de las plataformas sociales y nos mantenemos alerta de los daños que sus algoritmos perpetran?
Redes y activismo digital
...
Regístrate gratis para seguir leyendo
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
En los comienzos de las redes sociales, escritores y periodistas de todo el mundo ensalzaban su poder mientras despertaba la Primavera Árabe. Ahora, en la era de la covid-19, los expertos alertan contra la desinformación sobre la pandemia o infodemia, que abunda en las redes sociales. ¿Qué ha cambiado en esta década? ¿Cómo entendemos ahora el papel de las plataformas sociales y nos mantenemos alerta de los daños que sus algoritmos perpetran?
Redes y activismo digital
Las redes prometían poder tener mejores conexiones y ampliar la velocidad, la escala y el alcance del activismo digital. Antes de que existieran, organizaciones y figuras públicas podían usar los medios audiovisuales de masas, como la televisión, para difundir su mensaje al gran público. Los medios de comunicación eran los filtros que permitían difundir información con arreglo a unos criterios establecidos para decidir qué noticias eran prioritarias y cómo había que darlas. Al mismo tiempo, la comunicación ciudadana, entre iguales, era más informal y fluida. Las redes difuminan los límites entre ambos tipos y ofrecen a los mejor relacionados la posibilidad de ser creadores de opinión.
Hace 20 años no había medios capaces de concienciar y movilizar por una causa con la rapidez y la dimensión que proporcionan las redes, en las que, por ejemplo, la etiqueta #deleteuber (borra Uber) hizo que en un solo día se eliminaran 200.000 cuentas de la aplicación de transporte, acusada de “frustrar” un paro contra el veto migratorio de Trump en 2017. Antes, para que el activismo ciudadano triunfara eran necesarios años de negociaciones entre empresas y activistas. Hoy, un solo tuit puede restar millones de dólares al valor en Bolsa de una empresa o hacer que un gobierno cambie sus políticas.
Hacia la radicalización
Aunque ese papel de creadores de opinión permite un discurso cívico sin trabas que puede resultar positivo para el activismo político, también vuelve a las personas más susceptibles a la desinformación y la manipulación. Los algoritmos en los que se basan las actualizaciones de noticias de las redes sociales están diseñados para una interacción constante, para conseguir la máxima participación. La mayoría de las plataformas de grandes tecnológicas funcionan sin los filtros que controlan las fuentes tradicionales de información. Eso, unido a las grandes cantidades de datos que manejan estas empresas, les da un enorme control sobre cómo llegan las noticias a los usuarios. Un estudio publicado en la revista Science en 2018 probó que las informaciones falsas en redes se difunden más rápido y llegan a más gente que las verdaderas, a menudo porque las noticias que suscitan emociones nos seducen más y, por tanto, tienen más probabilidades de que las compartamos y de amplificarse a través de los algoritmos. Lo que vemos en nuestras redes, incluida la publicidad, está pensado en función de lo que hayamos dicho que nos gusta y de nuestras opiniones políticas y religiosas. Esa personalización puede tener muchos efectos negativos para la sociedad, como la disuasión de votantes, la desinformación dirigida a minorías o la publicidad orientada con criterios discriminatorios. El diseño algorítmico de las plataformas de las grandes tecnológicas da prioridad a contenidos nuevos y microdirigidos, lo que desemboca en una proliferación casi ilimitada de las desinformaciones y las teorías de la conspiración. El director ejecutivo de Apple, Tim Cook, advirtió en enero: “No podemos seguir ignorando una teoría de la tecnología que dice que cualquier forma de participación es buena”. Estos modelos basados en la participación tienen como consecuencia la radicalización del ciberespacio. Las redes proporcionan un sentido de identidad, un propósito y un vínculo. Quien publica teorías de la conspiración y contribuye a la desinformación comprende también el carácter viral de las redes, donde los contenidos inquietantes generan más participación.
Las acciones coordinadas en redes pueden llegar a trastocar el funcionamiento colectivo de la sociedad, desde los mercados financieros hasta los procesos electorales. El peligro es que un fenómeno viral, acompañado de las recomendaciones de algoritmos y el efecto de caja de resonancia de las redes, acabe creando un ciclo de filtros burbuja que se retroalimenten y empujen a los usuarios a expresar ideas cada vez más radicales.
Eduquemos sobre los algoritmos
Rectificar los sesgos algorítmicos y proporcionar mejor información a los usuarios contribuiría a mejorar la situación. Algunos tipos de desinformación pueden solucionarse con una mezcla de normas gubernamentales y autorregulación para garantizar que se vigilen más los contenidos y se identifiquen mejor las informaciones engañosas. Para ello, las tecnológicas deben ponerse de acuerdo con los medios de comunicación y utilizar un híbrido de inteligencia artificial y detección de informaciones falsas, con la colaboración colectiva de los usuarios. Una forma de resolver varios de estos problemas sería utilizar mejores estrategias de detección de sesgos y ofrecer más transparencia sobre las recomendaciones del algoritmo.
Pero también hace falta educar más sobre las redes y los algoritmos: que los usuarios sepan hasta qué punto la personalización y las recomendaciones diseñadas por las grandes tecnológicas configuran su ecosistema informativo, algo que la mayoría de la gente no tiene los conocimientos suficientes para comprender. Los adultos que se informan fundamentalmente a través de redes sociales están menos al tanto de la política y la actualidad, según una encuesta del Pew Research Center en EEUU. En la era de la covid-19, el Foro Económico Mundial habla de infodemia.
Es importante comprender de qué modo las plataformas están agudizando las divisiones que ya existían, con la posibilidad de causar verdaderos perjuicios a los usuarios de los buscadores y las redes sociales. En mis investigaciones he descubierto que, dependiendo de cómo proporcionan las plataformas sus respuestas a las búsquedas, un usuario con más conocimientos en materia de salud tiene más probabilidades de recibir consejos médicos útiles de una institución respetable como la Clínica Mayo, mientras que la misma búsqueda, hecha por un usuario menos informado, le dirigirá hacia pseudoterapias o consejos médicos engañosos.
Las grandes empresas tecnológicas tienen un poder social sin precedentes. Sus decisiones sobre qué conductas, palabras y cuentas autorizan y cuáles no dominan miles de millones de interacciones privadas, influyen en la opinión pública y afectan a la confianza en las instituciones democráticas. Ya es hora de dejar de ver estas plataformas como meras entidades con ánimo de lucro y saber que tienen una responsabilidad pública. Necesitamos hablar del impacto de los omnipresentes algoritmos en la sociedad y ser más conscientes de los daños que pueden causar por nuestra dependencia excesiva de las grandes tecnológicas.
Anjana Susarla ocupa la cátedra OmuraSaxena de Inteligencia Artificial en el Eli Broad College of Business de la Universidad Estatal de Míchigan.
Traducción de María Luisa Rodríguez Tapia.