Los usuarios convierten su muro de Facebook en una burbuja ideológica
Sólo el 22% de las noticias que los progresistas ven en su muro contradicen su forma de pensar, frente al 45% que verían de forma aleatoria
Aunque todavía mucha gente no lo sabe, Facebook selecciona lo que los usuarios ven en su muro. Un algoritmo filtra lo que se muestra para, en principio, dar al usuario solo lo que más le apetece ver y no saturarle con información que no le interesa tanto. La duda es si ese algoritmo que tan bien nos conoce nos está cebando solo con lo que nos gusta, creando una burbuja a nuestro alrededor en la que no entra nada que desafíe nuestra forma de pensar. Para despejar dudas, los científicos sociales de Facebook publican hoy en la revista Science el primer estudio que analiza la influencia de esa fórmula que manipula los muros: la burbuja ideológica existe, pero es más culpa de los propios usuarios que de la programación de Mark Zuckerberg.
Facebook tiene un problema de imagen por culpa de los algoritmos que filtran la información que vemos", afirma Moro
Tras estudiar a más de 10 millones de sus usuarios y su interacción con enlaces de noticias políticas, los científicos de Facebook han descubierto que la red social es una caja de resonancia de nuestras propias ideas con pocas ventanas al exterior. Así, de todos los enlaces que ven las personas que se consideran progresistas, apenas un 22% desafían su forma de pensar. Los conservadores ven en sus muros un 33% de noticias que no corresponden con su ideología.
Si no hubiera intervenido el algoritmo, los progresistas hubieran visto un 24% de noticias incómodas y los conservadores un 35%. Es decir, que esa fórmula ideada en los ordenadores de Facebook ayuda a reducir la diversidad ideológica del muro de los usuarios, pero no es la principal culpable. Los usuarios son los responsables de encerrarse en sus propias ideas, según el estudio: si no escogieran a sus amistades como lo hacen, sino de forma aleatoria, verían entre un 45% (los progresistas) y un 40% (los conservadores) de contenido contrario a sus ideas.
Datos del estudio
El estudio se realizó entre usuarios que se hubieran definido ideológicamente en EE UU.
Estudiaron a 10,1 millones de los casi mil millones usuarios activos diarios con que cuenta actualmente.
Solo el 13% de las direcciones de noticias estudiadas correspondían a informaciones "duras", noticias políticas válidas para el estudio.
De los 903 millones de noticias que vieron los usuarios estudiados, solo clicaron 59 millones de veces.
Únicamente el 20% de las noticias que los progresistas clicaron eran contrarias a sus ideas, frente al 29% de los conservadores.
Los investigadores explican estas diferencias entre progresistas y conservadores porque los usuarios de izquierdas son más propensos a compartir enlaces a noticias de su ideología.
Lógicamente, el entorno offline de la gente, las personas con las que se relacionan físicamente, tampoco es aleatorio. Pero es mucho más difícil de medir esa burbuja ideológica en la calle que en las redes sociales. Las ingentes cantidades de información que una empresa como Facebook puede recopilar sobre sus usuarios (y los que no lo son) le permiten medir su inclinación a encerrarse en grupos de pensamiento más o menos aislados. Por ejemplo, la probabilidad de clicar en el muro en una noticia favorable a las ideas propias —un votante republicano entrando a una noticia de FoxNews— frente a una contraria es abrumadora.
Una de las flaquezas del estudio es que estudia únicamente usuarios de EE UU que definieron su posición ideológica en una pestaña de Facebook —más fácil de mostrar en dos polos opuestos—, lo que genera un sesgo importante y deja la duda sobre el comportamiento de los usuarios que tienen ideología , pero no lo marcaron en su perfil. Según sugiere Pablo Barberá, que estudia la polarización de las redes en la Universidad de Nueva York, los usuarios estudiados probablemente tienen una red de contactos en Facebook más homogénea: "Si el estudio hubiera incluido a todos los usuarios, seguramente observaríamos unos niveles aún más altos de exposición a diversidad de opiniones, y un efecto mayor de los algoritmos".
La era de los algoritmos
"Es un estudio a la defensiva", explica Esteban Moro, experto en redes sociales de la Universidad Carlos III. "Facebook tiene un problema de imagen por culpa de los algoritmos que filtran la información que vemos y querían demostrar que el filtro algorítmico no tiene tanta influencia como el filtro social", resume el investigador.
Vivimos en la era de los algoritmos. Lo que se nos muestra en los resultados de Google, en el muro de Facebook o en otras plataformas lo decide una fórmula cada vez más compleja que selecciona lo mejor para satisfacer los intereses del usuario y de la empresa. Sin embargo, son todavía muchos los que piensan que ven lo que hay y no lo que el algoritmo cree que deben ver. Pero no es así: en función de su interacción con sus amigos y su actividad, Facebook define sus intereses y muestra lo que provocará más interacción, para que permanezca más tiempo en la red y de este modo genere más ingresos a la empresa.
No es fácil saber si la burbuja ideológica es mayor o menor fuera de Facebook, pero algunos estudios indican que las redes ayudan a mitigarla
Este ciclo de retroalimentación despertó el interés del activista Eli Pariser, que publicó en 2012 un libro llamado Filter Bubble (algo así como La burbuja de los filtros), en referencia al efecto que el algoritmo tenía en nuestras vidas: al buscar Egipto en Google, unos usuarios reciben información sobre las revueltas y otros solo sobre vacaciones en las pirámides, todo en función de su comportamiento previo.
El verano de 2014, Facebook dio a conocer otro de estos estudios —que publica regularmente sobre el comportamiento en su red— que generó una inusitada polémica porque manipulaba emocionalmente a sus usuarios, mostrándole más mensajes negativos o positivos de sus contactos para comprobar que se producía cierto contagio en su forma de expresarse. En buena medida, la controversia surgió porque el gran público descubría que Facebook manipula los muros y, por consiguiente, el comportamiento de la gente.
No es algo que escondan, ni mucho menos: Facebook se jacta de influir de forma notable en la participación electoral en los comicios de todo el mundo, tras arrastrar a las urnas a 340.000 abstencionistas en las legislativas de EE UU.
En este escenario, los científicos de la empresa que dirige Mark Zuckerberg muestran que el contagio social o la burbuja ideológica que se forma en su red social es similar o más moderada que la que se produce offline. De hecho, ya en 2012 habían publicado un estudio que negaba que la burbuja fuera tan grave, pero en esta ocasión lo importante era descargar las culpas del algoritmo.
La investigación previa de Barberá y este estudio señalan que las redes sociales podrían ser un mecanismo para recibir información distinta de lo habitual. "Por ejemplo, un votante de derechas que solo ve Antena 3 y lee La Razón podría verse expuesto por primera vez a contenido con un sesgo de izquierdas compartido por sus contactos en Facebook", explica Barberá.
Sin embargo, esa es otra de las flaquezas de este último estudio del equipo de Facebook, como lamenta Esteban Moro: "El problema es que no compara con nada. No podemos saber si lo que ocurre es peor o mejor fuera de Facebook".
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.