“¿Un campo de batalla polarizado?”: las notas de la comunidad, la apuesta de Elon Musk contra la desinformación
El magnate es un gran partidario de estos mensajes que se multiplican en Twitter, ahora X, con mensajes que corrigen las publicaciones más virales
“Las notas de la comunidad es de lo mejor que le ha pasado a Twitter”, escribe un usuario. “Le estaba cogiendo mega asco a Twitter últimamente pero las notas de la comunidad me dan el motivo para meterme otra vez”, dice otro. “Las notas de la comunidad son lo mejor que ha inventado Twitter en años, me encanta ver una publicación y que la persona miente descaradamente”, ...
“Las notas de la comunidad es de lo mejor que le ha pasado a Twitter”, escribe un usuario. “Le estaba cogiendo mega asco a Twitter últimamente pero las notas de la comunidad me dan el motivo para meterme otra vez”, dice otro. “Las notas de la comunidad son lo mejor que ha inventado Twitter en años, me encanta ver una publicación y que la persona miente descaradamente”, añade otro.
En X, antes Twitter, es fácil encontrar todo tipo de opiniones. Pero docenas de posts sobre las nuevas “notas de la comunidad” son de celebración. En España su aparición ha aumentado en la última semana de agosto. Las “notas” son un sistema de moderación comunitaria de la plataforma, escrito y valorado por sus usuarios. La idea surgió en el viejo Twitter de Jack Dorsey, su cofundador. Creada en 2021, entonces se llamaba Birdwatch. Desde su compra, Elon Musk le cambió el nombre y se ha convertido en su mayor partidario. Su propia cuenta ha recibido correcciones: “Las notas de la comunidad se aplican por igual a todas las cuentas de esta plataforma sin excepción, incluidos los líderes mundiales y nuestros mayores anunciantes”. Como en Wikipedia, consiste en traspasar a un grupo de usuarios registrados la responsabilidad de reducir la desinformación de la red.
A España llegaron en abril en pruebas y desde julio se abrieron a todos los usuarios, el primer país europeo donde ha ocurrido. En Francia, Alemania, Italia, Países Bajos y Bélgica llegaron un mes más tarde y, desde esta semana, están en abierto en 23 países europeos. Excepto Brasil, en varios países latinoamericanos las inscripciones están abiertas, pero el sistema no funciona completamente. En esta página pueden leerse posts con sus “notas” en todas las lenguas.
El ritmo de publicación de notas es bajo y se centra en publicaciones virales o de cuentas célebres. La cuenta oficial de X que recoge las notas “más útiles” tiene apenas 235 mensajes. Los perfiles afectados van desde el candidato a la presidencia del Gobierno, Alberto Núñez Feijóo (que obvió detalles de un agresor sexual), una periodista mexicana (que exageró sobre el peligro del agua vertida en Japón) o de la secretaria de Estado de Igualdad sobre el consentimiento y el Código Penal. En los últimos días, los posts sobre Luis Rubiales y el Mundial ganado por las futbolistas españolas han dominado las notas. Varios medios tradicionales se llevan también su reprimenda y también tuits con mucha difusión, sobre raras formas de la naturaleza (todas falsas) o cómo un animal huye de un guepardo gracias a un pedo (inventado).
El sistema es perfecto para convertirse en un nuevo campo de batalla político y cultural. Hay usuarios de la plataforma que ruegan una nota para publicaciones que les disgustan: el placer de ver sufrir al rival por una nota asignada por cientos o miles de votos es mucho mayor que cuando la etiqueta de “falso” la pone un medio o fact-checker. El sistema, para protegerse de descalificaciones interesadas, es más complejo de lo que parece. Los usuarios registrados ven un puñado de notas sugeridas que han escrito otros usuarios. Deben valorarlas, no solo si es verdad o no, sino por qué sí o por qué no.
“El proceso consiste en calificar si la nota es útil y luego sale una serie de criterios para que marques qué ha determinado tu decisión”, dice la usuaria Daurmith, que prefiere no dar su nombre real. “Si usa fuentes de calidad, si proporciona contexto importante, si el lenguaje es neutral. Y si la calificas como no útil tienes una batería diferente de criterios: lenguaje tendencioso, no da fuentes o estas no son fiables”.
El sistema también evita que los editores se líen a discutir. “Dentro de las notas no se puede hacer un campo de batalla, porque si alguien pone una nota y yo la califico no sale mi calificación para esa persona”, dice la streamer Andrea Sanchis, usuaria registrada. Los editores son anónimos: su nombre de usuario en X no es el mismo que su apodo para la plataforma de edición de notas. Para ser miembro de este tribunal colectivo solo es necesario tener un número de teléfono y rellenar un pequeño formulario. No hay que pagar tampco la suscripción mensual de X.
Pero es inevitable que a veces se complican. EL PAIS ha visto los mensajes debajo de un vídeo vinculado a la polémica de Luis Rubiales. Era un post especialmente conflictivo: había 7 propuestas de nota (ninguna aprobada en ese momento) y luego otras 6 explicando por qué no necesita una nota. Una que defiende que no hay que añadir contexto dice, por ejemplo: “El vídeo es claro, y aporta el contexto necesario. No requiere nota. El espectador que decida pensar como desee y crea conveniente, pero no se manipula la información o vídeo”. Las siglas “No Necesita Nota” (NNN) serán pronto un mensaje central en la batalla del nuevo sistema. El algoritmo de X decide con votos de otros usuarios si debe mostrar alguna “nota” a todos los usuarios.
X solo publica las que han recibido suficientes votos a favor por parte de usuarios que habitualmente no están de acuerdo en sus valoraciones. Eso debe indicar, en principio, transversalidad ideológica. Así X se defiende de operaciones partidistas o troleadas. Una vez en abierto, la nota puede seguir siendo puntuada, incluso por usuarios no registrados que la vean; no es raro que una nota ya publicada acabe por desaparer posteriormente.
Aunque los usuarios registrados no deben valorar todo lo que la plataforma les sugiere, hay en circulación muchas más notas del puñado que se acaba publicando: “A ojo, podría estimar que solo se hacen públicas entre el 5 % y el 10 % de las que se escriben”, calcula el profesor de la Universidade da Coruña Manuel Herrador, otro usuario registrado.
¿Sirve para controlar la desinformación?
¿Cómo es de útil un sistema así para controlar la desinformación? Tiene algo de bueno y quizá por eso provoca el entusiasmo por ahora: agrega inteligencia colectiva. “Es cierto que la moderación colectiva y la información contextual es una muy buena herramienta para capturar información de calidad y al mismo tiempo identificar mejor la desinformación”, dice Sílvia Majó, profesora en la Vrije University de Amsterdam e investigadora del Reuters Institute (Cambridge). “Las webs de ayuda para programadores como Stack Overflow funcionan así. Esta forma de agregar la inteligencia colectiva y disponerla de forma contextual, es un buen aliado para hacer aflorar los contenidos de mayor calidad”, dice.
Wikipedia es el gran caso de éxito de este tipo de inteligencia colectiva que ha traído internet. ¿Pueden las plataformas de información en tiempo real adaptar ese formato? No es fácil. Las notas suelen aparecer horas o días después del posts original. Si un usuario ha interactuado con él, X dice que se lo vuelve a enseñar. “Pienso que es una buena solución para una plataforma como X”, dice Àlex Hinojo, editor en Wikipedia. “Pero necesita una buena base de voluntarios. Dependerá de cómo segmentan la participación por idiomas o temas y de si la curva entrada es fácil”, añade. ¿Pero puede convertirse en un campo de batalla polarizado e inservible? “Sí, claro. Es el equilibrio difícil”, dice Hinojo.
“El proceso en general es bastante desmotivador”, dice Herrador. “Uno acaba calificando muchísimas notas para después ver que se hacen públicas muy pocas, o escribiendo muchas que no tienen resultado. No le veo futuro a medio o largo plazo, porque como tarea altruista es muy desmotivadora, así que veo probable que acabe siendo dominada por grupos de interés”, añade. Es uno de los retos. Como en las propias notas, el debate está abierto. Para otro editor de notas consultado por este periódico, el informático Míchel González, el altruismo y el esfuerzo son un valor positivo: “Lo mismo se decía de Wikipedia y ahí está. La democratización de estos sistemas es lo que evita que grupos de presión puedan controlar la información”.
Los conflictos de ediciones en Wikipedia ocurren lejos de los ojos de sus usuarios. En X, los votos y las notas aparecen y desaparecen. El último post de la cuenta oficial de las notas es precisamente sobre este problema: “Actualizamos el algoritmo de puntuación para reducir las notas que aparecen y luego desaparecen a medida que reciben un conjunto de calificaciones más grande y potencialmente más representativo”, dice el mensaje.
Moderadores despedidos
Twitter, antes de ser X, tenía un enorme equipo de moderación que colocaba etiquetas, castigaba tuits o directamente los suprimía. Ahora están despedidos. Musk cree que la solución es traspasar esta responsabilidad a sus usuarios. No será fácil, según la profesora Majó: “La capa humana de moderación profesional deberá existir siempre. Es evidente que en paralelo a las estrategias de moderación automatizadas evolucionan también las de desinformación y es difícil prever lo que vendrá después”.
Majó destaca el ejemplo del Consejo Asesor de Meta, que se centra en asuntos extremadamente delicados. Es difícil que Musk acepte someterse a un consejo externo. Sus tiempos además son exasperantemente lentos para resolver una cuestión de actualidad. Aunque desde la Unión Europea ya le han avisado que es mejor que se lo piense dos veces ahora con la nueva directiva: “Las obligaciones persisten. Puedes correr pero no puedes esconderte”, ha dicho el comisario Thierry Breton.
El impulso de Musk a las notas coincide con un creciente pasotismo de otras redes sobre cuánto esfuerzo dedicar a moderar sus plataformas. “Existe una corriente importante dentro de las plataformas para ir retirando contenido político”, explica Majó.
Un artículo científico de la Universidad de Purdue (EE UU) analizó en 2022 el sistema que entonces se llamaba Birdwatch. Sus resultados detectaron menos desinformación aunque también menos actividad. Esa actividad podría deberse al temor de retuitear o amplificar un mensaje que luego acabe siendo “castigado” por una corrección del resto de usuarios: “Los hallazgos sugieren que, si bien el programa ayuda a aumentar el conocimiento por escrito, reducir sentimientos extremos y potencialmente reducir la desinformación en el contenido, genera un costo económico en forma de actividad reducida en la plataforma”, escriben los autores.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.