Ir al contenido

Así funcionaba por dentro la máquina del fango a favor de Bartomeu: “Había hasta un comando hacker”

Un exempleado cuenta el funcionamiento interno de las principales herramientas para falsificar encuestas y gestionar bots en Twitter en favor del expresidente del Barça

En septiembre de 2018, el entonces presidente del Barça, Josep Maria Bartomeu, fue a El Transistor, de Onda Cero. La cuenta de Twitter (hoy X) del programa de radio tuiteó una encuesta para que los usuarios ...

Suscríbete para seguir leyendo

Lee sin límites

En septiembre de 2018, el entonces presidente del Barça, Josep Maria Bartomeu, fue a El Transistor, de Onda Cero. La cuenta de Twitter (hoy X) del programa de radio tuiteó una encuesta para que los usuarios valoraran la gestión del presidente. Al principio, al cabo de unas horas, la opción “mala” se imponía con el 58% (1.819 votos). La segunda opción más votada era “me da igual” y solo un 16% la consideraba “buena”. Pero antes del cierre, Bartomeu remontó de forma increíble: ganó el “buena” con un 43%, frente a un 39% que calificaba su gestión de “mala”.

No fue casualidad, sino manipulación. Hay capturas del antes y después de la encuesta en el análisis que Mossos hizo de los dispositivos de Bartomeu en busca de informes del grupo Nicestream. Bartomeu pagó 2,3 millones de euros a esta empresa argentina con dinero del club para que blindaran su imagen en redes de manera artificial entre 2017 y 2020. Tras el informe, que pertenece al llamado caso Barçagate, Bartomeu pidió este viernes declarar ante el juez.

EL PAÍS ha hablado con un exempleado de Nicestream sobre cómo funcionaba técnicamente esta máquina del fango. Prefiere mantener el anonimato para que no le vinculen para siempre con esta labor puntual que hizo como trabajador de la compañía.

“Las encuestas las hacían desde Buenos Aires”, dice. “Programaban varios ordenadores para que fueran votando solos y luego pasaban una factura que echaba para atrás”, añade. Esta labor es algo simple para un grupo de informáticos con la oportuna dedicación. Cuando las encuestas eran en medios de comunicación, usaban un programa para automatizar tareas que repetía el acto de votar en una encuesta muchas veces, y hacerlo desde muchas máquinas a la vez.

La empresa contaba con estrategias de varias capas por si la encuesta requería alguna condición técnica: cuando limitaban por dirección IP (que impide repetir votos desde el mismo ordenador), recurrían a sistemas para simular que cada voto venía de una ubicación distinta, como una simple VPN o Tor, que permiten la ofuscación del origen del usuario.

“Tenía limitaciones cuando la encuesta requería un registro vía mail”, dice el exempleado. Pero las encuestas en medios no son un gran problema de ciberseguridad y son fáciles de explotar. “Parece ser que no revisan mucho cómo es la actividad en esas encuestas, aunque había casos que eran muy evidentes, como picos de participación muy concentrados, muchas cuentas nuevas con patrones similares, metadatos o textos repetidos y desconexión entre la geografía esperada de la audiencia y los orígenes de los votos”, explica.

Estas acciones se hacían desde Argentina porque allí estaba lo que llama el comando hacker: “No sé cuantos eran. Solo una vez vino uno a Barcelona por un programa con la Policía Nacional. Era algo así como un comando hacker, los que se encargaban de tumbar cuentas, bloquear webs, encuestas y cosas así. El único pedido que yo les hacía era en relación con las encuestas, pero también les consultaba sobre cosas que nos encontrábamos para saber cómo nos lo habían hecho y de qué forma podíamos actuar en el futuro para evitarlo, por ejemplo si nos tumbaban una cuenta en Twitter y teníamos sospechas que había sido algo de otra agencia”, explica. Este periódico ha consultado con fuentes policiales y explican que lo más probable es que ese viaje fuera para dar un curso de formación para policías sobre algún método o red nuevas.

La herramienta Eyewatch

Era distinto cuando la encuesta se publicaba en Twitter, como la de El Transistor. Para operar en la red social tenían una herramienta llamada Eyewatch: “No todos los empleados tenían acceso a todas las herramientas”. Una de ellas se llamaba Action, que servía para operar con bots (cuentas automatizadas en redes), y una de las acciones que permitía era votar en encuestas: “Bastaba con identificar la encuesta en Twitter, encontrar la cantidad de votos realizados y los porcentajes de cada respuesta y calcular la cantidad de votos que tenía cada respuesta. Así ya sabías la cantidad de votos que necesitabas para que ganara la opción que querías”. Action tenía acceso a todas las cuentas de la empresa en todos los países, explica el extrabajador, y listas de cuentas dedicadas exclusivamente a encuestas. “Le decías el porcentaje de cuentas que querías y le indicabas la cantidad de tiempo en la que se tenían que emitir los votos, para evitar que la acción fuera muy cantosa o qué la herramienta tratara de votar con la encuesta ya cerrada”, explica.

El Barça no era el único cliente de una empresa como Nicestream. Este periódico ya reveló qué cuentas eran las principales y cómo, por ejemplo, en Twitter habían trabajado en contra de la independencia de Cataluña antes de aupar a Bartomeu. Una parte del trabajo de Nicestream era legítimo: observar las redes, detectar debates interesantes para clientes. Hacían eso para Bartomeu, pero también intentaban moldear el discurso a su favor de manera artificial.

Las encuestas eran solo un frente de la actividad oscura en favor del expresidente culé. La más notoria fueron los más de 200 bots para contestar y contrarrestar opiniones en su contra. La herramienta Eyewatch permitía tuitear, retuitear, dar me gustas y votar. Pero no contestar, algo que había que gestionar a mano, entrando con la contraseña individual de cada cuenta. Un grupo de empleados llevaban las cuentas que usaban para responder, a menudo en catalán y con un tono y actitud propias. Las cuentas llevaban años creadas y Twitter suprimió la mayoría cuando en 2020 EL PAÍS compartió con la compañía una lista de los bots.

Eyewatch hacía otras cosas útiles, y más legítimas, para saber qué ocurría en redes: el programa Oráculo servía para recopilar información a partir de palabras clave y otra medía las noticias según su impacto en medios y redes. Mugshot creaba fichas de personajes clave y Sentiment describía las emociones alrededor de la conversación. “Leía los tweets sobre temas determinados y decía si eran positivos, negativos o neutros”, dice el exempleado. “Aunque no pillaba la ironía. De vez en cuando descargábamos tuits y nos poníamos todos a leer en Excel y decir si eran positivos, negativos o neutros para cargárselo a la herramienta”. Así etiquetaban contenidos para que el sistema tuviera más elementos con los que identificar la ambigüedad.

La gran pregunta en torno a estas operaciones es su verdadero impacto. Es probable que sirviera de algo: las encuestas son el ejemplo más obvio. Generan la sensación de que hay una corriente de opinión favorable al presidente que en realidad no existe. “En realidad lo fundamental es hacer saber que esto existe y que no se coman el primer mensaje que les ponen delante. Que el pensamiento crítico es importante”, añade. Estas operaciones no suelen hacerse públicas, pero es probable que en política haya muchos ejemplos: hace unos años trascendió el partido de Matteo Salvini en Italia con su Bestia.

Nicestream hacía mapas con Gephi para identificar relaciones entre comunidades cuando había algún debate relevante. También servían para demostrar que las cuentas falsas o no orgánicas lograban dirigir parte de la conversación. “Vamos a operar con nuestras cuentas, realizando preguntas y críticas al discurso de Victor Font con el objetivo de sumar apoyos orgánicos en contra del candidato”, decía un informe de Nicestream para Bartomeu en relación con un acto de campaña en las últimas elecciones. Las cuentas definidas como “nuestras” son las falsas, cuyo objetivo era que gente real cambiara de opinión sobre el candidato.

Sobre la firma

Más información

Archivado En