A la caza de espías en la Wikipedia

Un nuevo informe alerta de elaboradas campañas estatales de desinformación en una de las páginas más usadas y fiables de la red

Imagen de la entrada sobre la "Wikipedia" en la propia enciclopedia online.UNSPLASH (UNSPLASH)

La Wikipedia es un razonable objeto de deseo para gobiernos con ganas de influencia. Las redes sociales son una plaza pública donde muchos países intentan promover su agenda. Pero la Wikipedia está unos cuantos peldaños por encima en la confianza que la sociedad global le otorga: se basa en un complejo sistema de equilibrios y dedicados grupos de editores observan y protegen cada cambio. Las injerencias coordinadas estatales, si las hay, son misio...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

La Wikipedia es un razonable objeto de deseo para gobiernos con ganas de influencia. Las redes sociales son una plaza pública donde muchos países intentan promover su agenda. Pero la Wikipedia está unos cuantos peldaños por encima en la confianza que la sociedad global le otorga: se basa en un complejo sistema de equilibrios y dedicados grupos de editores observan y protegen cada cambio. Las injerencias coordinadas estatales, si las hay, son misiones complejas.

Esas batallas no implican vencer en un oscuro rincón de internet, sino en uno de sus pilares. Las más de 10.000 ediciones hechas en varios meses por cientos de editores en la página inglesa de la “Invasión rusa de Ucrania 2022″ es la cifra mayor este año. Esa página es el ejemplo principal, pero otras vinculadas a la guerra, como la de Vladímir Putin, Ucrania o Volodimir Zelenski vivieron conflictos similares, aunque menores. Para poner en contexto la Wikipedia en inglés, solo en septiembre, se visitaron 7.500 millones de veces sus páginas y casi 1.000 millones en español.

El nuevo informe Guerra informativa y Wikipedia, del ISD (Instituto de Diálogo Estratégico) y del CSAM (Centro para el Análisis de Redes sociales) analiza cómo organizaciones estatales pueden infiltrarse y modificar el lenguaje de páginas importantes. “Nuestro trabajo no dice empíricamente que la Wikipedia sea vulnerable en ningún tipo de grado medible”, dice Carl Miller, uno de los autores y director de investigación del CSAM. “Trata de exponer lo que sabemos de la amenaza. El punto general del documento es más humilde: que los investigadores y periodistas de la desinformación pasan por alto a Wikipedia como un posible lugar donde se realizan las operaciones de información”, añade.

El impacto de la Wikipedia no es solo para quien la visita. Su información nutre, por ejemplo, las respuestas de los asistentes de Siri o Google. En septiembre de 2019, una guerra entre editores chinos y taiwaneses daba respuestas distintas a la pregunta “¿qué es Taiwán?” En un momento decía: “Un Estado en el este de Asia”. Y en otro: “Una provincia de la República Popular de China”. Una investigación de la BBC detectó en este caso 1.600 ediciones tendenciosas en 22 artículos sensibles dedicados a China. Y añadía: “No podemos verificar quién hizo esas ediciones, por qué o si reflejan una práctica más amplia, pero hay indicios de que no son necesariamente orgánicas ni aleatorias”. En este caso, los editores legítimos eran acosados o presionados para que abandonaran.

Las batallas largas

La amenaza principal de desinformación no es, por tanto, el vandalismo, ni las batallas habituales entre editores dedicados con opiniones razonables pero divergentes. En español hay, por ejemplo, un conflicto largo por la toponimia de algunos municipios catalanes, valencianos y de Baleares, explica Àlex Hinojo, editor de la Vikipèdia catalana. “Se ha optado por mantener la toponimia franquista que en algunos lugares tiene más tradición o connotación que otros: ‘San Quirico’ por ‘Sant Quirze’. Pero eso lo decide la comunidad. Es la RAE y el INE quienes dan los topónimos como válidos y los wiquipedistas castellanohablantes lo usan. Es una polémica recurrente, pero no creo que haya una mano negra’”, añade.

Pero estas batallas cronificadas no tienen nada que ver con la preocupación del grupo de investigadores en el que ha participado Carl Miller. “Nuestra intuición es que la mayor amenaza es entrysm [un término específico inglés que podría traducirse como “entrismo”], que es la infiltración a largo plazo de la comunidad por parte de actores respaldados por un Estado que levantan reputaciones dentro de Wikipedia y luego pueden aprovecharse de la política subyacente y los procesos de gobierno que la protegen”, dice Miller.

La Wikipedia en inglés es el objetivo de los ataques más sofisticados. Pero eso no evita que otras lenguas se vean también afectadas, dice Santiago de Viana, editor de la Wikipedia en español: “Tengo constancia de sospechas y acusaciones que se realizan sobre la participación de una coordinación estatal para modificar contenido en español. Pero es muy diferente conseguir demostrar con pruebas fehacientes o que se realicen sanciones por este motivo”, dice, y añade: “En periodos electorales, por ejemplo, es común que haya un aumento tanto en vandalismo como en ediciones promocionales de políticos, pero suelen desconocerse las personas detrás de estos esfuerzos”.

Este entrismo es más delicado al introducir, por ejemplo, los puntos de vista del Kremlin sobre la invasión de Ucrania. Miller especifica estas cuatro características: “Uno, usa cambios de lenguaje más sutiles que estén dentro de las reglas, como añadir las versiones del Kremlin; dos, organiza la votación para que sus compañeros de viaje se conviertan en administradores; tres, emplea poderes de administrador para resolver conflictos, y cuatro, cambia las reglas subyacentes reales que rigen, por ejemplo, las fuentes”.

Este no es un ejemplo hipotético ni imaginado. Wikimedia, la organización que engloba la Wikipedia, prohibió y eliminó los poderes de administrador de un grupo de editores en China en lo que describió como “infiltración de los sistemas de Wikimedia, incluidas posiciones con acceso a información personal, información identificable y órganos de influencia electos”. Es decir, presuntos activistas o directamente funcionarios habían accedido a posiciones privilegiadas dentro de la comunidad.

Qué pasó con la invasión de Ucrania

El caso de estudio concreto que usa el informe se refiere a las 86 cuentas de editores bloqueadas que habían participado en ediciones de la página en inglés de la invasión rusa de Ucrania. La dificultad de detectar la presunta actividad coordinada de estas cuentas se ve en los números. Durante aparentemente años hicieron entre todas 794.771 revisiones en 332.990 páginas. Los temas dominantes iban desde judaísmo y Polonia, aviación y aeropuertos o Irak, Libia y Siria.

Aquí empiezan los problemas. ¿Qué tipo de ediciones son susceptibles de ser tendenciosas? “Una edición en Wikipedia es más compleja de estudiar que un tuit o un post de Facebook, porque cada acto puede implicar no solo añadir contenido, sino también su reubicación o eliminación, a menudo combinando todas estas opciones”, dice el informe, que se centra en ediciones que incluyen utilizar como fuentes medios abiertamente tendenciosos. “El equipo evaluó manualmente las ediciones que contenían estos enlaces y descubrió que 16 de las ediciones eran polémicas y mostraban narrativas consistentes con la guerra de información patrocinada por el Kremlin”, explica.

Pero cuando miraron más allá de la página de la invasión rusa, vieron que este patrón de añadir fuentes tendenciosas era más habitual: encontraron 2.421 ejemplos en 667 páginas, que iban desde cualquier conflicto ruso imaginable al mundial de Fórmula 1 o a inundaciones en Pakistán.

“Esto no implica necesariamente la coordinación o la intención estratégica, pero puede destacar varias zonas de la Wikipedia que podrían investigarse más de cerca”, dice el informe, cuya conclusión coincide con la de Miller: la Wikipedia está desatendida. “En un mundo en el que la guerra de la información es más generalizada y sofisticada, esto me preocupa precisamente porque la Wikipedia es muy valiosa”.

La Wikipedia tiene medidas de prevención como las advertencias, la protección de artículos, que restringe el tipo de usuarios que pueden editar, y el bloqueo tanto de direcciones IP o cuentas registradas. “Las versiones de Wikipedia en diferentes idiomas cuentan con tablones donde la comunidad puede informar de comportamiento disruptivo o sospechoso”, dice De Viana. “Basta con copiar los enlaces de los cambios realizados por un editor, argumentar por qué existe una violación y notificar a los administradores (”bibliotecarios”), quienes procederían a tomar una decisión”, añade.

Aquí se ve el interés de las operaciones estatales por controlar posiciones de administradores. Aunque ni siquiera eso es sencillo: “Es muy difícil que un administrador haga una acción polémica sin que nadie se dé cuenta”, dice Francesc Fort, editor de la Viquipèdia catalana. “Si yo bloqueara una cuenta aleatoria, alguien se quejaría. Es complicado”.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Más información

Archivado En