_
_
_
_
Análisis
Exposición didáctica de ideas, conjeturas o hipótesis, a partir de unos hechos de actualidad comprobados —no necesariamente del día— que se reflejan en el propio texto. Excluye los juicios de valor y se aproxima más al género de opinión, pero se diferencia de él en que no juzga ni pronostica, sino que sólo formula hipótesis, ofrece explicaciones argumentadas y pone en relación datos dispersos

Robollamadas y otros bulos: el impacto de la inteligencia artificial en las campañas electorales

En un momento en el que es posible generar vídeos, fotografías o incluso llamadas con voz falsas que alcanzan difusión masiva en minutos, la confianza en las instituciones se resiente. Y mientras unos desinforman, otros luchan para desmentir la desinformación. De la India a Estados Unidos, la IA irrumpe en las elecciones de medio mundo

Inteligencia artificial
Miguel Porlan
Marta Peirano

En su último Informe de Riesgos Globales, el Foro Económico Mundial concluyó que la desinformación era la mayor amenaza para los próximos dos años, por encima de la guerra, la migración y la crisis climática. Dos mil millones de personas acuden a las urnas en el año de los mensajes automatizados con voces clonadas, vídeos de discursos que nunca existieron, pornografía sintética no consentida e informativos realistas generados por inteligencia artificial. En todos los lugares del mundo hay agencias usando ChatGPT para comprender a grupos cada vez más pequeños de votantes, generar discursos y material de campaña, traducirlo a muchos idiomas y crear avatares virtuales de los canditatos para que puedan chatear con todo el mundo y estar en todas partes a la vez. La pregunta es qué está pasando por debajo y cómo nos podemos preparar.

“La preocupación más obvia es que aparezca un deepfake de un candidato o del presidente de Estados Unidos haciendo algo que no es verdad, pero creo que es el caso menos preocupante”, explicaba recientemente Alex Stamos en una entrevista con CNBC. El director del Observatorio de Internet de la Universidad de Stanford piensa que “un contenido falso que se mueve entre grupos de chat, llamadas telefónicas o mensajes individuales es mucho más peligroso”.

Las fotos de Donald Trump rodeado de votantes afroamericanos o de una explosión frente al Pentágono pueden tener un impacto emocional inmediato, pero son fáciles de desmentir. Tanto políticos como edificios están vigilados por su agenda pública, casi siempre sabemos dónde están y con quién. Pero la voz del político eslovaco Michal Šimečka presumiendo de haber amañado las elecciones, o del líder de los laboristas británicos, sir Keir Starmer, abusando verbalmente de un miembro de su equipo, ofrecen más resistencia a la verificación. El escenario más peligroso se produce cuando esos contenidos se propagan de forma masiva pero clandestina por robollamada, grupos privados en redes sociales y servicios de mensajería protegidos por criptografía como Telegram o WhatsApp. No podemos verificar aquello que no vemos a tiempo. Por ejemplo, durante la jornada de reflexión.

Una imagen falsa, creada por inteligencia artificial, de Donald Trump rodeado por supuestos simpatizantes afroamericanos que se compartió en redes sociales.
Una imagen falsa, creada por inteligencia artificial, de Donald Trump rodeado por supuestos simpatizantes afroamericanos que se compartió en redes sociales.

El ejemplo perfecto llegó en las primarias de EE UU, cuando una robollamada con la voz de Joe Biden apeló a los demócratas del Estado de New Hampshire a que no votaran en las primarias. “Votar este martes solo facilitaría a los republicanos su misión para elegir nuevamente a Donald Trump. Tu voto marcará la diferencia en noviembre, no este martes”, decía la grabación. Una campaña de disuasión o supresión de voto con información falsa sobre el día, el lugar o la forma del voto pueden difundirse rápidamente y alcanzar a una audiencia masiva antes de alertar a las autoridades o ser desmentida por los medios de comunicación. Otra campaña sobre el robo de unos boletos o la existencia de un camión sospechoso puede desatar la violencia en los lugares más tensionados, antes de ser desmentido.

Un mes de jornada electoral

La India parecía el escenario más propicio para inaugurar ese apocalipsis, con sus casi 1.000 millones de votantes y 850 millones conectados a Internet, con WhatsApp como infraestructura principal de comunicación. Su primer ministro, Narendra Modi, practica el arte de la propaganda, encarcela periodistas y mantiene una cruda campaña de odio contra la minoría musulmana. La India ocupa el puesto 159 en el índice mundial de la libertad de prensa. Un estudio centrado en contenidos virales en WhatsApp durante las elecciones regionales del verano pasado mostraba una incidencia residual de contenidos sintéticos, aunque advertía de su probable explosión futura. Los más compartidos eran imágenes falsas de nuevas infraestructuras de transportes o religiosas (templos y estaciones), propaganda supremacista hindú e ilustraciones de santos hindúes musculosos haciendo declaraciones ofensivas contra los musulmanes. Los investigadores Kiran Garimella y Simon Chauchard advirtieron que no debíamos infravalorar su influencia solo porque parecieran animaciones. “Su imagen hiperi­dealizada resuena a nivel emocional”, escribieron en la revista Nature, “especialmente con los espectadores que ya tienen creencias afines”.

Durante las elecciones generales para elegir a los 543 miembros de la Cámara baja de su Parlamento bicameral, los partidos usaron modelos como Dall-E, Midjourney, Stable Diffusion y Pika para generar material creativo de campaña de forma barata, flexible e instantánea, con audios y vídeos sintéticos de candidatos dirigiéndose personalmente a cada votante. En un país gigante y analfabeto con cientos de millones viviendo en zonas rurales remotas, es un buzoneo virtual barato y efectivo. Modi fue el único capaz de materializarse en distintas partes de la India en forma de holograma, pero no gracias a la IA. Contrató Pepper’s Ghost, la misma tecnología que la compañía Musion usó para resucitar al rapero Tupac en el Festival Coachella de 2012.

El hoy primer ministro de la India Narendra Modi en abril de 2014, durante un mitin en el que aparecía como holograma.
El hoy primer ministro de la India Narendra Modi en abril de 2014, durante un mitin en el que aparecía como holograma.Indranil Mukherjee (Afp ( Getty

El partido político Dravida Munnetra Kazhagam (DMK) usó deepfakes para resucitar a M. Karunanidhi, el icónico presidente del partido y jefe de ministros del Estado de Tamil Nadu fallecido en 2018. Cuentas asociadas al Congreso de la India compartieron un vídeo falso de la superestrella de Bollywood Aamir Khan, burlándose del primer ministro Narendra Modi. Un gesto provocativo porque Khan es musulmán. Los vídeos habían sido abiertamente manipulados y no buscaban el engaño, solo emoción. El propio Modi compartió un vídeo de sí mismo bailando sobre un famoso meme de Lil Yachty saliendo a cantar en el Lyrical Lemonade Summer Smash diciendo: “Es realmente una delicia tanta creatividad en plena temporada electoral”.

Hay usos sorprendentemente legítimos para esquivar la censura. En Bielorrusia, un candidato sintético de 35 años llamado Yas Gaspadar permitió a la líder exiliada de la oposición, Svetlana Tijanóvskaya, hacer campaña por la liberación de presos políticos, las elecciones libres y justas y el final de las armas nucleares. En Pakistán, el ex primer ministro Imran Khan generó un vídeo sintético para declarar la victoria desde prisión. Lamentablemente, son los menos. Desde hace una década, la verdadera campaña política ya no transcurre en la esfera pública, sino en la clandestinidad de las redes sociales.

El partido de Modi, BJP, tiene miles de voluntarios que manejan ingentes cantidades de grupos en WhatsApp por los que fluye un caudaloso río de desinformación. Ekō, la fundación The London Story (TLS) e India Civil Watch International (ICWI) han examinado la Biblioteca de Anuncios de Meta para analizar la actividad de los anunciantes durante la última etapa del periodo previo a las elecciones de 2024. Han comprobado la facilidad con la que Meta acepta anuncios con discurso de odio contra minorías étnicas y han encontrado 22 “anunciantes oscuros” que han invertido un millón de dólares en propagar anuncios políticos no autorizados llenos de supremacía hindú, deshumanizante e islamofóbica. Aquellos que tengan posterior acceso a las probables campañas de desinformación ayudarán a prevenir las siguientes, porque Modi ganó con un 52,4% de los votos.

Injerencia externa: presentadores falsos leen noticias falsas

El último informe de amenazas de Microsoft señala a la República Popular China (RPC) como origen de numerosas operaciones encubiertas de contenidos generados con IA para intoxicar a votantes en Taiwán y EE UU. Días antes de la jornada electoral, segmentos informativos sobre la “historia secreta” de Tsai Ing-wen, presidenta de Taiwán, inundaron YouTube, Instagram, Facebook, Weibo y X. Presentadores sintéticos de telediario salían hablando de un documento de 300 páginas lleno de chocantes revelaciones falsas sobre la candidata. También generaron clips del candidato retirado Terry Gou, propietario de Foxconn, apoyando al favorito del Gobierno chino, y otros vídeos en inglés y mandarín culpando a EE UU de provocar los incendios de Hawái con una máquina de modificar el tiempo y a la India de las revueltas en Myanmar.

Antes de las elecciones europeas, la red de investigadores EU Disinfo Lab denunció la llamada Operación Doppelganger, donde los rusos habían clonado más de 50 medios, incluyendo la BBC, The New York Times, Der Spiegel, Süddeutsche Zeitung, la CNN o la agencia Reuters para alterar los contenidos en su favor. Registran el nombre de la web real pero con distinto dominio. Por ejemplo, spiegel.info en lugar de spiegel.de. El primer clip falso responsabilizaba a Ucrania de los ataques en la estación de trenes de Kramatorsk. Esta estrategia podría extenderse muy rápido gracias a la IA.

En otra operación, donde publicaban las noticias de cabeceras tradicionales francesas modificadas con ChatGPT, fue rápidamente descubierta, porque al menos 90 artículos se dejaron las instrucciones pegadas. “Reescribe este artículo adoptando una postura conservadora contra las políticas liberales de la Administración de Macron a favor de los ciudadanos franceses de clase obrera”, se lee al final de uno de ellos. “Destaca el tono cínico hacia el Gobierno de EE UU, la OTAN y los políticos estadounidenses. Enfatiza la percepción de los republicanos, Trump, DeSantis, Rusia y RFK Jr. como figuras positivas, mientras que los demócratas, Biden, la guerra en Ucrania, las grandes corporaciones y la industria farmacéutica se retratan negativamente”, dice otro.

Como aprendimos con los fabricantes de fake news macedonios que apoyaron a Trump en 2016 solo porque les resultaba más rentable que los alargadores de pene y los hongos sanadores, no todo es ideología. Muchos generan páginas de bulos y propaganda con la única intención de capitalizar la interacción en el mercado automatizado de publicidad subastada de plataformas publicitarias como Google y Facebook. Australian Community Media, dueña de medios regionales y locales como el Canberra Times, el Illawarra Mercury o el Newcastle Herald, descubrió que su propio abogado republicaba sus contenidos, manipulados por IA, gracias a que cometió el mismo error. “Eres un periodista deportivo experimentado. Debes asegurarte de que el artículo que generes sea diferente al artículo original para evitar la detección de plagio”, se lee en uno de los artículos retocados con IA.

Un informe de la empresa finlandesa de software Check First documenta cómo cuentas falsas de presuntos ciudadanos se pusieron en contacto con más de 800 verificadores de datos y medios de comunicación en más de 75 países para inundarlos con peticiones de verificación de información falsa de medios como Pravda y Sputnik. Un ataque de denegación de servicio diseñado para acaparar su atención, drenar sus recursos y convencerlos de que difundan la información falsa, en artículos donde se repite aunque sea para denunciarla. Los investigadores han bautizado su informe igual que la batalla de Normandía: Operación Overlord.

El dividendo del mentiroso: todo es mentira

El efecto de toda esta desinformación es acumulativo. Lo explicaba el exdirector de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras del Departamento de Seguridad Nacional de EE UU, Chris Krebs, en el programa Face the Nation: “En lugar de un único evento catastrófico habilitado por la IA, será un ritmo constante donde nosotros, los votantes, el público, simplemente vamos a perder la confianza en el ecosistema de información en general”. Este es un fenómeno conocido, que los académicos Bob Chesney y Danielle Citron han llamado “el dividendo del mentiroso”.

La idea se basa en que la mera existencia de esta tecnología genera tanta duda y escepticismo en el público que empieza a cuestionar la autenticidad de cualquier contenido, incluyendo pruebas auténticas de conducta criminal. Esto permite a los mentirosos negar la realidad y esquivar la responsabilidad por sus acciones, pero no solo eso. Cuando los cimientos de la realidad se desintegran, los humanos tendemos a refugiarnos en la versión de la realidad que nos hace sentir más seguros, conectados y llenos de razón. Por ejemplo, cosas como que nos han robado las elecciones o que el Gobierno usa una pandemia falsa para tener controlada a la población.

En Verdad y política, Hannah Arendt advirtió que la mentira en política no es solo una herramienta útil para el engaño sino una máquina capaz de alterar la realidad misma. Trump utiliza ese sesgo para alimentar el genuino desprecio que sus seguidores tienen por los medios progresistas y crear un relato alternativo y heroico que les hace sentir seguros, conectados y parte de algo más grande que ellos mismos. Según un sondeo de la firma francesa de investigación de mercados Ipsos, la mayoría de los encuestados en 16 países, incluyendo España, piensan que la inteligencia artificial aumentará la desinformación. Curiosamente, la confianza de esos individuos en su habilidad para detectarla es mucho más alta que su confianza en la habilidad de los demás

La liga antipropaganda en tiempo real

Aunque existen cientos de grupos especializados haciendo un trabajo titánico para garantizar la integridad de las elecciones, no siempre trabajan coordinados y a menudo carecen del apoyo de dos jugadores cruciales: las plataformas y la Administración. Un experimento ejemplar habría sido el Consorcio por la Integridad de las Elecciones (Election Integrity Partnership), recién desmantelado por la derecha estadounidense a golpe de demandas. Se trataba de un equipo multidisciplinar formado por cuatro líderes en la detección y análisis de campañas de desinformación, redes de influencia, y su propagación a través de plataformas digitales: el Stanford Internet Observatory, el Centro para un Público Informado de la Universidad de Washington, Graphika y el Laboratorio de Investigación Forense Digital del Atlantic Council.

El consorcio se estaba preparando para prevenir o mitigar cualquier intento de intervenir las elecciones de 2024 o invalidar sus resultados, desde una sala de crisis con una cuarentena de estudiantes especializados trabajando las 24 horas durante el proceso electoral. Su misión era coordinar las alertas de una red de colaboradores externos e investigar rápidamente el alcance de la infección a lo largo de casi 300 plataformas, incluyendo puntos de vigilancia de WhatsApp, YouTube o Telegram pero también comunidades de vecinos como Next Door. Además de docenas de grupos de sociedad civil, verificadores y organizaciones locales que se dedican a monitorizar intentos de supresión de voto y campañas virales de desinformación durante todo el año, tenían contacto directo con las plataformas, para actuar con velocidad, y con el Centro de Análisis e Intercambio de Información sobre Infraestructura Electoral (EI-ISAC). Administrado por el Centro de Seguridad de Internet, el ISAC los habría advertido de cualquier intento de vulnerar la integridad de la infraestructura.

Tras procesar las alertas y activar los protocolos de mitigación, una segunda capa de analistas estudiaría desde las instituciones cada caso en profundidad. Por ejemplo, en el caso de una alerta de un Facebook Live en un estado púrpura donde se “advierte” de un estallido de violencia en los colegios electorales, los estudiantes podrían identificar que se trata de un vídeo de una manifestación de hace unos meses, y buscarlo en otras plataformas. Después, dar el aviso a las plataformas para que lo eliminen, silencien o etiqueten apropiadamente. Finalmente, los analistas estudiarían si proviene de agentes domésticos o externos, como Rusia o China, y si es un caso aislado o parte de una campaña más grande. Con esa información podrán avisar a las autoridades para que actúen rápidamente. La desinformación local sobre el proceso democrático es ilegal en EE UU.

El consorcio había dividido las amenazas en cuatro categorías: 1) desinformación sobre procedimiento del voto (dónde firmar, cómo marcar las casillas, cuántas veces); 2) información falsa sobre el lugar del voto para desincentivar la participación (violencia, cierre, masificaciones); 3) instrucciones para cometer fraude electoral (votar dos veces, etcétera), y 4) desinformación que pone en duda la integridad de las elecciones. El maridaje más esperado este año es una combinación de ataques a la infraestructura del voto diseñados para confirmar la desinformación sobre su fiabilidad. Lamentablemente, la campaña de acoso republicano ha llegado antes. La página del consorcio anuncia que “no trabajará en las elecciones de 2024 ni en elecciones futuras” y Stanford dice que el observatorio ya no trabajará en integridad electoral.

Suscríbete para seguir leyendo

Lee sin límites
_
Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_