_
_
_
_

Cómo evitar que ChatGPT provoque un nuevo asalto al Capitolio

Wolf News, un programa de noticias falsas presentado por personas que no existen, demuestra que las nuevas herramientas de Inteligencia Artificial son un ‘kaláshnikov’ para la desinformación

Marta Peirano
'Deepfake' [vídeo manipulado] del expresidente de Estados Unidos Richard Nixon, en el que se han utilizado tecnologías de inteligencia artificial y aprendizaje automático, realizado por Francesca Panetta y Halsey Burgun en el Instituto Tecnológico de Massachusetts.
'Deepfake' [vídeo manipulado] del expresidente de Estados Unidos Richard Nixon, en el que se han utilizado tecnologías de inteligencia artificial y aprendizaje automático, realizado por Francesca Panetta y Halsey Burgun en el Instituto Tecnológico de Massachusetts.MIT

Es un discurso televisado en 1969 en el que Richard Nixon comunica el desastre del Apollo 11. “Estos hombres valientes, Neil Armstrong y Edwin Aldrin, saben que no hay esperanza para su recuperación”, dice mirando gravemente a cámara. Es un documento histórico emocionante y evidentemente falso, pero sólo para quien sabe que la misión alunizó con éxito. “En caso de desastre lunar” es un deepfake —neologismo compuesto de deep learning [sistema de aprendizaje automático] y fake [falso]— realizado por Francesca Panetta y Halsey Burgund en el MIT para demostrar la creciente verosimilitud de los contenidos sintéticos generados artificialmente con inteligencia artificial.

Los artistas reconstruyeron el set en el que Nixon anunció (realmente) su dimisión y grabaron el discurso con un actor. Después suplantaron sus facciones por las del presidente y recrearon su voz con ayuda de la firma ucrania Respeecher y Canny AI de Israel. “Hacer que un deepfake sea convincente es muy difícil”, dijo Panetta en su lanzamiento, en diciembre de 2019. “Es casi un alivio”. Tres años más tarde, aparece Wolf News, un programa de noticias falsas presentado por personas que no existen, en las redes de propaganda del gobierno chino.

Tanto presentadores como contenidos parecen reales, pero han sido generados usando el software comercial de la compañía londinense Synthesia. Según la firma de investigación forense digital Graphika, es el primer deep fake que aparece en una campaña de influencia estatal. Son contenidos de propaganda pro-china: un locutor occidental informa en inglés sobre la vergonzosa falta de acción estatal contra los tiroteos masivos que asolan Estados Unidos. Y una presentadora, étnicamente ambigua, destaca el papel de China en las relaciones geopolíticas en un encuentro internacional, según publicó The New York Times. “A medida que se vayan haciendo más populares”, dice por correo electrónico Renée Diresta, jefa de investigación del Observatorio de Internet de Stanford, “es razonable esperar que serán utilizadas en importantes contextos políticos”. Las próximas campañas electorales tienen un dispensador de contenidos a la carta.

Imágenes del informativo del canal Wolf News con presentadores y noticias generados por IA y distribuido en redes de propaganda china.
Imágenes del informativo del canal Wolf News con presentadores y noticias generados por IA y distribuido en redes de propaganda china.

El ‘kaláshnikov’ de la propaganda

Los modelos que generan imágenes, como MidJourney, DALL·E (OpenAI) y Stable Diffusion (Stability AI), nos acercan técnicas de manipulación digital antes reservadas a los estudios profesionales de posproducción y efectos especiales. Los de texto, como LaMDA (Google), Galactica (Meta) y ChatGPT (OpenAI), la habilidad de producir contenidos infinitos e instantáneos sobre cualquier tema y formato sin contratar una redacción. El periodista Tristan Greene usó Galactica para generar Una investigación sobre los beneficios de consumir cristales rotos, que defiende la superioridad del vidrio para corregir la acidez estomacal. Su habilidad de defender cualquier postura con la minuciosidad de un catedrático y el aplomo de un tertuliano aterriza en un entorno mediático que aún no sabe protegerse de la desinformación artesanal.

“No está claro que las grandes tecnológicas vayan a ser capaces de identificar el contenido sintético”
Renée Diresta (Standford)


“No está claro que las plataformas tecnológicas vayan a ser capaces de identificar el contenido sintético”, explica Diresta. En otoño de 2021, se reunió con un supergrupo de expertos internacionales para estudiar el impacto de estas nuevas herramientas. El informe resultante, recién publicado, se titula Modelos de lenguaje generativos y operaciones de influencia automatizadas: amenazas emergentes y mitigaciones potenciales. Uno de los coautores es la empresa de ChatGPT OpenAI.

Una imprescincible coalición de control

Los verificadores lo tendrán difícil. Antes las agencias de desinformación robaban fotos en las redes sociales o las compraban a bancos de imágenes, facilitando su detección. Ahora pueden generar personas usando redes generativas adversarias (GAN), como demuestra la web thispersondoesnot­exist.com. Antes plagiaban textos de Wikipedia y de The New York Times para acelerar la producción y disimular su dominio imperfecto del lenguaje. Ahora pueden generar textos aparentemente originales defendiendo cualquier tesis. “Tendremos que investigar la autenticidad de las redes que los comparten o los dominios donde se mueven”, cuenta Diresta. El “comportamiento coordinado inauténtico” es el nombre que usan para tipificar las redes de cuentas mercenarias que, pasando por ciudadanos normales, se organizan para distribuir propaganda en la Red.

Las principales propuestas de mitigación tienen que ver con el control de las empresas. OpenAI mantiene el software generativo en su propia nube, controlando quién lo utiliza a través de una API [una interfaz que permite la comunicación entre programas y aplicaciones]. Pero nada garantiza que vayan a asumir la responsabilidad. Durante los últimos 20 años, las plataformas digitales han aprovechado su condición administrativa de distribuidores neutrales para beneficiarse económicamente del tráfico de contenidos que atraviesa sus servidores sin responsabilizarse de su toxicidad. “No parece haber ningún avance regulatorio específicamente centrado en este tema”, dice Diresta. Pero, incluso si se implementan medidas legales sin discriminar o reprimir a los usuarios, hay empresas como Stability AI que liberan el código y hackers profesionales capaces de robarlo para regímenes aficionados a las campañas de propaganda y desinformación. Hace falta una coalición.

Quién le pone el cascabel a la IA

“Una gestión efectiva requerirá la cooperación de diferentes instituciones, como las empresas de IA, las redes sociales y las agencias gubernamentales”, explica el informe. Imaginan una alianza donde los contenidos sintéticos quedan registrados temporalmente en una base de datos que ayude a las plataformas digitales para identificarlos cuando muestran comportamientos coordinados inauténticos. Un plan ambicioso, teniendo en cuenta la ausencia de representantes de las plataformas digitales en el taller. La propuesta más radical es manipular la “dieta” que entrena estos modelos para hacerla “radioactiva”, marcando de forma rastreable todos los contenidos sintéticos que genere. Una solución experimental y difícilmente escalable, ya que en última instancia implicaría contaminar desde el origen gran parte de los contenidos, sean o no tóxicos, que produzcan los 4.900 millones de usuarios de la Red.

La Iniciativa para la Autenticidad del Contenido, impulsada por Adobe en 2019, propone un sistema de trazabilidad a través de metadatos que ayuden a identificar la procedencia de contenidos. Es un proceso similar al de la cadena de bloques, que empieza en la propia cámara que captura la foto. Es voluntaria. “Nosotros lo llamamos el sendero dorado”, explica Santiago Lyon, responsable de educación de Adobe y exjefe del departamento fotográfico de la agencia Associated Press. “Es seguir el sendero empezando por la captura, luego pasando a la edición, luego por la publicación, de modo que, cuando finalmente llega al usuario final, pueda ver si ese archivo se ha desviado del sendero, empezó tarde o le faltan datos”. La iniciativa está incorporando empresas de cámaras, plataformas, agencias de prensa y medios de comunicación para crear este sendero y espera poder tener un prototipo funcionando a finales de 2023. ¿Y no tiene miedo de estar construyendo un castillo a prueba de flechas justo antes de que aparezca el cañón? Diresta es optimista: “El castillo está hecho de materiales pesados, pero la tecnología está hecha de código, es un material flexible con la habilidad de aprender, de adaptarse y cambiar”, responde.

Apúntate aquí a la newsletter semanal de Ideas.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_