Así se descubre a un ‘bot’: algoritmos que cazan mentiras

‘Startups’ como Logically usan la inteligencia artificial para detectar informaciones y usuarios falsos en redes sociales como Twitter

Chabot en una página web respondiendo a un humanoanyaberkut (Getty Images/iStockphoto)

¿Puede la inteligencia artificial acabar con la estupidez humana? La respuesta corta es no. Para desarrollar la larga, debemos remontarnos al pasado mes de junio. Con las protestas de Black Lives Matters incendiando las calles de medio EE UU, un pequeño fuego en Twitter llamó la atención de Lyric Jain, fundador de Logically, una startup inglesa que utiliza distintos algoritmos de inteligencia artificial para detectar informaciones y perfiles falsos en redes sociales. Una usuaria se había rapado la cabeza para solidarizarse con el movimiento...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Suscríbete para seguir leyendo

Lee sin límites

¿Puede la inteligencia artificial acabar con la estupidez humana? La respuesta corta es no. Para desarrollar la larga, debemos remontarnos al pasado mes de junio. Con las protestas de Black Lives Matters incendiando las calles de medio EE UU, un pequeño fuego en Twitter llamó la atención de Lyric Jain, fundador de Logically, una startup inglesa que utiliza distintos algoritmos de inteligencia artificial para detectar informaciones y perfiles falsos en redes sociales. Una usuaria se había rapado la cabeza para solidarizarse con el movimiento y animaba a otras mujeres blancas a imitarla bajo el hashtag #gobaldforblm. La propuesta levantó iras a uno y otro lado del espectro ideológico, que se extendieron de forma viral. Así que Jain decidió poner a su empresa a investigar el tuit.

Con más de 100 ingenieros y periodistas a sus órdenes, Jain asegura capitanear al equipo de verificación de datos más grande del mundo. Quizá por ello no les costó determinar que la tuitera rapada era en realidad un bot creado por el foro 4chan. Lo descubrieron monitoreando la forma de relacionarse con otras cuentas. El caso, reconoce, no fue especialmente complicado, pero sí muy representativo del problema al que se enfrentan. “Estas investigaciones son fundamentales para comprender cómo actores malintencionados pueden cambiar la narrativa utilizando bots”, explica Jain por correo electrónico.

La palabra bot ha perdido parte de su significante (es una aféresis de robot) pero no de su significado: designa a un programa informático que realiza actividades repetitivas y mecánicas. Hay bots que difunden información falsa en Twitter. Y hay bots que la desmienten en la aplicación de Logically. La tecnología que utiliza uno y otro bando lleva años sofisticándose. Es una carrera armamentística de la inteligencia artificial, una guerra fría de la desinformación. Y el resultado, en un mundo en que la verdad puede pasar de rebatida a relativa en cuatro tuits, puede ser determinante para el futuro de las sociedades democráticas.

Fundada en 2017, Logically tiene alrededor de 20.000 usuarios habituales, la mayoría de ellos en India y Reino Unido. Está preparando su desembarco en EEUU, donde prevé un aumento de las fake news de cara a las próximas presidenciales. Fue precisamente durante unas elecciones, las del Brexit, cuando su dueño se planteó la necesidad de crear esta plataforma. Gracias a una beca del MIT pudo poner en práctica su idea: fundar una empresa de fact checking basada en la tecnología. No fue una idea especialmente original.

Detectando la ingeniería de la viralidad

Los bots también tienen sentimientos. Al menos en Twitter. Estos propagan, en una proporción aplastante, información falsa y alarmista, apelan a los instintos más primarios para provocar la interacción de los humanos. “Por eso sus mensajes suelen contener exclamaciones y mayúsculas”, explica Juan Gómez Romero, investigador de ciencias de la computación e inteligencia artificial en la Universidad de Granada.

Romero ha creado un algoritmo que detecta estos caracteres, así como ciertas palabras y construcciones sintácticas propias de las fake news. Lo ha hecho junto a su compañero Miguel Molina Solana, y a varios colaboradores del Imperial College de Londres, para publicar el estudio Not all lies are equal. “Nuestro algoritmo funciona como el filtro de spam (el que filtra los mensajes enviados de forma masiva) del correo electrónico”, explica en conversación por videoconferencia. “Encuentra construcciones sintácticas del pasado y las busca en los mensajes nuevos. Si hay patrones que se repiten, las posibilidades de que el mensaje sea spam, o en nuestro caso una información no verdadera, va a ser alto”. Tecnologías como la que describe ya se usan en las redes sociales. “Twitter es bastante hermético respecto a lo que hace, pero se puede intuir viendo las empresas que compra”, señala el investigador. Por eso ya se está trabajando en la siguiente generación de algoritmos.

El propio Romero está entrenando a una IA basada en el aprendizaje automático, capaz de señalar, sin dirección previa, nuevos patrones de las noticias falsas. “Está detectando sutilezas que de algún modo están ahí, pero que no son apreciables por nosotros”, comenta. A pesar de los buenos resultados, este ingeniero cree que sus herramientas deben ser entendidas como un complemento, nunca como un sustituto, de la comprobación por parte de humanos.

Esto mismo defiende Clara Jiménez, directora y cofundadora de Maldita.es. Esta periodista, pionera del fact checking en España, no reniega de la tecnología. Su compañía hace uso de bots, algoritmos y extensiones de navegador. Los paralelismos con Logically son evidentes, pero ella prefiere hacer hincapié en la vertiente periodística de su compañía. Por eso matiza y mucho la utilidad de la actual inteligencia artificial: “La realidad es que a día de hoy las herramientas no están bien engrasadas”, explica en entrevista telefónica, “fallan mucho porque el comportamiento humano respecto a las pasiones, que es lo que mueve las fakes, es muy errático”.

Jiménez señala otro problema. Todos estos sistemas se prueban en Twitter, que es la red más abierta (y más colaborativa, señalan los investigadores). “Pero es más probable que te envíe una fake news tu padre a que lo veas en el mensaje de un bot”, destaca. Los números parecen darle la razón. Según Statista, en España hay cuatro millones y medio de cuentas en Twitter. Whatsapp tiene 38 millones.

En su libro, The Reality Game: How the Next Wave of Technology Will Break the Truth, el experto en inteligencia artificial Samuel Woolley lamenta que las grandes plataformas estén cometiendo el error de combatir los bots, únicamente, con más tecnología. “Será una combinación de trabajo humano e inteligencia artificial lo que finalmente logre tener éxito”, vaticina el autor, aunque los grandes CEOs de Silicon Valley solo parecen estar mirando a esta última. Woolley apunta al aprendizaje automático y el aprendizaje profundo como posibles herramientas de futuro. Pero subraya una verdad que han ido señalando varios expertos desde hace años. Lo cierto es que a día de hoy, sin la ayuda de los humanos, la inteligencia artificial sigue siendo bastante estúpida.

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Sobre la firma

Archivado En