El engañoso olor de la verdad
Nuestra confianza en que somos capaces de distinguir los vídeos reales de los falsos carece de apoyo empírico
Este es un año electoral en medio mundo, y los intoxicadores de masas ya tienen afiladas sus armas para interferir con los procesos a mayor bien de sus sombríos intereses. La fiesta ya ha empezado en Estados Unidos. Los votantes de New Hampshire para las primarias recibieron la semana pasada una llamada robótica donde el presidente Joe Biden les animaba a abstenerse. Se trataba en realidad de ...
Este es un año electoral en medio mundo, y los intoxicadores de masas ya tienen afiladas sus armas para interferir con los procesos a mayor bien de sus sombríos intereses. La fiesta ya ha empezado en Estados Unidos. Los votantes de New Hampshire para las primarias recibieron la semana pasada una llamada robótica donde el presidente Joe Biden les animaba a abstenerse. Se trataba en realidad de un deepfake (mentira profunda), una técnica de inteligencia artificial (IA) que permite imitar la voz, la cara o los gestos de cualquier personaje. Todos hemos visto ejemplos experimentales en el último año. En este caso se había usado un sistema de ElevenLabs, una startup de inteligencia artificial norteamericana, que ya ha anunciado el bloqueo de la cuenta del intoxicador. Pero hacer esto es ya tan fácil y barato que cada cuenta yugulada generará siete nuevas, como las cabezas de la hidra mitológica.
Las mentiras profundas no suponen un salto filosófico respecto a las mentiras a secas (fakes) que ya distorsionaron impunemente la elección en la que Donald Trump llegó al poder y la campaña que sacó al Reino Unido de la Unión Europea, por citar sus dos mayores éxitos. Los fundamentos psicológicos de ambas modalidades son los mismos: la gente tiende a creerse, y a propagar, cualquier mentira que coincida con sus prejuicios; etiquetar un bulo como tal no impide que se lo sigan creyendo y lo sigan diseminando; la repetición machacona de una falsedad la convierte en verdad para las audiencias acríticas. Pero un vídeo bien falsificado funciona aún mejor que una mentira escrita. Ver es creer, al fin y al cabo. Nos podemos preparar para lo peor.
Nuestra confianza en que somos capaces de distinguir los vídeos reales de los falsos carece de apoyo empírico. Una investigación de psicología experimental presentada en iScience con 210 voluntarios muestra que no distinguimos los deepfakes de los vídeos verdaderos, que encima tendemos a considerar falsos los que son auténticos, y que todos sobrestimamos nuestra habilidad de discernimiento. Por muy listo que te creas, puedes hundirte hasta las trancas en las arenas movedizas de la mentira profunda.
Los científicos de la computación llevan tiempo buscando formas de distinguir un vídeo real de uno falso, y cada vez resulta más difícil. Es verdad que, incluso con la IA más moderna, suele haber detalles que delatan el fraude. Todos nos quedamos atónitos con el deepfake del papa Francisco envuelto en un impresionante papa-plumas blanco. Aquello parecía de verdad. Un experto puede detectar que no lo es, porque la sombra de sus gafas está en un lugar de la cara que no encaja con el resto de la iluminación de la escena. De modo similar, el habla generada por IA falla en los titubeos, las respiraciones y las sutilezas del movimiento de los labios. Pero hay que ser un experto para darse cuenta. Los demás no nos fijamos en esas cosas, y es demasiado pedirnos que lo hagamos.
Hay muchas empresas grandes y pequeñas desarrollando software para detectar deepfakes, pero los intoxicadores tampoco se están quietos. El resultado va a ser una carrera de armamentos, como la que mantienen las conchas cada vez más duras de los caracoles y las pinzas cada vez más fuertes de las langostas. Pura biología.