_
_
_
_
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Los límites del capitalismo de vigilancia

Las empresas líderes de datos e Inteligencia Artificial no supieron predecir la escala de la propagación del coronavirus, pese a su avanzada capacidad tecnológica

Una persona sostene un teléfono móvil frente a una carretera casi vacía en Wuhan.
Una persona sostene un teléfono móvil frente a una carretera casi vacía en Wuhan.ALY SONG (REUTERS)

Hasta la emergencia del coronavirus, una preocupación central de algunas élites intelectuales occidentales (la cultura asiática confuciana es, quizás, otra cosa), era lo que Shoshana Zuboff, en su excelente libro, bautizó como el “capitalismo de vigilancia”. Es decir, la capacidad de grandes empresas tecnológicas, en particular Facebook y Google, de monitorearnos, predecir y manipular nuestro comportamiento, por medio de la inteligencia artificial (IA) empleando datos masivos (big data). Sin embargo, pese a esa abundancia de datos y que, junto a otras compañías como la china WeChat, son las grandes potencias en esa tecnología, estas empresas fueron incapaces de detectar la magnitud de la propagación de la Covid-19 y alertar a los Gobiernos (con quién normalmente tienen una estrecha relación) de manera efectiva. Con todo su enorme poderío tecnológico, científico e intelectual, basado en su capacidad para predecir el futuro, al menos el de cada uno de nosotros, surgen ahora inmensas preguntas: ¿Cómo es posible que hayan sido incapaces de anticipar una catástrofe de tal magnitud como la actual, de no lanzar un aviso cuando aún se estaba a tiempo, y de no usar esa información para modificar positivamente el comportamiento de sus usuarios, contribuyendo a que se aplanase antes la curva epidémica? La misma pregunta se puede trasladar a los gobiernos, con sus científicos de datos y su capacidad de capturar masivamente los personales. ¿Cómo se les pudo pasar? La crisis de la Covid-19 es un baño de humildad para la ciencia de datos y la Inteligencia Artificial, y en consecuencia para el llamado capitalismo de vigilancia.

Es verdad que una vez detectados los brotes, el Gobierno chino, y otros como el de Corea del Sur, Singapur o Taiwán —que estaban mejor preparados a resultas de epidemias anteriores— decidieron adoptar medidas drásticas de muy diversa índole, muchas de ellas con bastante éxito. La situación y reacción en Occidente ha sido muy distinta. Por ejemplo, según The Washington Post, los servicios de inteligencia de EE UU habían alertado ya en enero de la importancia del brote vírico a su propio Gobierno, que básicamente no hizo nada. Ese mismo escepticismo y el consecuente retraso en la actuación se ha visto en la mayor parte de países por donde la epidemia ha pasado. De hecho, en la propia China, las autoridades infravaloraron en un principio la amenaza llegando a censurar toda la información al respecto, a pesar de las numerosas advertencias de médicos y enfermos circulando por sus redes sociales.

Hay varios factores que pueden servir para explicar este fallo colosal del capitalismo de vigilancia. Uno de ellos tiene que ver con sus prioridades. Estos sistemas están centrados en monitorear y orientar nuestros hábitos de consumo, nuestros patrones habituales de comportamiento, e incluso nuestras tendencias políticas, más que nuestras patologías o tendencias anormales. De alguna forma, tienden a maximizar lo que preferimos, o creemos preferir, y a minimizar todo lo que nos molesta en nuestra vida cotidiana. Estos sistemas no lidian bien con la sorpresa.

Es necesaria una Inteligencia Colectiva potente para integrar una IA miope

En segundo lugar, las redes sociales fueron incapaces de integrar la información proveniente de expertos epidemiológicos y enfermos que expresaban los síntomas en ellas. No ha habido un problema de fake news —que también ha existido— sino que ha sido básicamente un problema de incoherent news, algo que se está intentando corregir ahora a marchas forzadas. En este caso, las redes no han permitido, al menos en un principio, establecer una visión coherente de la epidemia. Y esto a pesar de que podrían haber sido muy útiles integrando toda la información existente por parte de expertos, pacientes y otros usuarios. Un Facebook de la epidemiología hubiera sido una herramienta de gran valor en el contexto actual, aunque necesitaría una arquitectura totalmente diferente.

Un tercer factor, de más peso, es que se han abandonado los esfuerzos en Inteligencia Colectiva —muy presentes (y financiados) en los años noventa—, en favor, durante los últimos tiempos, de la Inteligencia Artificial. La primera como la definía Geoff Mulgan, en un libro de 2018, es “cualquier tipo de inteligencia a gran escala que involucra colectivos que eligen estar, pensar y actuar juntos”. Naturalmente, debe impulsarse sobre una base tecnológica. La Inteligencia Artificial debe estar al servicio de la Colectiva y no al revés. Y esto debería ser así, y ha empezado a serlo, en la búsqueda de soluciones a este virus. La competencia entre expertos de ciencias de datos es sana y creativa. Sin embargo, estamos asistiendo a una competencia excesiva, unido a una búsqueda constante de protagonismo por tener el mejor modelo o la plataforma mejor diseñada, el algoritmo más original y/o el que mejor predice el futuro. Lejos queda la Inteligencia Colectiva, basada en la cooperación tan de científicos por la búsqueda de respuestas, ya sea en forma de medicamentos antivirales, vacunas o de aplicaciones (apps) oficiales para el monitoreo de su expansión e incidencia. Esta crisis ha puesto de manifiesto la necesidad de un mundo con más cooperación entre inteligencias, ya sean humanas o artificiales.

Se plantean sí, problemas de vigilancia y de privacidad, como han apuntado, entre otros, Yuval Noah Harari y Byung-Chul Han. Parece propio de la condición humana, resolver un problema generando otros de la mano de esa propia solución. Pero también responde al método científico (y político) resolver los problemas uno a uno, y no todo a la vez. La prioridad es ahora resolver el embate del virus y hacerlo retroceder. Algunos creen ver el ocaso de la democracia liberal occidental (aunque hay otra oriental, como demuestran los casos de Japón, Taiwán o Corea del Sur) con el fin de nuestra privacidad individual. Pero las visiones apocalípticas resultan poco útiles para resolver el problema actual. Y bien utilizada y organizada, la Inteligencia Colectiva puede también servir para dominar los excesos de vigilancia. No debemos caer en el derrotismo de pensar que la tecnología que estamos usando, o podamos usar, para detener la pandemia es un camino sin vuelta hacia más vigilancia, pues su alcance y temporalidad dependerán de su control por parte de los ciudadanos.

Los Gobiernos han tardado —y en algunos casos, siguen tardando— demasiado en aprender unos de otros. Los avisos de grandes expertos de que algo así podía ocurrir estaban ahí, al menos, desde 2005. Aunque era posible, no se han evaluado justamente el peligro y sus defensas de forma colectiva. La OMS hubiera debido asumir ese liderazgo en este campo. Pese a los avances de esta organización, falta un verdadero sistema global de salud basado en una tecnología capaz de integrar la información de expertos de todos los campos, incluida la de expertos en Inteligencia Artificial. La Inteligencia Colectiva, apoyada en la artificial, debe servir para crear un sistema sanitario diversos, integrado por datos de pacientes reales y potenciales, además de expertos médicos, con base tecnológica y multinivel, lo que ahora no es posible dadas las limitaciones legales existentes, salvo en China y otros países autoritarios.

Por tanto, hoy es más necesario que nunca reformar este capitalismo, rico en Inteligencia Artificial sobre problemas concretos y limitados, pero demasiado pobre en Inteligencia Colectiva, para que la vigilancia bien entendida lo transforme en un sistema cooperativo. ¿Sabremos hacerlo?

José Balsa-Barreiro es investigador de los grupos de Human Dynamics y Connection Science del Massachusetts Institute of Technology en Boston; Manuel Cebrián es líder de investigación en el Max Planck Institute for Human Development en Berlín y Andrés Ortega es investigador asociado para transformaciones tecnológicas en el Real Instituto Elcano y director del Observatorio de las Ideas.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_