Ir al contenido
_
_
_
_
COLUMNA
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Esas tecnologías son letales

Considerar que los sistemas de vigilancia, espionaje y reconocimiento facial no son armas es como decir que el dedo no sabe lo que hace el ojo cuando dispara

Un soldado israelí lanzaba en mayo de 2024 un dron contra una posición no revelada cerca de la frontera con la franja de Gaza
Marta Peirano

Los sistemas de armas autónomas letales o LAWS, que es como se conocen en el contexto jurídico aquellos capaces de seleccionar y atacar objetivos sin intervención humana, nos parecen tan peligrosos que los hemos declarado ilegales en todas partes. Queremos que haya siempre un cerebro humano apretando el gatillo, por lo que pueda pasar. Al mismo tiempo, desde la invasión de Ucrania, la financiación militar para inteligencia artificial (IA) y sistemas letales autónomos se ha disparado en todo el mundo, incluyendo EE UU, China y los países europeos. Los países de la OTAN están financiando investigaciones sobre drones autónomos y sistemas robóticos de combate. De momento, van todos por detrás de aquellos lugares donde los derechos humanos han sido desplazados por las rutinas del muro y de la ocupación.

La primera incidencia registrada de un arma autónoma ilegal fue en la segunda guerra civil libia. Dice un informe del Panel de Expertos sobre Libia del Consejo de Seguridad de la ONU que, en 2020, un dron Kargu-2 del Gobierno de Acuerdo Nacional persiguió y atacó a las fuerzas leales al mariscal de campo libio Jalifa Hafter, cuando estaban en retirada. Era de fabricación turca. La descripción no es ambigua: “Los sistemas de armas autónomas letales estaban programados para atacar objetivos sin necesidad de conexión de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar”. En mayo de 2021, Israel lanzó un enjambre de nuevos drones de combate guiados por IA para localizar y disparar sobre objetivos en Gaza.

Los dos sistemas son productos de un mercado en plena burbuja. Unos han sido desarrollados y perfeccionados en los territorios palestinos ocupados, especialmente Gaza y Cisjordania. Otros han sido probados en los bordes entre Turquía e Irán, y probablemente las fronteras que separan Turquía de Europa. En su imprescindible El laboratorio palestino, Antony Loewenstein describe la clase de ecosistema que genera la lógica de la ocupación. Una de las conclusiones naturales que derivan de su investigación es que las tecnologías de vigilancia, programas espía y sistemas de reconocimiento facial sin consentimiento no son diferentes de las armas letales autónomas, sino que son el prólogo imprescindible para su implementación. Discriminar esas tecnologías automáticas de frontera como no armamentizadas es argumentar que el dedo no sabe lo que hace el ojo cuando dispara. Y ofrecen la coartada perfecta para ejecutar un genocidio o justificar técnicas de control de población.

Esas “soluciones” no son “armas”, sino “sistemas avanzados de vigilancia y seguridad”. Productos de empresas como Coresight, que suministra los sistemas de reconocimiento facial que Israel dice usar para buscar a rehenes e identificar a miembros de Hamás. La empresa jura que sólo necesita escanear la mitad del rostro de una persona para una identificación positiva. A diferencia de otros sistemas similares en países democráticos, no se ha equivocado nunca. Como Magna BSP, fabricante de los sistemas de monitorización que usa la División de Gaza de las Fuerzas de Defensa de Israel (FDI) en Jerusalén Este y en cárceles. Como Cellerite, especializada en “sistemas de extracción forense”, capaces de acceder y extraer datos de dispositivos móviles, incluso si están bloqueados o encriptados, sin permiso de su legítimo dueño. Como NSO Group, que ayuda a los gobiernos a espiar a terroristas a través de Pegasus. Y tampoco se equivoca nunca.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Marta Peirano
Escritora e investigadora especializada en tecnología y poder. Es analista de EL PAÍS y RNE. Sus libros más recientes son 'El enemigo conoce el sistema. Manipulación de ideas, personas e influencias después de la economía de la atención' y 'Contra el futuro. Resistencia ciudadana frente al feudalismo climático'.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_