Cordula Droege (Cruz Roja): “Ya prohibimos las armas químicas y biológicas, ahora le toca a las armas con IA”
La responsable legal de la organización advierte de la “devastación generalizada e indiscriminada” que pueden traer consigo las aplicaciones militares de esta tecnología


El uso de sistemas de inteligencia artificial (IA) en las guerras es una realidad. Mientras que sus promotores las venden esta tecnología como un método para aumentar la precisión de los ataques y reducir su letalidad, la realidad es más bien la contraria. “Si analizamos los conflictos armados más tecnológicamente sofisticados de la actualidad, no hemos visto que la población civil salga mejor parada, sino más bien una devastación generalizada e indiscriminada”, dijo el mes pasado Cordula Droege, responsable legal del Comité Internacional de la Cruz Roja (CICR), ante el Consejo de Seguridad de Naciones Unidas.
Esta jurista alemana de 52 años habló allí de las tres aplicaciones de IA en el ámbito militar que, desde el punto de vista de su organización, plantean “riesgos significativos”: los sistemas de armas autónomas, como los drones no pilotados por control remoto; los programas de apoyo en la toma de decisiones militares y las capacidades cibernéticas. Cerró su intervención pidiendo la prohibición y restricción de los sistemas de armas autónomas, una empresa que reconoce complicada, dada la carrera armamentística en torno a la IA. “Ya lo hemos conseguido antes con las armas químicas o biológicas”, cuenta a EL PAÍS por videoconferencia desde la sede central del CICR, en Ginebra.
Pregunta. ¿Se están notando ya las consecuencias del uso de la IA en escenarios bélicos?
Respuesta. Sus consecuencias se dejan notar en los civiles, pero también en los soldados. Desde el punto de vista jurídico, rigen dos principios generales. El primero es que ninguna arma debe causar lesiones superfluas o sufrimiento innecesario a las víctimas; de ahí que estén prohibidas, por ejemplo, las armas químicas. Y el segundo, que es mucho más importante para las nuevas tecnologías, es que cualquier arma utilizada en el campo de batalla tiene que distinguir entre combatientes y civiles, entre objetivos militares y bienes civiles. En el ciberespacio, por ejemplo, esa barrera se difumina.
P. Ustedes señalan tres aplicaciones de la IA que les preocupan especialmente. ¿Podría desarrollarlas?
R. La IA puede llegar a resultados que no se habían programado de antemano. Los sistemas de armas autónomas se lanzan, pero luego eligen el objetivo basándose en un algoritmo, lo que significa que el usuario no sabe dónde, cuándo o qué golpeará el arma. La mayoría de los drones hoy, por lo que sabemos, son controlados a distancia. Pero podrían ser autónomos, y eso plantea muchas preguntas. Se pueden programar para apuntar a tanques, que son objetivos militares, pero ¿y si se usan para atacar vehículos no militares que transportan armas? El software aprenderá por sí mismo y cambiará a quién, qué y dónde golpea a lo largo de su operación. Multiplica eso por enjambres de drones y el resultado es aún más impredecible. En términos legales, eso significa que el usuario lanza un arma que no sabe si apuntará a un civil o a un combatiente, a una infraestructura pública o a un objetivo militar. Eso es un arma indiscriminada y, por tanto, ilegal. Por eso, el CICR recomienda prohibir su uso.
También nos preocupan los sistemas de apoyo a la decisión basados en IA, que pueden integrar y analizar enormes cantidades de datos en cuestión de segundos para producir recomendaciones sobre objetivos o detenciones, pero que pueden condicionar al usuario y hacer que apruebe decisiones de manera automática. Y la tercera categoría de riesgos la vemos cuando se usa la IA para impulsar capacidades cibernéticas: al encontrar nuevas formas de entrar en los sistemas informáticos del enemigo, aumenta el riesgo de ataques indiscriminados y de daños colaterales a infraestructuras civiles.
P. ¿Ve factible que se apruebe un tratado de prohibición de la IA en los sistemas de armas autónomas?
R. Estamos pidiendo una mezcla de prohibiciones y limitaciones, porque no todos los sistemas son problemáticos. Por ejemplo, un sistema antimisiles puede ser autónomo porque se dirige a objetivos militares. Estos sistemas solo necesitan ser restringidos: por ejemplo, obligando a que se coloquen en lugares donde los civiles no estén presentes. Hay un tabú sobre el uso de armas autónomas contra seres humanos. Los estados alegan que no se están usando para eso. Desde la perspectiva del CICR, es muy importante mantener ese tabú. Tanto por razones éticas como legales: será muy difícil distinguir entre combatientes y civiles en campos de batalla complejos donde los civiles a veces entran y salen de situaciones de conflicto. No creemos que los seres humanos deban ser seleccionados como objetivo por algoritmos.
P. ¿Siempre hay alguien apretando el botón? ¿O ya hay armas autónomas operando totalmente solas?
R. Por lo que sabemos, los drones funcionan por control remoto. Pero, por supuesto, lo que los estados están tratando de desarrollar, y probablemente ya han desarrollado o hasta desplegado, son sistemas que funcionen solos en áreas con interferencias o cortes de comunicación. En esos contextos, has pulsado el botón al principio, pero no sabes cuándo ni dónde apuntará y golpeará el objetivo. Eso es lo que estamos tratando de frenar y limitar.
P. ¿El algoritmo Lavender, usado por las Fuerzas Armadas israelíes para seleccionar los objetivos de sus bombardeos en Gaza, sería ilegal porque apunta a personas directamente?
R. El CICR no hace referencia a programas específicos. Lo que sí le puedo decir es que una de las categorías de IA aplicada a la guerra que nosotros denunciamos son los programas que ayudan a los responsables de la toma de decisiones. Una vez que la acción viene determinada por un sistema, entonces se convierte en un arma autónoma.
P. La justificación de Lavender y otros programas similares es que permiten tomar decisiones mucho más informadas.
R. No lo vemos así. El hecho de que unas fuerzas armadas dependan de la IA para recopilar datos podría hacer que su selección de objetivos sea más indiscriminada. Cuando se desarrollan nuevas armas, se suele decir que crearán más precisión en el campo de batalla, que serán más fiables y protectoras para los civiles. Pero la historia demuestra lo contrario: las nuevas tecnologías no han creado conflictos más humanos, sino más devastadores.
P. ¿Quién es el responsable legal de la acción de un arma totalmente autónoma?
R. El derecho internacional humanitario establece que en un conflicto se enfrentan dos o más partes, ya sean estados o grupos armados no estatales. Desde el tribunal de Núremberg de 1945, los individuos son, además, responsables de sus decisiones, especialmente si cometen crímenes de guerra. Así que tenemos dos capas de responsabilidad: las partes en conflicto y el comandante o soldado que toma la decisión.
P. ¿Cree que la introducción de la IA en los escenarios bélicos marca un punto de inflexión?
R. Sí. La historia del conflicto armado es la historia del despliegue de nuevas armas en el campo de batalla. Tendremos que ser muy cuidadosos para entender las consecuencias humanitarias a las que nos enfrentaremos. Siempre habrá presión para incorporar nuevas tecnologías en la guerra. No descarto que a veces sea por buenas razones, pero normalmente es para tener más letalidad, más potencia de fuego y más rapidez que tu enemigo. Las consideraciones humanitarias generalmente no se contemplan.
P. ¿Qué comentarios ha recibido tras su intervención en el Consejo de Seguridad de las Naciones Unidas?
R. Nuestras peticiones no son nuevas. Promovemos un tratado sobre sistemas de armas autónomas desde 2021. Advertimos sobre los problemas de la guerra cibernética, que pueden inutilizar hospitales o plantas energéticas, desde hace más de 20 años. El trabajo del CICR ha sido llamar la atención de los estados sobre el hecho de que eso tiene consecuencias legales, éticas, humanas y sociales que deben tenerse en cuenta. Creo que la mayoría de los estados ahora pide un tratado sobre sistemas de armas autónomas.
P. ¿Cree que la IA está amplificando la destrucción en las guerras?
R. Sí, y lo veremos cada vez más. La razón para desarrollar nuevas tecnologías es golpear más fuerte, más rápido y a más enemigos. No veo cómo, por ejemplo, con enjambres de drones tendrás menos letalidad. Es cierto que la mayoría de las personas asesinadas en conflictos mueren a manos de armas convencionales como artillería, morteros o AK47. Pero las nuevas tecnologías, como los drones, también se vuelven más baratas y disponibles. Así que, simplemente, se multiplicará la cantidad y tipos de armas disponibles. Desde el momento en que una arma existe y se produce, empiezan las dificultades para controlarla.
P. Durante su siglo y medio de historia, el CICR ha pedido la prohibición de muchas armas. ¿Qué le hace pensar que el mundo se lo tomará en serio con la IA?
R. Los tratados de prohibición de las armas químicas y biológicas son muy exitosos porque han creado un tabú. En los últimos 100 años hemos visto muy pocos usos de esas armas. Tenemos que construir sobre estos éxitos y mostrar que es posible que los estados se unan. Dicho esto, el entorno actual no es muy propicio, en el sentido de que hay una carrera armamentística ya en marcha. Estas armas se consideran estratégicas. No tenemos más remedio que intentarlo, se lo debemos a nuestros hijos.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma































































