Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

¿Pueden los robots matar en vez de los humanos?

No parece fácil convencer a las grandes potencias militares de que renuncien al uso de la inteligencia artificial en la guerra

Primer robot de policía del mundo, presentado en Dubai en mayo.
Primer robot de policía del mundo, presentado en Dubai en mayo. AFP

Durante un tiempo, la I Guerra Mundial se conoció como la guerra que acabaría con todas las guerras. Necesariamente, reflexionaron muchos intelectuales, la humanidad tendría que aprender de sus errores y no se podría repetir algo tan salvaje. Los hechos tardaron apenas dos décadas en desmentirles. En cuestión de guerras, la humanidad siempre ha innovado en el sentido equivocado: con la intención de matar más y mejor. Ahora un grupo de científicos, entre los que se encuentra el fundador de Tesla, Elon Musk, se acaba de sumar a un amplio movimiento que pretende que todos los países del mundo renuncien al arma definitiva antes de que se haya inventado: los robots asesinos.

Los llamados Sistemas de Armas Autónomos Letales (LAWS, en sus siglas en inglés), o killer robots, son máquinas dotadas de inteligencia artificial que tomarían, sin ayuda humana, la decisión más difícil, compleja e irreversible de cualquier militar: matar. La polémica no está en la utilización de robots para la guerra, como drones que puedan volar solos, sino en dotar a máquinas de la capacidad para acabar con un enemigo sin que ningún humano intervenga. Como ocurre con los coches autónomos, la decisión es ética y legal porque la tecnología existe.

 Pioneros como Noel Sharkey llevan una década luchando por la firma de un tratado internacional que prohiba estas armas antes de que estén operativas. Human Rights Watch y Harvard Law School’s International Human Rights Clinic publicaron hace unos meses un informe que relataba lo que implicaría la existencia de esas máquinas. Su conclusión era clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.

“Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles”, señala este documento. Sin embargo, Joanna Bourke escribió un libro impresionante sobre lo que sienten los soldados al matar, An Intimate History of Killing, y resultaba aterrador lo fácil que era acabar con una vida para la mayoría de los que había entrevistado. Si algo ha demostrado la historia de la guerra es que siempre ha sido demasiado fácil.

Pero dotar a una máquina de la decisión de matar es cruzar un Rubicón muy complejo, significa un camino sin retorno, dar un poder gigantesco a la inteligencia artificial. Otras veces en la historia se han prohibido armas —las minas, las químicas—, sobre todo cuando ha quedado claro que son tan nocivas para nuestros propios soldados como para el enemigo. Pero siempre ha ocurrido después de su amplio uso en el campo de batalla. Es importante luchar por ello, abrir el debate social, pero sería la primera vez que los Ejércitos más poderosos del mundo renuncian al arma definitiva sin ni siquiera haberla probado.

Puedes seguir EL PAÍS Opinión en Facebook, Twitter o suscribirte aquí a la Newsletter.