_
_
_
_

Los ‘robots asesinos’ salen de la ciencia ficción

La ONU convoca un encuentro internacional sobre el uso bélico de máquinas que pueden tomar la decisión de matar

Guillermo Altares
Campaña contra el uso de robots en la guerra, en Londres en 2013.
Campaña contra el uso de robots en la guerra, en Londres en 2013.CARL COURT (AFP)

Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficción para entrar de lleno en la agenda internacional sobre desarme: a partir del próximo lunes, la ONU reúne en Ginebra a decenas de expertos durante cinco días para estudiar todas las implicaciones de los llamados Sistemas de Armas Autónomos Letales (LAWS, en sus siglas en inglés). El objetivo de los investigadores es convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantean profundos dilemas éticos, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable si una máquina autónoma comete un crimen? Todavía no existen; pero sí la tecnología capaz de desarrollarlas.

“Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares, Stop Killer Robots. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisión”.

Más información
¿Sueñan los androides con batallas?
La guerra de los drones
Robots al rescate de las fábricas
Yo robot
Algún día nos tragaremos un robot

El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y ha arrancado acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonales y los láser cegadores. Este armamento se prohibió antes de que estuviese operativo y eso es lo que pretenden los científicos: que los robots asesinos no lleguen a crearse nunca. Muchos países han desarrollado sistemas de armas autónomos, como el x47-B de EE UU, un avión que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta –por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte–, pero la decisión de abrir fuego sigue siendo humana. Por ahora.

Con motivo del encuentro de Ginebra, Human Rights Wacht y Harvard Law School’s International Human Rights Clinic han publicado este jueves un informe que relata lo que implicaría que las máquinas con capacidad para decidir sobre la vida y la muerte entrasen en el campo de batalla. Su conclusión es clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.

Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator: “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.

Debido a que estas armas revolucionarían la guerra, también pueden desatar una carrera armamentista. Una vez que estuviesen totalmente desarrolladas, se producirá una proliferación a estados irresponsables o grupos armados no estatales. Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurrirán a la fuerza porque reduciría el riesgo para sus propios soldados”. A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad si ocurre un accidente con un coche que conduce una máquina.

El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, ha desarrollado un argumentario para la reunión de Ginebra con los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía estamos a tiempo para detener la automatización de la decisión de matar, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Guillermo Altares
Es redactor jefe de Cultura en EL PAÍS. Ha pasado por las secciones de Internacional, Reportajes e Ideas, viajado como enviado especial a numerosos países –entre ellos Afganistán, Irak y Líbano– y formado parte del equipo de editorialistas. Es autor de ‘Una lección olvidada’, que recibió el premio al mejor ensayo de las librerías de Madrid.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_