Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

La robótica mejoraría la ética en el campo de batalla

En el fragor de la batalla, hasta los soldados mejor entrenados pueden actuar de formas que violen la Convención de Ginebra o las normas de combate en el campo de batalla. Ahora unos investigadores dan a entender que los robots podrían hacerlo mejor.

"La hipótesis de mi investigación es que los robots inteligentes pueden comportarse de una manera más ética en el campo de batalla que los seres humanos en la actualidad", afirma Ronald Arkin, informático del Instituto de Tecnología de Georgia, que diseña software para robots en el campo de batalla, contratado por el Ejército de EE UU. "Ésa es la teoría que defiendo".

Los aviones espía, los detectores de minas y los sensores robóticos ya se utilizan de forma habitual en el campo de batalla, pero los controla el ser humano. De lo que Arkin está hablando es de robots de verdad que funcionan por sí solos.

Él y otros aseguran que la tecnología necesaria para fabricar robots autónomos con capacidad letal no es muy cara y está proliferando, y que es sólo una cuestión de tiempo hasta que estos robots se desplieguen en el campo de batalla. Esto significa, añaden, que es hora de que la gente empiece a hablar de si esta tecnología es algo de lo que quiere hacer uso.

Noel Sharkey, informático de la Universidad de Sheffield en Reino Unido, escribía el pasado año en la revista Innovative Technology for Computer Professionals que "esto no es ciencia ficción al estilo de Terminator, sino la cruda realidad". Y añadía que Corea del Sur e Israel ya están desplegando robots armados como guardias fronterizos.

"No queremos llegar al punto en el que digamos que tendríamos que haber llevado a cabo este debate hace 20 años", señala Colin Allen, filósofo de la Universidad de Indiana en Bloomington y coautor del nuevo libro Máquinas morales: enseñar a los robots la diferencia entre el bien y el mal.

Randy Zachery, que dirige el Departamento de Informática de la Oficina de Investigación del Ejército, organismo que financia la labor de Arkin, afirma que el Ejército espera que esta "ciencia básica" pueda demostrar la forma en que los soldados humanos pueden utilizar sistemas autónomos e interactuar con ellos y que se puede desarrollar un software que "permita a los sistemas autónomos operar dentro de los límites impuestos por el combatiente ".

En un informe para el Ejército el año pasado, Arkin describía algunas de las posibles ventajas de los combatientes robóticos autónomos. Para empezar, se pueden diseñar sin instinto de supervivencia y, por tanto, sin tendencia a huir por miedo. Se pueden fabricar de modo que no sientan ira o temeridad, añade Arkin, y hacerlos invulnerables a lo que él denomina "el problema psicológico del 'cumplimiento de las expectativas", que hace que la gente absorba información nueva con más facilidad si concuerda con sus ideas preconcebidas.

Su informe se basaba en una encuesta de 2006 realizada por las autoridades sanitarias del Ejército, que revelaba que menos de la mitad de los soldados y marines destinados en Irak afirmaban que a los no combatientes se les debía tratar con dignidad y respeto y que el 17% aseguraba que a todos los civiles se los debía tratar como insurrectos.

Arkin prevé unas cuantas formas en que se podría utilizar a los robots autónomos: en operaciones contra francotiradores, para despejar edificios de supuestos terroristas o en otras misiones peligrosas. Pero antes habría que programar los con normas e instrucciones sobre a quién disparar, cuándo es aceptable hacer fuego y cómo distinguir las tropas enemigas atacantes de los civiles, los heridos o alguien que esté intentando rendirse.

Las simulaciones del campo de batalla de Arkin se desarrollan en pantallas de ordenador. Los pilotos robot cuentan con la información que podría tener un piloto humano, como mapas con la ubicación de templos, edificios de apartamentos, colegios y otros centros de vida civil. Se les enseña dónde están exactamente las tropas enemigas, el material bélico y los blancos prioritarios. Y se les dan las normas de combate, directrices que limitan las circunstancias en las que pueden iniciar y llevar a cabo el combate.

En una simulación, un piloto robot sobrevuela un pequeño cementerio. El piloto descubre un carro de combate a la entrada del cementerio, un posible objetivo. Pero también hay un grupo de civiles presentes, así que el piloto decide seguir adelante y no tarda en encontrar otro blindado, que está solo en un campo. El piloto dispara, el objetivo queda destruido.

A algunas personas que han estudiado esta cuestión les preocupa que a los robots del campo de batalla diseñados sin emociones les falte compasión. Arkin, un cristiano que reconoce la ayuda de Dios y de Jesús en el prólogo de su libro de 1998 Robótica basada en el comportamiento, razona que, dado que las normas como la Convención de Ginebra se basan en principios humanos, si se incorporan a la arquitectura mental de una máquina, les dotaría de algo parecido a la compasión. Aunque añade que sería difícil diseñar "algoritmos perceptivos" capaces de reconocer, por ejemplo, si las personas están heridas u ondean una bandera blanca.

Arkin considera que provocar el debate sobre la tecnología es la parte más importante de su trabajo.