_
_
_
_
_
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Inteligencia militar, por supuesto

El desarrollo de la robótica dispara una carrera de armamentos entre China, Rusia y Estados Unidos

Javier Sampedro
Un dron de la Fuerza Aérea de Estados Unidos en el aeropuerto de Kandahar (Afganistán).
Un dron de la Fuerza Aérea de Estados Unidos en el aeropuerto de Kandahar (Afganistán).Josh Smith (Reuters)

Las tres leyes de la robótica inventadas por el novelista Isaac Asimov a mediados del siglo XX, cuando aún no existía ni el robot de la cocina, llevan unos años pujando por saltar a la estantería de no ficción. Son simples y elegantes: un robot nunca dañará a un humano. Obedecerá a los humanos siempre que esto no viole lo anterior. Y se protegerá a sí mismo siempre que esto no viole nada de lo anterior. Los expertos en robótica reconocen desde hace décadas que la tercera ley es útil, porque cualquier sistema autónomo debe autoprotegerse si no quiere desintegrarse o perecer. Eso es buena ingeniería. Pero lo que está en discusión ahora es la primera ley, que un robot no debe dañar a un humano, y eso no es tanto una cuestión de ingeniería como de ética y política internacional. Y es una cuestión bien importante.

Los propios científicos de la computación llevan desgañitándose para pedir una regulación internacional de la inteligencia artificial desde 2009, cuando la élite del campo celebró en Asilomar, en la bahía de Monterrey, California, una conferencia interesante. El propio lugar de la reunión ya era un signo deslumbrante de lo que pretendían, porque Asilomar fue justo el sitio donde 35 años antes se habían reunido los biólogos moleculares para recomendar unas normas de seguridad internacionales sobre la modificación genética de los virus y las bacterias. En 2009, la principal preocupación de sus herederos, los científicos de la computación, era el uso militar de la inteligencia artificial. Y sigue siéndolo, cada vez con más intensidad y mayores presiones políticas.

El Congreso de Estados Unidos creó hace dos años una Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI), que ha presentado en marzo su informe. Quien espere ahí una llamada a la regulación internacional del riesgo robótico se va a llevar el disgusto de su vida, porque lo que recomienda la NSCAI es acelerar las tecnologías de inteligencia artificial para preservar la seguridad nacional y no perder el primer set frente a China y Rusia. Esto recuerda a la idea clave que condujo a la creación del proyecto Manhattan: si la bomba atómica era posible, Estados Unidos debía construirla antes que Hitler. Las regulaciones ya vendrían después. Es la lógica militar, ¿no es cierto? La NSCAI defiende ahora “la integración de las tecnologías de inteligencia artificial en todas las facetas de la guerra”. ¡Más madera!

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

El contrapeso diplomático está viniendo de Europa, como de costumbre. En enero, el Parlamento Europeo emitió unas directrices que proponen que la inteligencia artificial de uso militar no debe sustituir en ningún caso a las decisiones humanas. Otra ley de Asimov, aunque sospecho que se puede reducir a las tres normas originales (lo dejo como deberes para el lector). La Comisión Europea publicó en abril el primer marco legal internacional para garantizar que la inteligencia artificial sea “segura y ética”. Los científicos de la computación están más bien del lado de Europa, y 4.500 de ellos se han pronunciado en contra de que un robot pueda tomar la decisión de matar a una persona. El problema son los que no pueden hablar porque trabajan para el Pentágono.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_