_
_
_
_
_
Toby Walsh | Promotor del manifiesto contra los robots asesinos

“En 50 años podríamos tener un Terminator. Hay que pararlo ahora”

Los expertos en inteligencia artificial advierten de los peligros de los robots armados y piden a la ONU que los prohíba

El investigador del NICTA Toby Walsh.
El investigador del NICTA Toby Walsh.RICARDO CEPPI

Los expertos en inteligencia artificial están asustados con la posibilidad de que sus avances acaben como las investigaciones que llevaron a la bomba nuclear. Toby Walsh, investigador estrella del centro de élite australiano NICTA, es el principal promotor de la carta que, liderada por Stephen Hawking, exige la prohibición de los robots asesinos. El texto ha logrado ya más de 17.000 firmas de científicos, entre ellos 2.500 especialistas en robótica, y ha monopolizado la atención en el mayor congreso del mundo sobre inteligencia artificial, que este año se ha celebrado en Buenos Aires. "Tenemos detrás a muchas organizaciones y sobre todo al mundo científico. Esto es imparable", explica Walsh en un receso del congreso. "El objetivo es lograr que la ONU haga una prohibición expresa de los robots asesinos. Eso lleva tiempo, pero lo lograremos. Es evidente que una organización terrorista no va a hacer caso a la ONU, pero sí las empresas de armamento. Por ejemplo, se ha logrado vetar los láser para cegar a prisioneros. Y ya no se fabrican. Usted no los va a ver ni siquiera en Siria. A una empresa de armamento no le interesa ir contra la ONU, perdería a sus mejores clientes".

Los robots asesinos caerían rápidamente en manos de terroristas

Walsh sostiene que la carrera se ha iniciado ya. "Sabemos que EE UU está trabajando en proyectos de robots asesinos. Y es presumible que otros estén en esa carrera para no quedarse atrás. No sabemos lo que hacen otros países más opacos como China pero le doy un dato: por primera vez en la historia, este congreso, el más importante del mundo, tiene más proyectos chinos —no militares— que EE UU. Están muy avanzados en inteligencia artificial", explica.

Para los países son una tentación muy fuerte, pero quienes conocen bien la tecnología, como Walsh, y lo accesible que podría ser, se movilizan para frenarlos. "Son mucho más baratos y eficaces que un soldado, no necesitan dormir ni comer, no sufren el frío ni el calor, y los podemos hacer tan pequeños que se pueden meter en cualquier parte". La carta no va contra los drones, porque al final de la cadena hay un ser humano que toma la decisión de disparar o no. Pero sí contra las armas autónomas. "En un mundo ideal, dejaríamos que los robots de uno y otro bando se mataran en un desierto y los contendientes aceptarían el resultado. Como una competición deportiva. Y evitaríamos muertes humanas. Pero el mundo no es así. Esos robots no tardarían en caer en manos del ISIS o cualquier otro y servirían para aterrorizar a la población, para hacer limpiezas étnicas, para cualquier tipo de horror", advierte Walsh.

China está muy avanzada en inteligencia artificial, por primera vez en este congreso son líderes

La ciencia ficción no está tan lejos, aunque no sea exactamente como la imaginó Hollywood. "La gente piensa en Terminator, pero no hace falta llegar ahí. Robots mucho menos sofisticados, con un explosivo, un arma o un veneno, pueden ser mucho más dañinos. Y se pueden fabricar ya. En este congreso, si usted pregunta, la mayoría le dirá que en unos 50 años podríamos tener un Terminator. Por eso hay que pararlo ahora. Pueden ser comparables a la bomba atómica, con un problema añadido: para la bomba necesitas uranio enriquecido, no es nada fácil, se puede controlar. Un robot asesino es mucho más sencillo de programar, una vez que se invente, solo necesitas un buen hacker que sepa hacer el software o robarlo", se inquieta Walsh.

Lo más llamativo es que son precisamente los especialistas en inteligencia artificial los que quieren poner algunos límites. "Nosotros somos los más interesados en que la inteligencia artificial se utilice bien. Por eso, porque sabemos de sus enormes posibilidades para facilitar la vida a la gente, queremos prohibir los robots asesinos que toman decisiones de forma autónoma. Sabemos cómo programarlos para que maten pero no sabemos cómo introducir la ética en un robot. Esta es una tarea inmensa, que no podemos abordar solos los científicos", asegura el profesor australiano.

No sabemos cómo introducir la ética en un robot

No solo los robots asesinos generan preguntas difíciles. "Hay muchas decisiones éticas que tomar en los próximos años. Por ejemplo, los coches que conducen solos. Van a tener que tomar decisiones de vida o muerte, por ejemplo si les viene un coche en dirección contraria. Van a tener que decidir quién muere. Pero a la vez estamos comprobando que conducen mucho mejor, no tienen accidentes. Yo creo que nuestros hijos no van a conducir, llegará un momento en que la gente dirá que es un asunto demasiado delicado para dejarlo en manos de personas inexpertas. Pero hay que tomar esa decisión de dejar a las máquinas que elijan por sí solas", explica Walsh.

En cualquier caso, el experto australiano y sus colegas van a seguir investigando para avanzar en el desarrollo de la inteligencia artificial. "No podemos desinventar las cosas que ya hemos inventado. Tenemos que ir hacia delante. La tecnología ha favorecido el enorme bienestar que tenemos. El cambio que llega con la inteligencia artificial es similar al de la revolución industrial. La gente dejó la agricultura por la industria, el campo por la ciudad. Ahora, los robots están destruyendo miles de puestos de trabajo. Y va a ir a más. Pero se crearán nuevos trabajos. Y aquí la clave es la educación. Una persona con mucha formación es mucho más difícil de reemplazar por un robot que alguien que solo cumple tareas mecánicas", resume.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_