_
_
_
_

El gran botón rojo que puede parar la inteligencia artificial

Deep Mind, una start-up de Google, ha desarrollado un mecanismo que puede interrumpir toda la inteligencia de sus sistemas en caso de emergencia

Beatriz Guillén
La inteligencia artificial es una de las apuestas de las grandes compañías.
La inteligencia artificial es una de las apuestas de las grandes compañías. GETTY

Llegará un momento en el que las máquinas superarán la inteligencia de los humanos y estos deberán contar con un sistema de prevención para poder interrumpirlas. No es otro guión de película de ciencia ficción, sino la hipótesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad (FHI, por sus siglas en inglés) de la Universidad de Oxford. Ambas empresas han desarrollado de forma conjunta un “gran botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o para ellas mismas y poder “guiarlas a una situación segura”.

Los desarrolladores se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones

“Es improbable que los agentes de aprendizaje que interaccionan con un ambiente tan complejo como el mundo real se comporten de manera óptima todo el tiempo”, reconocen los autores del estudio Agentes que se pueden interrumpir de manera segura. Los investigadores sostienen que han creado un “marco de trabajo que permite al operador humano interrumpir de forma segura (e incluso de forma repetida)” determinados tipos de inteligencia artificial. Además, se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones. 

“Esta forma de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y que puede llevar a consecuencias irreversibles; también para que supere una situación delicada o realice una tarea para la que no había aprendido a comportarse”, reflexionan los autores del estudio. "Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles", admiten.

"Este tipo de medidas sirven para ayudar a que la gente acepte a la inteligencia artificial porque tenga claro que siempre va a estar controlada

La investigación hace referencia a un tipo muy específico de inteligencia artificial conocida como de aprendizaje reforzado, que combina variables para determinar de forma automática —sin necesidad de un ajuste específico— su comportamiento "ideal". "Es un tipo de inteligencia artificial que ha despegado muy fuerte, porque es más sencillo desarrollarla. Lo que hace el robot es maximizar una especie de función matemática, pero no entiende los conceptos sobre los que trabaja. Como solo entiende fórmulas puede ser posible que exista el problema potencial de que decida ignorar o dañar a los humanos que la han programado, pero es algo improbable", explica Juan Antonio Recio, director del departamento de Ingeniería de Software e Inteligencia Artificial de la Universidad Complutense de Madrid. 

Sin embargo, Recio sostiene que este problema no ocurriría con otro tipo de inteligencias que en vez de entender formulas, comprendieran conceptos como humano, como es la inteligencia simbólica. "De cualquier forma, este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar a que la gente acepte a esa inteligencia artificial porque tenga claro que siempre va a estar controlada, que nunca se va a ir de las manos", considera este experto. 

Desarrollo de una 'superinteligencia'

Este tipo de reflexiones no son nuevas en el sector de inteligencia artificial. El director del Instituto para el Futuro de la Humanidad, Nick Bostrom, ya describía como escenario posible en su libro Superinteligencia: caminos, peligros, estrategias cómo las máquinas iban a superar a sus programadores, iban a ser tan inteligentes y capaces de mejorarse a sí mismas e iban a tomar el planeta. "Debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico", sostenía en una entrevista con este diario.

“Algunas personas han expresado sus preocupaciones sobre un agente superinteligente que se resista a ser apagado”, decían los autores en su estudio, aunque sin atreverse a especificar cuando podría ocurrir algo así. Otros expertos en inteligencia artificial que Bostrom cita en su libro afirman que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Beatriz Guillén
Reportera de EL PAÍS en México. Cubre temas sociales, con especial atención en derechos humanos, justicia, migración y violencia contra las mujeres. Graduada en Periodismo por la Universidad de Valencia y Máster de Periodismo en EL PAÍS.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_