Máquinas que piensan y deciden
El 26 de septiembre de 1983, los sistemas de defensa de la Unión Soviética alertaron de un ataque con misiles transoceánicos procedente de Estados Unidos. Al constatar que eran solo cinco misiles, el teniente coronel Stanislav Petrov estimó que debía tratarse de un error –“nadie inicia una guerra nuclear con solo cinco misiles”, dijo después– y decidió no activar el protocolo de defensa que habría significado un apocalipsis atómico de dimensiones planetarias. ¿Qué hubiera pasado si, en vez de Petrov, el encargado de tomar la decisión hubiera sido un ordenador?
La inteligencia artificial avanza a pasos acelerados, y con ella los dilemas derivados de dejar que las máquinas decidan por nosotros. Y no solo en el terreno militar. El tema de los coches que se conducen solos suscita hoy grandes controversias. ¿Es lícito que sea el propio coche el que decida lanzar a sus ocupantes por un barranco si con ello salva la vida a los escolares que en ese momento cruzaban la carretera? ¿Qué significa exactamente que una máquina decida?
Una máquina solo decide aquello para lo que ha sido programada, explica Ramón López de Mántaras, director del Instituto de Inteligencia Artificial del Consejo Superior de Investigaciones Científicas. Si ha sido programada para jugar al ajedrez lo hace, y lo hace bien, pero no tiene la menor idea de que está jugando.
Cuando hablamos de aprendizaje de una máquina hablamos de programas que permiten a una máquina incorporar datos no incluidos en el momento de la programación.
Por ejemplo, dos coches autónomos que salen de fábrica con el mismo software –uno que, entre otras cosas, les permite distinguir entre una persona y un árbol– pueden incorporar datos nuevos acerca de los objetos con los que se van encontrando –distintos tipos de persona y distintos tipos de árbol–. Si a partir de este aprendizaje, y en una situación concreta, uno de los coches es capaz de reconocer a una persona y el otro no, pueden llegar a tomar decisiones diferentes. Pero siempre según la tarea para la que fueron programados. Lo que una máquina no puede hacer es contextualizar. No tiene pensamiento consciente y por tanto no puede hacer lo que hizo el coronel Petrov, ya que él utilizó su sentido común. Se está investigando en cómo dotar a una máquina de sentido común, pero estamos a años luz de alcanzar algún resultado.
¿Resulta conveniente pensar en dotar a una máquina de total autonomía en según qué campos? A día de hoy, explica López de Mántaras, cuando vemos en las noticias que un dron ha matado a un terrorista, suele haber una persona detrás que tomó la –controvertida– decisión. Hay programas que detectan comportamientos amenazantes, como el de un hombre por la calle con un fusil, pero aún no se utilizan porque se equivocan mucho. ¿Qué pasa si se tratara de un niño con un rifle de juguete?
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.