Aprendizaje profundo o el peligro de no saber cómo piensa una máquina
La IA ha evolucionado desde su creación. Repasamos la forma que ha ido adoptando
El concepto inteligencia artificial ha experimentado una resurrección en el último lustro, pero lleva con nosotros desde la década de los 50. A pesar de esta larga convivencia (o quizás por ella), hay gente que dice que es ciencia ficción, el futuro o que forma parte de nuestra vida diaria. En realidad, es un concepto que se usa para abarcar muchos territorios distintos, como explica el periodista y empresario Michael Copeland, ex editor de la revista Wired.
Así, se le llama inteligencia artificial a la máquina capaz de saber cuándo un correo es spam, de ganar a un ajedrecista como Garry Kasparov o al jugador de Gi Lee Se-dol, a los programas capaces de reconocer a tu abuela en una foto, a los que permiten la conducción autónoma o al asistente que tienes en tu smartphone. La inteligencia está evolucionando tanto y tan rápido, que la sociedad puede encontrarse con un problema: depender de las máquinas para tomar decisiones cruciales y, sin embargo, no ser capaces de entender el razonamiento que los llevó a ellas.
Sir Martin Rees, por ejemplo, lleva tiempo demandando acción inmediata para prevenir las consecuencias oscuras de nuestro desarrollo científico y tecnológico. “¿Va a ser este siglo el último de nuestra existencia?, se preguntó recientemente en una charla Ted.
El punto de partida debería ser, quizás, estar seguros a qué nos referimos con inteligencia artificial (artificial intelligence), aprendizaje automático (machine learning) y aprendizaje profundo (deep learning).
- Inteligencia artificial
- Inteligencia artificial
En la década de los 50, el sueño de aquellos pioneros era construir máquinas que tuviesen nuestros sentidos y capacidad de raciocinio. Es lo que se ha dado en llamar IA fuerte o inteligencia general artificial. Hasta ahora solo se ha conseguido en la ficción, por ejemplo con C3PO, HAL 9000, el agente Smith o Terminator.
También existe la inteligencia artificial débil o estrecha, que es la que se centra en un tipo específico de problema. Podemos llamarla estrecha o débil, pero esa tarea concreta pueden hacerla mejor que nosotros, ya sea jugar al ajedrez, o buscar nombres que comiencen en y.
¿De dónde proviene esta creciente inteligencia? En un principio de lo que llamamos aprendizaje automático.
- Aprendizaje automático
Es un campo que se deriva de la inteligencia artificial. Básicamente, consiste en desarrollar procesos que permitan a las máquinas aprender por sí solas a partir de un conjunto de datos que un instructor va introduciendo trabajosamente primero y corrigiendo manualmente después. En este proceso, el ordenador extrae conocimiento a través de experiencia supervisada. Hacemos hincapié en lo de supervisada: el aprendizaje profundo no se suele considerar una verdadera inteligencia, dado que se apoya en las pautas concedidas por los humanos para tomar sus decisiones.
Los procedimientos para lograr este aprendizaje han sido variados: métodos de regresión (redes bayesianas o árboles de decisión) módulos de clasificación (regresión logística, por ejemplo) y por agrupación (clustering).
Una de las mejores aplicaciones del aprendizaje profundo ha sido la visión artificial, que permite que, mediante código, las máquinas son capaces de detectar curvas, lados, colores, letras y puedan determinar si es una señal de stop o un escaparate después de aprendérselas de memoria. Pero este procedimiento es defectuoso: ¿qué pasa si está oscuro, si no se ve bien la señal, o si la letra es de un tipo nuevo que se ha inventado el último diseñador escandinavo? Esto nos lleva al siguiente punto.
Aprendizaje profundo
El verdadero salto cualitativo lo se produce con el llamado deep learning o aprendizaje profundo. Este se basa en redes neuronales, un concepto que data de los años 40 y 50 y que ha vuelto a resurgir con fuerza gracias, de nuevo, al desarrollo de la computación. Se pasa de la lógica lineal y se abandonan las instrucciones del estilo si algo es falso, entonces haz esto. El aprendizaje automático supone un paso exponencial hacia delante: permite que la máquina aprenda sola.
Los líderes de la IA
Los grandes nombres en esto del deep learning son IBM, Google y Facebook y, quizás, Nvidia. La primera, pionera desde los primeros pasos de la IA, saltó a los medios a principios de la década ganando un concurso con su ordenador Watson, uno de los ejemplos más claros de deep learning. Google es, cómo no, una de las principales puntas de lanza del aprendizaje profundo, sobre todo tras el fichaje en 2012 de Raymond Kurzweil. Por ejemplo, un equipo de Google Brain, el proyecto de aprendizaje profundo de la empresa del buscador, ha sido capaz de enseñarle a sus máquinas a crear su propio cifrado sin necesidad de intervención humana. Para ello, han necesitado tres redes neuronales.
Una red neuronal artificial consiste, de esta manera, en un sistema de programas y estructuras de datos que trata de funcionar como un cerebro humano, en el que las neuronas trabajan en paralelo para lograr un objetivo común. Todas estas redes se alimentan de datos de una memoria local. De una forma muy simple, una red neuronal artificial cuenta con capas anidadas compuestas por nodos interconectados, que se reacomodan después de cada nueva experiencia.
Las distintas capas permiten al sistema reconocer las cosas en distintos niveles de abstracción. Imaginemos que el sistema tiene delante un perro. Las capas inferiores se dedicarán a reconocer cosas sencillas como las formas básicas, o el color. Las superiores, por su parte, se dedicarán más bien a cosas más complejas como el pelo, los ojos. Las de más arriba, por último, serán las que sumen todos los datos y le hagan llegar a la conclusión de que el objeto en cuestión es un perro. Este es el modelo de trabajar que se aplica en otros procesos y es lo que permite a la máquina enseñarse a sí misma. Los sonidos que forman una palabra o los movimientos de volante que hacen fata para conducir un coche.
Estas capas permiten mejorar aspectos como el procesamiento del lenguaje natural por parte de las máquinas, la traducción automática o puede participar decisivamente en el desarrollo de coches sin conductor. También se usa para la detección temprana de enfermedades en clinicas como Monte Sinaí.
Y aquí viene algo que puede constituir un problema, si no es que lo constituye ya: El aprendizaje profundo puede hacer ganar millones con inversiones financieras, detectar enfermedades o mil cosas más que cambien todas las industrias. Pero va a llegar el momento (o, más bien, ha llegado el momento) en que lo hagan sin que los humanos seamos capaces de comprender sus razonamientos. Si todo va bien, no hay problema. La cuestión es: ¿qué pasa si algo sale mal?
“Podemos construir los modelos que nos permiten esta detección, aseguró recientemente Joel Dudley, el responsable de este programa al MIT Technology Review. “Pero no sabemos cómo funcionan”. Dudley se une a voces como la antes citada de Sir Martin Rees o la del mismísimo Stephen Hawking, que cree que la AI puede ser "o lo mejor o lo peor para la humanidad".
Google ha puesto en marcha algunos experimentos que han tratado de demostrar qué es lo que ocurre mientras trabaja una de esas redes neuronales. Uno de ellos es el famoso Deep Dream. Lo que hicieron los ingenieros de la compañía fue hacerlo funcionar marcha atrás, lo que les permitió comprobar los trucos que la máquina usaba para reconocer un coche o un edificio. Cierto, las imágenes que ofrecía eran grotescas o dignas de una letra de John Lennon en 1967. Pero también dieron a entender que sus procesos no son del todo inescrutables.
La cuestión es que para comprender cómo funcionan estos sistemas avanzados de inteligencia artificial hace falta mucho más. Una simple red neuronal puede ser fácilmente comprensible para una persona preparada. Pero las grandes operaciones, las que hacen falta para conducir un coche de forma autónoma o para diagnosticar un cáncer de páncreas, requieren muchas capas y miles de nodos. Algo que puede ser inalcanzable, incluso para sus creadores.
“La inteligencia artificial no es solo un accesorio guay o una cosita ingeniosa: es el último invento que el ser humano va a tener que hacer”, aseguró el filósofo Nick Bostrom en 2016 al diario Financial Times. “Ante el escenario de una explosión de la inteligencia, los humano somos como niños pequeños jugando con una bomba. Así es el desequilibrio entre el poder de nuestro juguete y la inmadurez de nuestra conducta”, sentencia en su libro Superintelligence: Paths, Dangers, Strategies.
Entender cómo piensa la inteligencia artificial no tiene por qué ser necesario para grandes objetivos. Nuestro día a día puede verse afectado. Por ejemplo, cuando llegue el momento de que Siri nos recomiende un restaurante, puede ser interesante saber qué es lo que le ha movido a hacerte esa recomendación. O eso, o tener fe en que tu asistente te va a proporcionar la felicidad. O No usarla, directamente.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.