_
_
_
_

Las mentes humanas detrás de las mentes artificiales

El premio Princesa de Asturias de Investigación Científica de 2022 reconoce contribuciones fundamentales al aprendizaje profundo, la principal herramienta que hace que las máquinas piensen

La contribución de la inteligencia artificial a muchos de los avances y retos tecnológicos y científicos alcanzados en los últimos años se encuentra detrás del reconocimiento que han recibido Geoffrey Hinton, Yann LeCun, Yoshua Bengio y Demis Hassabis.
La contribución de la inteligencia artificial a muchos de los avances y retos tecnológicos y científicos alcanzados en los últimos años se encuentra detrás del reconocimiento que han recibido Geoffrey Hinton, Yann LeCun, Yoshua Bengio y Demis Hassabis.

En el último siglo, la comunidad científica ha conjeturado sobre la posibilidad de construir máquinas capaces de desempeñar tareas inteligentes, hasta ahora, reservadas a los seres humanos. Aunque, de momento, no estamos cerca de alcanzar algo parecido a la llamada inteligencia artificial general, el uso de las conocidas como inteligencias artificiales débiles o estrechas (NAI, por sus siglas en inglés) sí es muy habitual en redes sociales, sistemas de reconocimiento facial y análisis de lenguaje natural, por ejemplo. El premio Princesa de Asturias de Investigación Científica y Técnica reconoce este año a algunos de los artífices de la formulación y desarrollo de los algoritmos que hacen posible este tipo de inteligencia.

Las NAI son algoritmos especializados en ciertas tareas en las que pueden alcanzan rendimientos muy superiores a los de los seres humanos. No obstante, son incapaces de desempeñar labores distintas de aquellas para las que fueron ideados y entrenados. Actualmente, las NAI desarrollan tareas que eran intratables para las máquinas hasta hace apenas veinte años. Entre ellas están tanto el reconocimiento de imágenes como el procesamiento del lenguaje natural.

Este hito fue posible gracias a la aparición de las redes neuronales. Formuladas originalmente en los años 1940, no fue hasta la década de 1980 cuando comenzaron a mostrar su gran potencial. Hoy en día, el término redes neuronales designa una familia de algoritmos con una alta capacidad de adaptación y rendimiento, basada en su formulación matemática y también en el increíble aumento de la capacidad computacional experimentado desde su formulación. Estos algoritmos nacieron con inspiración biológica: su pretensión era emular el cerebro humano. Su estructura más fundamental la conforman neuronas artificiales que juegan un papel análogo a las neuronas en los sistemas nerviosos reales. Estas unidades sencillas se disponen en paralelo, formando capas de procesamiento. El aprendizaje en redes neuronales consiste en construir un sistema con varias de estas capas apiladas y entrenar cada neurona individualmente.

El número de capas del sistema define la profundidad de la red y, solo cuando contamos con dos o más de estas, se usa el término aprendizaje profundo o deep learning. Este tipo de redes profundas pueden ser empleadas para realizar, aún con más precisión que con las redes de una capa, diversos tipos de tareas y fuentes de datos: desde análisis y comprensión de textos, a encontrar elementos en una imagen y describir la escena en una fotografía, e incluso sugerir nueva música basada en nuestras preferencias.

El trabajo de Geoffrey Hinton, Yann Lecun, Yoshua Bengio, considerados popularmente como los padres del deep learning, así como Demis Hassabis —CEO y uno de los fundadores de DeepMind, compañía artífice de algunos de los hitos más importantes en inteligencia artificial—, ha sido crucial en el desarrollo de las capacidades de las redes neuronales profundas y en nuestro entendimiento actual sobre ellas.

Hinton, Lecun y Bengio, emplearon la idea de retropropagación (backpropagation) para expandir la formulación matemática original de las redes neuronales y permitir el entrenamiento de redes con más de una capa. Hinton introdujo este concepto en 1986, permitiendo por vez primera que redes neuronales profundas realizasen adecuadamente una tarea a partir de un conjunto de datos. Estas técnicas hacen que las redes se corrijan a sí mismas, haciendo que grupos de neuronas aprendan a reconocer las características relevantes de los datos de entrada, combinando un diseño a medida para cada tarea con una serie de principios comunes para el entrenamiento. Esto les permite explotar características intrínsecas de los datos y realizar tareas concretas con alta precisión. Además, pueden ser confeccionadas para que presten atención a la disposición espacial de los datos —como los píxeles en una imagen—, así como modelos que tienen en cuenta la sucesión temporal de los mismos —como el sentido que otorga el orden de las palabras en una frase—.

Por su parte, Demis Hassabis es una de las figuras modernas más influyentes en la investigación en inteligencia artificial. Entre otros hitos, su empresa, DeepMind, es artífice de AlphaGo —una inteligencia artificial capaz de batir a los campeones humanos en Go—, de AlphaFold —un algoritmo que en su última versión permite predecir la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos—, o Gato —un agente generalista que, gracias a la potencia de su formulación, es capaz de realizar más de 600 tareas diferentes, incluyendo charlar con usuarios, jugar a juegos, describir imágenes y manipular brazos robóticos—. Este último, aún lejos de ser un agente verdaderamente inteligente, supone un avance prometedor en la dirección del santo grial de la inteligencia artificial general.

Aunque es difícil predecir si finalmente DeepMind, o cualquier otra empresa o centro de investigación, conseguirá crear inteligencias artificiales generales, el impacto de todas estas técnicas ha sido enorme en los últimos 20 años y, sin duda, será aún mayor en el futuro inmediato. En concreto, las contribuciones de estos cuatro científicos al campo de la inteligencia artificial han sido y serán cruciales en la configuración de las sociedades industriales modernas y también en el enfrentamiento de algunos de los grandes problemas del siglo XXI, como el cambio climático.

Simón Rodríguez es investigador postdoctoral en el ICMAT.

Ágata Timón G Longoria es coordinadora de la Unidad de Cultura Matemática del ICMAT.

Café y Teoremas es una sección dedicada a las matemáticas y al entorno en el que se crean, coordinado por el Instituto de Ciencias Matemáticas (ICMAT), en la que los investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: “Un matemático es una máquina que transforma café en teoremas”.

Edición y coordinación: Ágata A. Timón G Longoria (ICMAT).

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_