_
_
_
_
Ideas Retina

Facebook entrena a una inteligencia artificial capaz de resolver ecuaciones

Hasta ahora, las redes neuronales solo habían sido capaces de aprender a sumar y multiplicar. La nueva IA de Facebook también puede calcular integrales y resolver ecuaciones diferenciales en segundos. Según el MIT, "se trata de un avance impresionante"

A los algoritmos se les da bien sumar, restar y multiplicar números enteros, pero hacer operaciones matemáticas como las ecuaciones diferenciales o las integrales todavía es un reto para ellos. Al menos, para la mayoría de ellos. Los investigadores de Facebook AI Research en París (Francia) han conseguido desarrollar un algoritmo capaz de hacerlo en solo unos segundos. Por primera vez, han entrenado a una red neuronal para que sea capaz de hacer el razonamiento simbólico necesario para diferenciar e integrar las expresiones matemáticas. "Su trabajo supone un importante paso hacia un razonamiento matemático más potente y una nueva forma de aplicar las redes neuronales más allá de las tareas tradicionales de reconocimiento de patrones", asegura la publicación MIT Technology Review.

Más información
“Compañías de todo el mundo siguen usando tácticas como las que empleábamos en Cambridge Analytica”
Una nueva red social más adictiva que Facebook

Las redes neuronales son capaces de realizar de forma muy eficiente tareas diversas basándose en habilidades concretas como el reconocimiento de patrones, de rostros y objetos, el análisis de datos, ciertos tipos de procesamiento del lenguaje natural e incluso juegos como el ajedrez. Pero hasta ahora, nadie había sido capaz de entrenarlas para resolver problemas matemáticos complejos.

Una de mayores las dificultades con las matemáticas, tanto para humanos como para máquinas, son las abreviaturas que se usan. "Por ejemplo, la expresión x3 es una forma abreviada de escribir x multiplicado por x multiplicado por x. En este ejemplo, la multiplicación es la abreviatura de la suma repetida, que es en sí misma la abreviatura del valor total de dos cantidades juntas", explican en MIT Technology Review. Si las redes neuronales no entienden estas abreviaturas, hay pocas posibilidades de que aprendan a usarla. Lo mismo pasa con las personas.

Así que los investigadores Guillaume Lample y François Charton han ideado una forma simple de descomponer las abreviaturas matemáticas para que sean más comprensibles. Lo han hecho representando las expresiones como estructuras en forma de árbol. De esta manera, los datos pueden ser procesados por una red llamada Seq2seq. "Curiosamente, este enfoque a menudo se usa también para la traducción automática, donde una secuencia de palabras en un idioma tiene que traducirse a una secuencia de palabras en otro idioma". De hecho, Lample y Charton subrayan que su enfoque básicamente trata las matemáticas como un lenguaje natural.

La siguiente fase consistió en el proceso de entrenamiento. Los investigadores recopilaron una gran base de datos: 80 millones de ejemplos de ecuaciones diferenciales de primer y segundo grado y 20 millones de ejemplos de expresiones integradas. Al procesar este conjunto de datos, la red neuronal aprendió a calcular la derivación o integral de una expresión matemática dada. Al final, Lample y Charton pusieron a prueba su red neuronal con 5.000 expresiones que nunca antes había visto y compararon los resultados creados en 500 casos con los de los programas disponibles comercialmente, como Maple, Matlab y Mathematica.

Estos programas utilizan un algoritmo de 100 páginas solo para integración. En muchos casos, los programas convencionales no pueden encontrar ninguna solución, después de intentarlo durante 30 segundos. En comparación, la red neuronal tarda aproximadamente un segundo en encontrar sus soluciones. Charton detalla: "En todas las tareas, observamos que nuestro modelo supera significativamente a Mathematica. En la integración de funciones, nuestro modelo obtiene una precisión cercana al 100 %, mientras que Mathematica apenas alcanza el 85%".

"Hasta donde sabemos, ningún estudio ha investigado la capacidad de las redes neuronales para detectar patrones en las expresiones matemáticas", explica Charton. El resultado tiene un enorme potencial, según el MIT, aunque los investigadores no han revelado los planes de Facebook para este enfoque. "Pero no es difícil ver cómo podría ofrecer su propio servicio de álgebra simbólica que supere a los líderes actuales del mercado".

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_