Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

La máquina que hablaba a los usuarios

El último avance de la inteligencia artificial de Google habla con la respiración, la melodía y la incertidumbre de un conversador humano. Y hasta compone canciones sin cobrar derechos de autor

Una multitud saca fotos durante un mitin, en abril, en Rochester, Nueva York.

Se acabaron los tiempos de “el número que ha marcado no existe”, del “si llama para pagar sus recibos pulse uno”, del “prepárese para seguir 20 kilómetros por la carretera” y de otros epítomes del habla robótica que colonizan nuestro paisaje acústico y asustan a los niños. Las máquinas del futuro inmediato no nos van a hablar así, sino interrumpiendo con su respiración las frases igual que lo hacemos nosotros, entonando su melodía de acuerdo con el significado, representando la duda con vacilaciones silábicas y ruidos agramaticales. Las nuevas voces robóticas que ha desarrollado la rama de inteligencia artificial de Google (DeepMind, o WaveNet, según la creciente complicación taxonómica del gigante empresarial) suenan como nosotros cuando hablamos, como puedes leer en Materia. El usuario del teléfono, el ordenador o el GPS del coche sería incapaz, en una prueba a ciegas, de distinguir la voz del robot de la de una persona.

Todavía no saben pensar, pero sí saben ya imitar la voz humana hasta hacer creer al usuario que está hablando con una persona

El milagro se debe a la tecnología computacional que ha revolucionado el campo de la inteligencia artificial en los últimos años. Se llama Deep learning, o aprendizaje profundo. El deep de Google DeepMind viene de ahí, y quizá sea una exageración filosófica (sugiere un pensamiento profundo, y no es eso, al menos de momento), pero también es una realidad tecnológica. Las redes neurales (programas inspirados en las neuronas biológicas) del deep learning se organizan en decenas o cientos de capas de abstracción progresiva, como nuestro cerebro, y deben a esa arquitectura su modelo interior del mundo, también como nuestro cerebro. Todavía no saben pensar, pero sí saben ya imitar la voz humana hasta hacer creer al usuario que está hablando con una persona.

Es una versión sonora del test de Turing. El matemático británico que concibió la inteligencia artificial, además de descifrar los códigos de los submarinos nazis, propuso que las máquinas alcanzarían la inteligencia cuando se hicieran pasar por un ser humano. Por supuesto, los generadores de voz de Google DeepMind no pasarían el test de Turing: no imitan el pensamiento humano, sino la forma de hablar. Hay mucha gente que cree que las máquinas nunca podrán pensar como nosotros. Si yo tuviera dinero no lo pondría en esa casilla, pero cada cual es libre de arruinarse como prefiera.

*LA CIENCIA DE LA SEMANA es un espacio en el que Javier Sampedro analiza la actualidad científica. Suscríbete a la newsletter de Materia y lo recibirás cada sábado en tu correo, junto con una selección de nuestras mejores noticias de la semana.

Más información