Lo clásico derrota a lo cuántico: dos equipos superan con computación convencional el logro de IBM con 127 cúbits
Trabajos con sistemas “computacionales modestos” alcanzan resultados equivalentes tan solo semanas después del hito publicado en ‘Nature’
Hay récords que permanecen décadas imbatidos y otros que tan solo duran segundos, como el de la atleta de heptatlón Adrianna Sulek, que solo disfrutó de su marca mundial 6,43 segundos. En la informal competición entre la computación clásica y cuántica también sucede. El pasado 14 de junio, una investigación publicada en Nature asegu...
Hay récords que permanecen décadas imbatidos y otros que tan solo duran segundos, como el de la atleta de heptatlón Adrianna Sulek, que solo disfrutó de su marca mundial 6,43 segundos. En la informal competición entre la computación clásica y cuántica también sucede. El pasado 14 de junio, una investigación publicada en Nature aseguraba haber conseguido con 127 cúbits, capacidad ya presente en los ordenadores cuánticos comerciales, resultados imposibles en la computación clásica. Solo dos semanas después, sendos trabajos de Caltech y de la Universidad de Nueva York reivindicaron haber logrado resoluciones más precisas con computación clásica. “Esta pugna entre lo clásico y lo cuántico es muy enriquecedora”, comenta David Pérez García, investigador del Instituto de Ciencias Matemáticas (Icmat) y catedrático de la Universidad Complutense de Madrid.
Youngseok Kim, Andrew Eddins y Abhinav Kadala, investigadores de IBM, junto a otros autores, afirmaron en Nature haber evidenciado que un procesador cuántico y un procesamiento posterior al análisis pueden generar, manipular y medir de manera confiable estados cuánticos tan complejos que sus propiedades no podrían estimarse de forma precisa mediante aproximaciones convencionales.
“Ninguna computadora clásica tiene suficiente memoria para codificar las posibilidades calculadas por los 127 cúbits”, afirmaron los autores. Göran Wendin y Jonas Bylander, investigadores de la Universidad de Tecnología de Chalmers (Suecia), lo respaldaron: “La ventaja cuántica fundamental aquí es la escala en lugar de la rapidez: los 127 cúbits codifican un problema para el cual ninguna computadora clásica tiene suficiente memoria”.
“Recursos modestos”
Sin embargo, este récord solo supuso un acicate para intentar batirlo. Investigadores del Flatiron Institute Center de física cuántica computacional aceptaron el desafío y, en solo 12 días, publicaron una investigación con una “simulación clásica, precisa y eficiente en memoria y tiempo”, del sistema difundido en Nature. “Al adoptar un enfoque de red tensorial, podemos realizar una simulación clásica que es significativamente más precisa que los resultados obtenidos por el dispositivo cuántico”, aseguran los autores, quienes destacan que se ha hecho con “recursos computacionales modestos”.
Tan solo dos días después, investigadores de Caltech (Instituto de Tecnología de California) mostraban otro trabajo en el que “un algoritmo clásico basado en la dinámica dispersa de Pauli puede simular eficientemente los circuitos cuánticos estudiados en el experimento reciente con los 127 cúbits del procesador Eagle de IBM”.
Los investigadores hacen referencia al artículo publicado solo dos días antes para afirmar: “El hecho de que ambos enfoques clásicos tengan éxito ilustra el rico panorama de algoritmos clásicos aproximados que aún no se han explorado. Creemos que el método que describimos aquí es prometedor no solo para las simulaciones de circuitos cuánticos, sino también para problemas de simulación más generales en dinámica cuántica”.
Todas son buenas
El profesor e investigador David Pérez García, experto en redes de tensores (la estrategia desarrollada en el primero de los trabajos alternativos al de ventaja cuántica), considera “sorprendentes” las tres investigaciones: “Son espectaculares. Que diferentes técnicas reproduzcan los resultados del experimento da hasta más valor. Los resultados son buenos. No son ruido”.
Lo que sí contradicen los trabajos alternativos al publicado en Nature es la conclusión de que es imposible alcanzar los mismos resultados con otras formas de computación. “Demuestran que el experimento [de IBM] no está en el punto de afirmar que no es simulable con ningún método clásico”, zanja Pérez García.
“Pero no creo que la ventaja cuántica fuera era el objetivo principal, sino que se pueden obtener resultados buenos en sistemas grandes, complejos, sin tener que pasar a corrección de errores, que es el sueño ideal de la computación cuántica. Hay un término medio que es la mitigación de errores y que puede aportar resultados muy interesantes”, añade el investigador español.
Las técnicas utilizadas se desarrollaron para simular el comportamiento de sistemas cuánticos con ordenadores clásicos. “La propia simulación muestra que estas ideas que están usando son interesantes y se pueden usar para otro tipo de problemas. El campo es muy dinámico. Las dificultades estar ahí y, aunque todavía no se pueden lanzar las campanas al vuelo para decir que esta tecnología ya es una realidad, sí que se observan avances muy prometedores”, resalta Pérez García.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.