_
_
_
_

Una supercomputadora para España

La máquina será una de las más potentes del mundo y servirá para investigar en biología, medicina o medio ambiente

La carrera por hacerse en España con la máquina de IBM empezó hace poco más de siete meses. La dirección del gigante informático estadounidense llevaba un tiempo con la idea fija de recuperar los puestos de privilegio en la carrera por tener el superordenador más rápido del mundo. Y para ocupar esa posición, que ahora ostenta la casa japonesa NEC con Earth Simulator, una máquina dotada de una velocidad máxima teórica cercana a los 41 teraflops (41 billones de operaciones matemáticas por segundo), ideó dos candidatos. El primero es Blue Gene, un verdadero monstruo informático del que se espera una velocidad máxima de mil billones de operaciones por segundo y una potencia de cálculo dos millones de veces superior que los PC's más potentes actuales. El segundo, sin nombre conocido por el momento, tiene previstas unas prestaciones más modestas, pero igualmente impresionantes: 40 teraflops de velocidad pico y una memoria en disco de 128 terabytes (128.000 gigas) que operan en la nada despreciable cantidad de 4.500 procesadores conectados en paralelo. Con estas características multiplica por diez el ordenador más potente instalado en Europa.

El 90% del tiempo de asignación de la máquina será para la comunidad científica
Más información
IBM creará un simulador para el Ejército de EE UU que contará con casi 3.000 microprocesadores

La Universidad Politécnica de Cataluña (UPC), de la mano de Mateo Valero, director del Departamento de Arquitectura de Computadores e impulsor en Barcelona del CIRI (Cepba-IBM Research Institute, centro de investigación conjunto de la UPC e IBM en supercomputación en paralelo), decidió optar a convertirse en sede de la nueva máquina en cuanto tuvo conocimiento de que IBM no consideraba un inconveniente que estuviera fuera de EE UU.

El equipo de Valero presentó su propuesta en diciembre. Y a finales de febrero, apenas tres meses después, el todavía presidente del gobierno, José María Aznar, anunció públicamente la llegada de la máquina a España. Barcelona, a partir del núcleo del CIRI, había salido finalmente ganador de una dura competencia internacional en la que figuraban una docena de candidatos entre europeos y estadounidenses.

La máquina, cuyas primeras piezas desembarcarán en la UPC en agosto, se articulará muy probablemente alrededor de lo que se ha dado en llamar Centro Nacional de Supercomputación, un equipamiento cuyo diseño aun no está formalizado pero que, a juicio de Valero, no debería entrar en colisión con otros centros existentes en España dotados ya de ordenadores muy potentes, aunque ninguno de ellos entra ahora mismo entre las 200 primeras plazas del Top 500. "El nuevo superordenador", explica el experto, "representa la oportunidad de dibujar una pirámide" en cuanto a niveles de prestación y realidades de investigación con herramientas de supercomputación. Se establecería así en un plano superior al que ocupan ahora el Cesga en Galicia, el Cesca en Cataluña o el Cica en Andalucía, todos ellos dedicados a este campo.

Sea cual sea la articulación final, lo cierto, señala Juan José Porta, responsable del área de Estrategia Tecnológica de IBM, con sede en Alemania, la llegada de la nueva máquina va a abrir "nuevas expectativas" para la investigación española. Y no preferentemente en arquitectura de computación o puesta a punto de programas informáticos destinados a superordenadores. El responsable de IBM cuantifica en un 90% el tiempo de asignación de la máquina para la comunidad científica, en especial, la dedicada a ciencias de la vida, medicina y medio ambiente. ¿Para hacer qué? "Cosas que no se han hecho nunca", responde.

Tras superar en noviembre el test Linpack, un complejo sistema de ecuaciones matemáticas que deben ejecutar todos los superordenadores para medir su velocidad pico, está previsto constituir un comité científico internacional externo cuya función fundamental va a ser seleccionar los proyectos de investigación que precisen gran capacidad de cálculo, indica Francesc Subirada, director adjunto del CIRI. Pero no para hacer más rápido lo que ya se hace, tercia Porta, sino para hacer "ciencia nueva".

Hoy por hoy, los proyectos reales que se van a desarrollar son una incógnita, pero abundan los ejemplos y las intenciones que se esconden detrás de ellos. "En ingeniería o en física ya están descritos la mayor parte de los modelos necesarios para simular un avión o una gran estructura civil", explica José María Cela, investigador del centro. No ocurre igual con los sistemas vivos. "Hoy es imposible situar con precisión los más de 10.000 átomos que forman una proteína". Simular su comportamiento ante la acción de un fármaco sólo lleva a aproximaciones. Tampoco puede simularse con exactitud una célula entera, con todas sus interacciones, uno de los grandes sueños de la biología, ni tampoco predecir el plegamiento o la estructura en tres dimensiones de proteínas o las reacciones bioquímicas que se dan en un organismo, ambos aspectos clave en biomedicina. Del mismo modo, añade Cela con ironía, hacer predicciones meteorológicas más allá de los tres días es como "echar las cartas del Tarot". El sueño sería lanzar predicciones "a dos meses vista".

En medicina el objetivo es simular en tiempo real una intervención quirúrgica compleja, lo que requiere una gran capacidad de procesamiento gráfico o entender procesos patológicos como el comportamiento de una célula cancerosa, el desarrollo de una infección o el impacto de una vía metabólica. En este mismo plano se situarían la extensión de una infección a partir de un punto dado, el desarrollo de un incendio forestal o la dispersión de contaminantes atmosféricos.

"Hacer algo más rápido es importante pero no es interesante científicamente", insiste Porta en relación al uso del nuevo superordenador de IBM. "La tendencia actual es explorar nuevas fronteras para resolver informáticamente aquello que sólo se ha visto en vivo o en el tubo de ensayo". Hacerlo posible depende, además de la velocidad y capacidad de cálculo, de disponer de las herramientas informáticas, en especial de software adecuado a cada caso, y de escribir ecuaciones matemáticas que definan con precisión el comportamiento celular, procesos y mecanismos bioquímicos y biotecnológicos o el fenómeno de las turbulencias, de enorme complejidad física.

Mateo Valero, en la Universidad Politécnica de Cataluña.
Mateo Valero, en la Universidad Politécnica de Cataluña.SUSANNA SÁEZ

Altísimas prestaciones

El nuevo superordenador que va a instalar IBM en Barcelona, pese a ser una máquina singular, se aparta conceptualmente del modelo seguido hasta la fecha para el diseño de estas potentes herramientas. El objetivo de la compañía estadounidense, explica Mateo Valero, no es ser un fórmula 1 sino un automóvil de altísimas prestaciones que pueda adquirirse en el mercado y adaptarse a las necesidades de cada comprador. Esta intención es la que explica alguna de sus peculiares características, como su reducido tamaño (la máquina ocupará unos 120 metros cuadrados, muy lejos de los 3.200 del Earth Simulator), o su bajo consumo energético (ocho veces menor que la máquina japonesa, de NEC).

Pero hay más. Todos los componentes que le dan forma pueden adquirirse hoy día en el mercado. De la misma forma, tanto la programación necesaria para su funcionamiento como el sistema operativo (se basará en Linux en código abierto) y alguna de las aplicaciones previstas, están al libre alcance de la comunidad científica y de expertos en supercomputación.

La disposición de los 4.500 procesadores en paralelo está previsto que permita una cierta escalabilidad, algo así como abrir la puerta a la fragmentación del superordenador o a su ampliación de acuerdo con necesidades específicas. De acuerdo con estas características, que permiten una "enorme reducción de costes", según Francesc Subirada, el destinatario final de máquinas construidas a partir del modelo de Barcelona, podría ampliarse a centros de investigación, bancos, empresas o instituciones que manejan grandes bases de datos o incluso centros sanitarios que implanten servicios de telemedicina.

Antes de eso, dice Valero, el CIRI o el futuro Centro Nacional de Supercomputación pueden jugar un papel clave, no sólo por la posibilidad de prever experimentos complejos, sino también por su contribución a la arquitectura y a las prestaciones de la nueva generación de superordenadores.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_