Componentes

Inside Tsubame: la supercomputadora Nvidia GPU

Condor Supercomputer, The Air Force Research Laboratory

Condor Supercomputer, The Air Force Research Laboratory
Anonim

Cuando ingresa a la sala de computadoras en el segundo piso del edificio de informática del Instituto Tecnológico de Tokio, no se sorprende inmediatamente con el tamaño del segundo supercomputador más rápido de Japón. No puede ver la computadora Tsubame para las unidades de aire acondicionado industrial que están en su camino, pero esto en sí mismo es revelador. Con más de 30,000 núcleos de procesamiento zumbando, la máquina consume un megavatio de potencia y necesita mantenerse fría.

Tsubame ocupó el puesto 29 como el supercomputador más rápido del mundo en el ranking Top 500 con una velocidad de 77.48T Flops (operaciones de coma flotante por segundo) en el estándar de referencia de Linpack.

Si bien su posición es relativamente buena, eso no es lo que lo hace tan especial. Lo interesante de Tsubame es que no depende únicamente de la potencia de procesamiento en bruto de las CPU (unidades de procesamiento central) para realizar su trabajo. Tsubame incluye cientos de procesadores gráficos del mismo tipo utilizados en PCs de consumo, trabajando junto con CPUs en un entorno mixto que algunos dicen que es un modelo para futuras supercomputadoras que sirven disciplinas como química de materiales.

[Más información: las mejores cajas NAS para transmisión multimedia y copia de seguridad]

Los procesadores gráficos (GPU) son muy buenos para realizar rápidamente el mismo cálculo en grandes cantidades de datos, por lo que pueden resolver algunos problemas en áreas como dinámica molecular, simulaciones físicas y procesamiento de imágenes.

"Creo que en la gran mayoría de los problemas interesantes en el futuro, los problemas que afectan a la humanidad donde el impacto proviene de la naturaleza … requieren la capacidad de manipular y computar en un conjunto de datos muy grande", dijo Jen-Hsun Huang, CEO de Nvidia, quien habló en la universidad esta semana. Tsubame usa 680 de las tarjetas gráficas Tesla de Nvidia.

¿Cuánta diferencia hacen las GPU? Takayuki Aoki, profesor de química de materiales en la universidad, dijo que las simulaciones que solían tomar tres meses ahora demoran 10 horas en Tsubame.

Tsubame en sí, una vez que pasas los acondicionadores de aire, se divide en varias habitaciones en dos pisos del edificio y está compuesto principalmente por sistemas Sun x4600 montados en bastidor. Hay 655 de estos en total, cada uno de los cuales tiene 16 núcleos de CPU AMD Opteron en su interior y tarjetas aceleradoras Clearspeed CSX600.

Los chips gráficos están contenidos en 170 unidades de montaje en rack Nvidia Tesla S1070 que se han colocado entre el Sistemas solares. Cada uno de los sistemas 1U Nvidia tiene cuatro GPU en su interior, cada uno de los cuales tiene 240 núcleos de procesamiento para un total de 960 núcleos por sistema.

Los sistemas Tesla se agregaron a Tsubame en el transcurso de una semana mientras la computadora estaba funcionando.

"La gente creía que estábamos locos", dijo Satoshi Matsuoka, director del Centro Global de Información Científica e Informática de la universidad. "Esta es una supercomputadora de mil millones de yenes (11 millones de dólares) que consume un megavatio de potencia, pero demostramos técnicamente que era posible".

El resultado es lo que el personal universitario llama la versión 1.2 del supercomputador Tsubame.

Creo que deberíamos haber logrado 85 [T Flops], pero nos quedamos sin tiempo, así que fue 77 [T Flops] ", dijo Matsuoka sobre los puntos de referencia realizados en el sistema. En 85T Flops habría subido un par de lugares en el Top 500 y se clasificó más rápido en Japón.

Siempre hay la próxima vez: una nueva lista de los Top 500 se publicará en junio de 2009, y el Instituto de Tecnología de Tokio también está buscando más adelante.

"Este no es el final de Tsubame, es solo el comienzo de que la aceleración de la GPU se convierta en la corriente principal", dijo Matsuoka. "Creemos que en el mundo habrá supercomputadoras registrando varios petaflops en los próximos años, y nos gustaría seguir su ejemplo".

Tsubame 2.0, como denominó la próxima actualización, debería estar aquí en los próximos dos años. y contará con un rendimiento sostenido de al menos un petaflop (un petaflop es de 1.000 teraflops), dijo. El diseño básico de la máquina aún no está finalizado, pero continuará con la base de computación heterogénea de CPU y GPU mezcladoras, dijo.