Infraestructura
El supercomputador del NLHPC, Guacolda-Leftraru, es una infraestructura de computación de alto rendimiento (HPC, del inglés High Performance Computing) basado en una arquitectura de memoria distribuida.
Se puede decir que Guacolda-Leftraru es una solución completa y de alto rendimiento, ya que integra a la perfección los tres principales aspectos que se deben de tener en cuenta cuando se diseña una infraestructura de cómputo de alto rendimiento: gran capacidad de procesamiento (266 Tflops), una rápida red de interconexión (InfiniBand FDR) y una alta velocidad de acceso a disco (IBM ESS 3200).
La infraestructura del NLHPC está compuesta por los clústeres llamados Guacolda y Leftraru, que se integran entre sí, compartiendo almacenamiento y conectividad. Leftraru entró en operación a finales del 2014 y Guacolda se unió a este a mediados de 2019, para incrementar la capacidad de cómputo que dispone el NLHPC. Guacolda-Leftraru cuenta con 5236 núcleos de cómputo distribuidos en 192 nodos de cómputo.
Nuestros clústeres
Las características de nuestro supercomputador:
Guacolda - Clúster Dell (2019)
- 2596 cores de cómputo
- 16.235 GB de RAM
- 48 nodos Dell PowerEdge C6420
- 9 nodos Dell PowerEdge R640
- 2 nodos Dell PowerEdge R740 con 2 GPU NVIDIA Tesla V100 cada uno, con un total de 20.480 GPU cores.
- Todos los nodos con dos CPUs Intel Xeon Gold 6152
- 196 TFlops de rendimiento teórico
Leftraru - Clúster HPE (2014)
- 2640 cores de cómputo
- 6.308 GB RAM
- 128 nodos HPE ProLiant SL230s Gen8
- 4 nodos HPE ProLiant SL250s Gen8
- Todos los nodos con dos CPUs Intel Xeon E5-2660 v2
- 70 TFlops de rendimiento teórico
Red InfiniBand FDR a 56Gbits/s
4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200)
Capacidad total
La capacidad total de Leftraru+Guacolda a día de hoy (última actualización: finales de 2019):
CPU cores
GPU cores
Tflops
PB almacenamiento
TB RAM
Recursos computacionales
La distribución de todos estos recursos computacionales se realiza por medio de “particiones” con el gestor de recursos Slurm de la siguiente forma:
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
sn[001-048] | Dell PowerEdge C6420 | 48 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
fn[001-009] | Dell PowerEdge R640 | 9 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u | 765 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | GPU | RAM | Infiniband |
---|---|---|---|---|---|---|
gn[001-002] | Dell PowerEdge R740 | 2 | 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u | 2x NVIDIA Tesla V100 c/u | 187 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
cn[001-128] | HP ProLiant SL230s Gen8 | 128 | 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u | 46 GB | Infiniband FDR |
cn[129-132] | HP ProLiant SL250s Gen8 | 4 | 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u | 60 GB | Infiniband FDR |
Nodo | Modelo | Cantidad | Procesador | RAM | Infiniband |
---|---|---|---|---|---|
leftraru[1-4] | HP ProLiant DL360p Gen8 | 4 | 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u | 59 GB | Infiniband FDR |
Servicios
Servicios para la academia, industria e instituciones públicas
Equipo
Equipo humano del NLHPC