Infraestructura

El supercomputador del NLHPC, Guacolda-Leftraru, es una infraestructura de computación de alto rendimiento (HPC, del inglés High Performance Computing) basado en una arquitectura de memoria distribuida.

Se puede decir que Guacolda-Leftraru es una solución completa y de alto rendimiento, ya que integra a la perfección los tres principales aspectos que se deben de tener en cuenta cuando se diseña una infraestructura de cómputo de alto rendimiento: gran capacidad de procesamiento (266 Tflops), una rápida red de interconexión (InfiniBand FDR) y una alta velocidad de acceso a disco (IBM ESS 3200).

La infraestructura del NLHPC está compuesta por los clústeres llamados Guacolda y Leftraru, que se integran entre sí, compartiendo almacenamiento y conectividad. Leftraru entró en operación a finales del 2014 y Guacolda se unió a este a mediados de 2019, para incrementar la capacidad de cómputo que dispone el NLHPC. Guacolda-Leftraru cuenta con 5236 núcleos de cómputo distribuidos en 192 nodos de cómputo.

Nuestros clústeres

Las características de nuestro supercomputador:

Guacolda - Clúster Dell (2019)

  • 2596 cores de cómputo
  • 16.235 GB de RAM
  • 48 nodos Dell PowerEdge C6420
  • 9 nodos Dell PowerEdge R640
  • 2 nodos Dell PowerEdge R740 con 2 GPU NVIDIA Tesla V100 cada uno, con un total de 20.480 GPU cores.
  • Todos los nodos con dos CPUs Intel Xeon Gold 6152
  • 196 TFlops de rendimiento teórico

Leftraru - Clúster HPE (2014)

  • 2640 cores de cómputo
  • 6.308 GB RAM
  • 128 nodos HPE ProLiant SL230s Gen8
  • 4 nodos HPE ProLiant SL250s Gen8
  • Todos los nodos con dos CPUs Intel Xeon E5-2660 v2
  • 70 TFlops de rendimiento teórico

Red InfiniBand FDR a 56Gbits/s

4 PB de almacenamiento IBM Elastic Storage System (IBM ESS 3200)

Capacidad total

La capacidad total de Leftraru+Guacolda a día de hoy (última actualización: finales de 2019):

CPU cores

GPU cores

Tflops

PB almacenamiento

TB RAM

Recursos computacionales

La distribución de todos estos recursos computacionales se realiza por medio de “particiones” con el gestor de recursos Slurm de la siguiente forma:

Partición general

Nodo Modelo Cantidad Procesador RAM Infiniband
sn[001-048] Dell PowerEdge C6420 48 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u 187 GB Infiniband FDR

Partición largemem

Nodo Modelo Cantidad Procesador RAM Infiniband
fn[001-009] Dell PowerEdge R640 9 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u 765 GB Infiniband FDR

Partición v100

Nodo Modelo Cantidad Procesador GPU RAM Infiniband
gn[001-002] Dell PowerEdge R740 2 2 x Intel Xeon Gold 6152 CPU @ 2.10GHz, 22 cores c/u 2x NVIDIA Tesla V100 c/u 187 GB Infiniband FDR

Partición slims

Nodo Modelo Cantidad Procesador RAM Infiniband
cn[001-128] HP ProLiant SL230s Gen8 128 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u 46 GB Infiniband FDR
cn[129-132] HP ProLiant SL250s Gen8 4 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u 60 GB Infiniband FDR

Partición debug

Nodo Modelo Cantidad Procesador RAM Infiniband
leftraru[1-4] HP ProLiant DL360p Gen8 4 2 x Intel Xeon E5-2660v2 @ 2,20GHz, 10 cores c/u 59 GB Infiniband FDR

Servicios

Servicios para la academia, industria e instituciones públicas

Equipo

Equipo humano del NLHPC