Supercomputadoras en Latinoamérica

¿Por qué es importante poseer una kraken informático de alto rendimiento?

 
Las supercomputadoras están en México, Brasil, Argentina, Chile, Perú y Ecuador.
Supracomputadora, Universidad San Luis Gonzaga de Ica

Piensa en un auto común y corriente: por ejemplo, un modelo sedán cualquiera. Ahora piensa en un auto de la Fórmula 1. Esa es la relación que tiene una computadora de escritorio, como la que usas en casa o tu oficina a diario, con una supracomputadora (o computadora de alto rendimiento, HPC). Si bien ambos son autos (o computadoras) es lo único en lo que se parecen. Al igual que los autos de la Fórmula Uno, como los que suelen conducir Hamilton o Vettel, cuestan mucho y requieren de personal con expertise para manipularlas: son buenas para problemas altamente especializados (no usarías un auto de carreras para ir al mercado, ni usarías una supercomputadora para leer tu mail o revisar tu muro de Facebook).
Compañías como Cray o IBM son las firmas tradicionales en desarrollar estos monstruos, que trabajan en algunos de los problemas más grandes de la ciencia y la ingeniería: los orígenes del universo o nuevas medicinas contra el cáncer. Hablamos de máquinas especiales por la tecnología dentro de ellas: solo una de estas podría tener 10.000 procesadores. Por razones como esta son carísimas: las top 100 cuestan por encima de los 20 millones de dólares por unidad. En Latinoamérica, varios países poseen sus propias supercomputadoras. Para qué sirven, dónde se encuentran y cuál es su potencial son preguntas que debemos responder para sacarles el máximo provecho.

Qué es, realmente, una supercomputadora

Según el IOSR Journal of Computer Engineering, “la computación de alto rendimiento (HPC) se refiere a la práctica de acumular poder informático de una forma que pueda desenvolverse muchísimo mejor de lo que puede hacer una computadora de escritorio típica para resolver grandes problemas en ciencia, ingeniería o negocios”. Una forma útil de entender que son las computadoras de alto rendimiento, sugerida por InsideHPC, es pensar en lo que hay dentro de ellas. Dentro de tu computadora de diario se puede encontrar: procesadores, memoria, discos, sistema operativo. La supercomputadora tiene todo aquello, solo que mucho más de cada uno. Las HPC son realmente grupos de computadoras (algo así como un pulpo de muchos cerebros). Cada computadora individual configurada en un pequeño grupo tiene entre uno y cuatro procesadores, y los procesadores actuales tienen típicamente entre dos a cuatro núcleos. Las personas especializadas en HPC se refieren a menudo a las computadoras individuales dentro de un grupo como nodos.
Si hablamos de negocios, por poner un ejemplo cualquiera, cuatro nodos podrían ser suficientes para uno pequeño, o 16 núcleos. Un tamaño de grupo común en muchos negocios es entre 16 y 64 nodos, o entre 64 y 256 núcleos. La idea de poner a nodos individuales a trabajar juntos es resolver un problema grande que ninguna otra computadora ordinaria puede resolver. Como personas, los nodos necesitan comunicarse entre ellos para que el trabajo en grupo tenga sentido. Para ello, por supuesto, estos están conectados a través de redes.

Para qué sirve


IBM Blue Gene/P
La utilidad de las HPCs (supercomputadoras) es multidiversa, aplicable en varios rubros. Rápidamente, podemos encontrar que en sus primeras versiones, desde la década del 70 hasta la fecha, ha sido útil para pronósticos del tiempo e investigación aerodinámica (Cray-1). En áreas como el análisis probabilístico y la protección radiológica (CDC Cyber). Así también, en el desencriptación por fuerza bruta (EFF DES Cracker). Otras lo hicieron en ilustrativas simulaciones en 3D de pruebas nucleares en el marco del Tratado de No-Proliferación Nuclear (ASCI Q). Más recientemente, también permitió la realización de simulaciones de dinámicas moleculares (Tianhe-1A).
Una de las firmas representativas de esta tecnología es la IBM, que con su supracomputadora Blue Gene/P logró simular un número de neuronas artificiales equivalentes a aproximadamente 1% de la corteza cerebral, conteniendo 1.6 mil millones de neuronas con aproximadamente 9 billones de conexiones. La misma investigación pudo simular un número de neuronas artificiales equivalentes a un cerebro de rata. La Administración Nacional Oceánica y Atmosférica estadounidense, la NOAA, usa supracomputadoras para procesar cientos de millones de datos (numéricos, gráficos) para hacer pronósticos más precisos. El Programa de Cómputo y Simulación Avanzados de EE.UU. también usa supracomputadoras para mantener y simular todo lo que se podría hacer con el arsenal nuclear de los Estados Unidos.

La guerra (fría) de los petaflops


Sunway TaihuLight, la supercomputadora más poderosa del momento.
En la guerra de las supracomputadoras, China se ha tomado las cosas muy en serio y ya supera a Estados Unidos (que alguna vez fue líder), encabezando por más de un puñado de años la lista de computadoras más rápidas del mundo. Muestra de ello es cómo el país ha usado uno de estos monstruos para crear la más grande versión del Universo generado digitalmente. La Sunway TaihuLight, la supercomputadora más poderosa de estos momentos, simuló “el nacimiento y expansión del Universo” usando 10 billones de partículas digitales, en algo que los expertos chinos han considerado “un ejercicio de calentamiento”. Hoy mismo, trabaja en construir una supracomputadora capaz de hacer 1 trillón de cálculos por segundo y espera que el primer prototipo sea finalizado este año. Con este tipo de tecnologías, espera ser el país líder en inteligencia artificial hacia el 2030.
Las supercomputadoras también están en Europa (Bélgica, Alemania, Francia, España y otros las poseen), como centros de investigación y servicios de computación de alto rendimiento al servicio de toda la comunidad científica. Actualmente la Sunway china está en la vanguardia de todo, con sus 93 petaFLOPS (siendo 1 petaflops, con s en singular y plural, la capacidad de un ordenador para realizar 1015 operaciones y cálculos de procesamiento en un segundo).

Supercomputadoras en la región

En México, las supercomputadoras se usan por años y las poseen principalmente centros educativos y de investigación. Es claro que no están a nivel de China ni Estados Unidos, pero tienen lo suyo. Abacus, por ejemplo, adquirida por el Centro de Investigación y Estudios Avanzados (Cinvestav) en el 2014, fue una de las 150 más rápidas supercomputadoras de aquel año, con sus 8.904 núcleos, 1.2 Petabytes de almacenamiento y 40TB de memoria RAM, siendo capaz de alcanzar los 400 teraflops. El mismo centro también posee a Xiuhcoatl, o la serpiente de fuego, estrenado el 2012 y con un procesamiento de alrededor de 50 teraflops. Por otro lado, Yoltla, o el semillero del saber, fue instalada el 2014 en el campus de la Universidad Autónoma Metropolitana, con picos de hasta 45 teraflops. También hizo su parte la Universidad Autónoma con Atócatl (2011) y Miztli (2013).
Brasil es la otra potencia latinoamericana en la tenencia de supercomputadoras, aunque con algunos problemas. La computadora más rápida es Santos Dumont, que cuenta con tres módulos (cada uno en el top 500 mundial). Juntos estos hacen 1,1 petaflops de desempeño, que en simple podrían ser un millón de veces más rápida que una notebook común. Investigaba cadenas de proteínas para llegar a curas al mal de Alzheimer, y trabajaba para realizar un mapeo genético del virus del Zika, pero tuvo que ser detenida porque consumía demasiada energía y no era posible solventarlo. También posee a Cimatec Yemoja, la segunda del país, con 400 teraflops; Grifo04, con 251,5 teraflops; o Tupa, con 214 teraflops. Son empleadas usadas en la industria petrolera, en geofísica, farmacéutica, química, entre otras.
Destaca también el laboratorio de supercómputo de la Benemérita Universidad Autónoma de Puebla (BUAP), que cuenta con una supercomputadora de capacidad máxima de 200 teraflops, y un segundo equipo con 135 teraflops. Toda esta tecnología es utilizada en estudios complejos variados, desde investigaciones sobre  astrofísica hasta estudios para conocer los daños que causa la radiación a las moléculas de ADN a muy bajas energías, menores de un electronvoltio.
En Colombia, la Universidad Industrial de Santander (UIS) posee a Guane-1, la Universidad EAFIT tiene al superordenador Apolo, mientras que el Centro de Bioinformática y Biología Computacional (Bios) tiene su supercomputador dedicado a la biotecnología, capaz de analizar en solo 15 minutos el genoma de una bacteria, tarea que antes podía demorar unos 20 días.
Argentina cuenta con Tupac, destinada a simular procesos de fractura hidráulica para la industria petrolera, meteorología y fabricación de autos. Resalta también Mendieta, una supercomputadora instalada en la Universidad Nacional de Córdoba, con sus 14,7 teraflops al servicio de la investigación en astronomía, ingeniería y medicina, Big Data, censos, entre otros.
Ecuador, por su parte, tiene en Yachay (urbe universitaria planificada) una supercomputadora de hasta 350 teraflops. Chile cuenta desde el 2015 con Leftraru, una supercomputadora con una capacidad de procesamiento de 50 teraflops perteneciente al Centro de Modelamiento Matemático (CMM) de la Facultad de Física y Matemática de la Universidad de Chile.
Y llegó también el momento de Perú: con la adquisición de la supracomputadora por la Universidad Nacional de San Luis Gonzaga de Ica (UNICA) a una trasnacional china apunta a profundizar en áreas como la meteorología, la astrofísica, farmacéutica y agricultura a un nuevo nivel. Asimismo, en campos como la minería de datos. La Supracomputadora ya trabaja en la integración con el satélite Perú SAT, operado por la agencia espacial Conida, con el fin de desarrollar pronósticos del tiempo más precisos, según dieron a conocer autoridades de esta alma mater a N + 1. En estos momentos, está en proceso la construcción del data center donde se instalará el equipo en el campus.

Claves

¿Cómo se mide el rendimiento de las supercomputadoras?
El criterio más usado es la capacidad de cálculo, que se mide en flops (del inglés floating point operations, operaciones de coma flotante). Una operación de suma, resta, multiplicación o división equivale a un flop por segundo.
¿Qué es un teraflops y un petaflops?
Si flops es una medida de rendimiento de cálculo, entonces tera=1012 y peta=1015. Si una supercomputadora posee un petaflops, por ejemplo, significa que puede realizar 1.000.000.000.000.000 operaciones aritméticas básicas por segundo.

¿En qué rubros pueden ser útiles?
La lista es larga: predecir el clima, buscar patrones sobre cambios climáticos, estudiar el universo, simular efectos de una operación de corazón, de una prueba nuclear o terremoto, simular funciones del cerebro, análisis genómicos, predecir el efecto de nuevos fármacos en las proteínas, buscar minerales o petróleo con mayor precisión, estudiar bigdata como analizar el comportamiento de clientes en los negocios.
¿Qué software usan?
Al hablar de software, aparece un viejo conocido que a nivel de móviles y escritorio acaso ya teníamos olvidado con la predominancia de Android o Windows: Linux. En cuanto a supercomputadoras, el software libre arrasa: en el último Top500 estuvo instalado en 498 sistemas.
 
Fuente: https://nmas1.org/material/2017/09/15/supercomputadoras-latinoamerica