El que no computa, no compite: hacia dónde va el supercómputo en México...




Ciencias de la información

Mientras la ciencia del primer mundo se mueve con supercomputadoras que ya casi alcanzan los exaflops (un trillón de operaciones aritméticas por segundo), en México la capacidad de cómputo de estos equipos está dos órdenes de magnitud abajo, en los teraflops; esto es, en billones de operaciones por segundo.

Sin embargo, en una carrera donde la inversión es fundamental (no sólo para adquirir súper máquinas, sino para conectarlas eficientemente y formar los recursos humanos que las gestionen), las instituciones académicas coinciden en que vamos por el camino correcto.

Conforme avanza el supercómputo a escala mundial, o el desarrollo de subcampos como la ciencia de datos, el high performance data analysis, Big Data, machine learning, deep learning, computación paralela y la inteligencia artificial, por citar unos, nuevos paradigmas se establecen y las fronteras de la ciencia cambian.

Áreas de investigación que permanecían “guardadas”, de pronto están al alcance de una comunidad académica que ahora puede ofrecer respuestas a problemas que antes ni siquiera podían explorarse.

La ciencia moderna, al igual que el supercómputo, es siempre interdisciplinaria y multi-institucional. Y en la revolución que estamos viviendo los recursos computacionales dejaron de ser una simple herramienta para convertirse en un pilar de la investigación, a la par que la teoría y la experimentación.

Por ello, los tiempos que vivimos en México son críticos para el desarrollo de la ciencia y tecnología, pues nuestro rezago en supercómputo es mayúsculo y no tenemos una política que defina el rumbo que se debe tomar en este campo, como establece el Dr. Isidoro Gitler, director del centro ABACUS del CINVESTAV-IPN, donde se asienta la más poderosa supercomputadora de México.

El sitio web de la Red Mexicana de Supercómputo (RedMexSu, una red temática del CONACYT) presenta un mapa con 11 centros de investigación y universidades que tienen equipos de supercómputo. Ellos son, de norte a sur:

  • El CICESE, en Ensenada. Su centro de supercómputo tiene capacidad teórica de 200 teraflops (7 clusters distribuidos, 3 mil 500 núcleos de procesamiento).
  • El centro ACARUS de la Universidad de Sonora, que cuenta con dos clusters. La capacidad teórica es de 40 teraflops.
  • El Centro Nacional de Supercómputo (CNS) del IPICYT y el CONACYT, que en 2013 comenzó operaciones con 107 teraflops.
  • El Centro Nacional de Supercómputo de Occidente de la Universidad de Guadalajara.
  • El Laboratorio de Supercómputo de la Universidad Autónoma del Estado de México.
  • El laboratorio ABACUS del CINVESTAV-IPN. Tiene una Silicon-Graphics con capacidad de 430 teraflops. Se localiza en Salazar (San Miguel Ameyalco), Estado de México.
  • El Clúster Híbrido de Supercómputo Xiuhcoatl, en el CINVESTAV-IPN de la Ciudad de México. Su capacidad teórica es de 93 teraflops.
  • El Laboratorio de Supercómputo y Visualización en Paralelo de la Universidad Autónoma Metropolitana – Iztapalapa, Yoltla, formada por 2 mil 160 núcleos; su capacidad teórica es de 54 teraflops.
  • Supercomputadora Miztli, de la UNAM. Su capacidad en 2013 alcanzaba 118 teraflops (5 mil 312 núcleos de procesamiento).
  • El Laboratorio Nacional de Supercómputo (LNS) del Sureste de México, de la Benemérita Universidad Autónoma de Puebla (BUAP), con desempeño de 200 teraflops.
  • El Laboratorio Regional de Cómputo de Alto Desempeño, de la Universidad Autónoma de Chiapas, en Tuxtla Gutiérrez.

Hay más supercomputadoras, sin duda, aunque de menor capacidad. Están en la misma UNAM, UAM y el CINVESTAV (hace 10 años integraban el llamado Delta Metropolitano de Cómputo de Alto Desempeño). En el sector académico también figura el Tec de Monterrey. Y también en el sector industrial y en algunas empresas, como PEMEX, TELCEL y en un par de instituciones bancarias.

Sin embargo, la suma de todos estos recursos no zanja la brecha que ya existe respecto a China, Estados Unidos, Europa y otros países desarrollados. “El diferencial se ha hecho enorme, y creo muy importante que podamos definir a muy corto plazo una verdadera política con respecto a cómo queremos fortalecer, crecer y consolidar el supercómputo en México”, señaló Isidoro Gitler, quien desde el centro ABACUS está en la punta del supercómputo en México.

“Veo con muy buenos ojos el que están creciendo distintos centros, pero las dimensiones, si las comparamos a lo que está sucediendo a escalas mundiales, son realmente pequeñas”, precisó.

En esto coinciden Raúl Rivera Rodríguez, responsable técnico de la RedMexSu, y Jorge Lozoya Arandia, de la Universidad de Guadalajara, institución que justo ahora está integrando un centro nacional de supercómputo para brindar servicios a la academia y al sector privado en la región occidente de México. Es él quien comenta: “Estamos muy atrás, muy retrasados. Sin embargo, creo que vamos por el buen camino. Son inversiones muy costosas y la participación en la RedMexSu nos ha ayudado porque las experiencias de otras universidades alimenta lo que estamos haciendo en implementación (del centro), en colaboración…”

Raúl Rivera identifica tres limitantes para desarrollar el supercómputo en nuestro país. Una tiene que ver con acciones de colaboración, lo cual es toral si consideramos que este campo es, desde su raíz, interdisciplinario y multi-institucional: “La red de comunicaciones es, en general, un problema nacional. En México todavía nos falta mucho para que este tipo de aplicaciones puedan ejecutarse a través de la red, remotamente”.

Una infraestructura robusta de carreteras informáticas permitiría, como dice Isidoro Gitler, “que nosotros podamos comunicarnos con el CICESE de una manera rápida y eficaz, con la UNAM, con la gente que está en Puebla, con la que está en Chiapas, para crear las sinergias de investigación que se necesitan”.

Las otras limitantes que menciona Raúl Rivera son “la falta de inversión o fluidez para poder apoyar a los centros de supercómputo, para que crezcan sus capacidades, y la formación de recursos humanos especializados en administrar estos grandes equipos”.

Respecto a este aparato o estructura de gestión, lo consideró importante porque los usuarios generalmente no son computólogos, sino científicos de otras disciplinas que llegan con un problema a resolver y su algoritmo, y necesitan que un especialista con nivel de doctorado optimice su programa y lo ejecute correctamente.

Como no hay este personal en la medida que se requiere, lo que está pasando es que los químicos, biólogos, oceanógrafos, los meteorólogos, están aprendiendo configuraciones de Linux y programación en Python, porque los laboratorios se están haciendo virtuales.

Mientras esto ocurre aquí, en los países desarrollados hay una revolución científica conforme crecen las capacidades de estas máquinas. En 2016 la supercomputadora china Sunway TaihuLight fue ranqueada como la más poderosa del mundo, con una velocidad de 93 petaflops. Esto es: 93 mil billones de operaciones por segundo (o un 93 seguido de 15 ceros), que equivalen casi a una orden de magnitud por arriba de nuestra ABACUS (que ejecuta 400 billones de operaciones en un segundo).

Isidoro Gitler considera que dentro de muy poco habrá supercomputadoras capaces de ejecutar 10 a la 18 operaciones por segundo (exaflops), o sea un trillón de operaciones (un millón de billones). “Son cantidades que poca gente se sienta un momento a tratar de entender qué implican, pues son más del tiempo (en años) que lleva el universo. Y eso lo hacen en un segundo. Lo que vamos a poder estudiar, los problemas complejos que vamos a poder resolver con esa capacidad de cómputo, para mí es algo todavía inimaginable. Son nuevos paradigmas del conocimiento”.

En este contexto, en 2014 comenzaron los trabajos para conformar la RedMexSu, una red temática del CONACYT que hoy aglutina alrededor de 90 miembros de la academia, de la iniciativa privada y del gobierno.

Los temas de su competencia abarcan: ciber-infraestructura (almacenamiento, procesamiento, redes avanzadas de alto desempeño); arquitecturas paralelas y de sistemas escalables (arquitecturas petaescala, exaescala); programación HPC (paralelo y distribuido); cómputo distribuido (GRID, clúster, cloud), y optimización de recursos de cómputo.

La red ha puesto énfasis en la capacitación del recurso humano, especialmente para analizar datos provenientes de diversas fuentes, es decir, de bases de datos heterogéneas. A esto también se le conoce como Big Data. Un ejemplo de proyecto que involucra Big Data lo desarrolla el Consorcio de Investigación del Golfo de México (CIGOM), que requiere una plataforma computacional de estandarización, manejo, distribución y visualización de datos de su Red de Observación Oceanográfica. Este consorcio lo encabeza el CICESE.

La propuesta de distribución de centros de supercómputo a mediano y largo plazo que presentó en agosto de 2017 Raúl Rivera, quien además de tener a su cargo la responsabilidad técnica de esta red es director de Telemática del CICESE, es de 3 centros nacionales de supercómputo con rendimiento de 1.5 petaflops; 10 centros regionales de cómputo de alto rendimiento con capacidad de 200 a 300 teraflops, y 10 centros regionales de cómputo de alto rendimiento de menos de 10 teraflops.

Por ser un polo científico y académico, y por su conectividad a la Red Nacional para el Impulso de la Banda Ancha (Red NIBA), a la red internacional de Internet2 y, vía ésta, a la dorsal de la propia Red NIBA que maneja velocidades de 10G, el CICESE podría ser uno de estos centros regionales de alto rendimiento en el noreste del país. Esto considerando que este año se gestionó expandir la capacidad actual para alcanzar los 400 teraflops.

Los trabajos en esta red están encaminados a “conocer la radiografía de las capacidades de supercómputo que existen en México, qué usuarios tenemos, qué tipo de investigaciones realizan y cómo nos podemos vincular con la industria, para que esta red sea una puerta o una ventanilla para las universidades, gobierno, las empresas o la industria, y que vean todo el abanico de capacidades que se tienen en México en el tema del desarrollo del supercómputo”, como señaló Raúl Rivera.

Y es que, como dice el Dr. Mateo Balero, del Centro de Supercómputo de Barcelona: “El que no computa, no compite…” En ese sentido, las instituciones mexicanas señalan que “vamos por buen camino”.

 

Palabras clave: RedMexSu, Raúl Rivera, Isidoro Gitler, supercómputo

anterior