BITÁCORA

Laboratorio Nacional de Supercómputo del Sureste

El Laboratorio Nacional de Supercómputo del Sureste de México (LNS), instalado en la Benemérita Universidad Autónoma de Puebla (BUAP), ofrece herramientas competitivas de supercómputo en diferentes áreas de investigación que requieren simulaciones computacionales detalladas de experimentos, o bien cálculos detallados de procesos y fenómenos, lo que permite reducir los tiempos de investigación en un promedio de 10 hasta 100 por ciento, dependiendo del número de procesadores, nodos y demás recursos utilizados para las simulaciones y cálculos.

4 Laboratorio

Este laboratorio de supercómputo, el segundo en su tipo reconocido a nivel nacional, fue creado a partir de una iniciativa de la BUAP, apoyada por el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), la Universidad de las Américas Puebla (UDLAP) y recientemente se ha integrado al proyecto la Universidad de Chiapas.

Para concretar el proyecto, en 2014 se concursó por financiamiento del Consejo Nacional de Ciencia y Tecnología (Conacyt) a través de la convocatoria Apoyos Complementarios para el Establecimiento y Consolidación de Laboratorios Nacionales, obteniendo un recurso inicial de 18.4 millones de pesos, y en una segunda etapa Conacyt otorgó 15 millones de pesos más para su consolidación; de tal forma que el consorcio formado por las tres instituciones fundadoras aportó una cantidad igual a la contribución del Conacyt.

Para operar de manera eficiente, el LNS cuenta con una supercomputadora que tiene una capacidad máxima de cómputo de 200 teraflops y una efectiva de 187 teraflops llamada Cuetlaxcoapan; y un segundo equipo con tecnología Xeon Phi Knights Landing con una capacidad máxima de cómputo de 135 teraflops y una efectiva de 115 teraflops. El prefijo tera equivale a un número uno seguido de 12 ceros y flops es un acrónimo que significa “operaciones de punto flotante por segundo”, por sus siglas en inglés.

Ambos equipos se organizan como clústeres y utilizan dos tipos de red de comunicación interna, una estándar que utiliza cables de cobre y opera a una velocidad de un gigabit por segundo (Gbps), es decir, cien millones de datos simples (bytes) por segundo; y una segunda red de alta velocidad de 56 Gbps en Cuetlaxcoapan y 100 Gbps en el clúster Knights Landing. Ambas redes rápidas son de baja latencia y utilizan fibra óptica como medio físico, sus velocidades son de casi seis y diez billones de datos simples por segundo, correspondientemente.

Cómo acceder al LNS

El doctor Manuel I. Martín Ortiz, director de Cómputo Académico e Investigación del LNS, en entrevista para la Agencia Informativa Conacyt, informó que este laboratorio está abierto a todo investigador de México, sean o no miembros del Sistema Nacional de Investigadores (SNI), así como a docentes que deseen formar jóvenes en el área de supercómputo y a proyectos de innovación y desarrollo tecnológico, ya que la idea es ofrecer una cobertura amplia a diversos proyectos que requieran de los recursos de supercómputo. Como requisito para los casos de alumnos de posgrado que necesiten utilizar la plataforma de supercómputo, se debe asociar al asesor de tesis del estudiante como responsable del proyecto de investigación en el marco de la convocatoria, el cual debe estar adscrito a una institución de educación o investigación en México.

El laboratorio opera con dos tipos de convocatorias anuales: una interna para los que integran el consorcio (BUAP, UDLAP, INAOE y la Universidad de Chiapas) y otras dos convocatorias de carácter nacional que pueden ser consultadas en la página http://www.lns.org.mx/.

“El investigador, junto a su grupo de trabajo, nos formula proyectos sobre las bases típicas del Conacyt para el uso de la supercomputadora, nos indican sus antecedentes generales, objetivos, metodología, qué software van a utilizar, qué recursos de supercómputo necesitan y los resultados esperados. Todos los proyectos se formulan para un año, a partir de la convocatoria de primavera y la de otoño de este año”.

Respecto al tiempo de uso para los proyectos que requieren del LNS, el doctor Martín Ortiz explicó que la medida que se usa es la hora-core como métrica de los recursos de supercómputo.

“Los investigadores al utilizar la plataforma pueden usar uno o una decena de cores, pero en promedio les damos acceso hasta a 480 cores, aunque se pueden solicitar 960 por proceso de usuario y, en casos muy especiales, se pueden proporcionar hasta dos mil 48 cores. Cada nodo estándar de cálculo posee 24 cores con 128 GB, 256 GB o 512 GB de memoria RAM compartida y los cores se pueden utilizar de manera indistinta en cualquier nodo de cálculo, siendo responsabilidad del usuario la gestión de su tiempo”.

Apoyo al desarrollo científico

El LNS desde su creación representa una herramienta funcional y eficaz para el desarrollo científico en distintas áreas, ya que posee capacidades superiores a las computadoras convencionales, por ejemplo, una supercomputadora puede efectuar en segundos operaciones matemáticas complejas como la búsqueda de números primos con 100 millones de dígitos, o bien cálculos en ciencias exactas, naturales o ingeniería, lo que permite a los investigadores ahorrar tiempo y recursos.

Otros ejemplos de proyectos que se trabajan en el LNS es la predicción confiable del clima a escalas de tiempo cada vez mayores; también se utiliza para la simulación de la creación y evolución de las galaxias de nuestro universo; en el análisis de datos de los mayores aceleradores de partículas que buscan justamente la existencia de nuevas partículas.

El área de la salud encuentra también en el supercómputo un recurso para modelar problemas de cardiología, detección de propiedades de biomoléculas, estudio de nuevos fármacos en el tratamiento de enfermedades como el cáncer, o bien el diseño de circuitos integrados con aplicaciones biomédicas.

Modelando el ADN

Uno de estos proyectos que actualmente se desarrollan en el LNS lo dirige el doctor en ciencias físico matemáticas, Eduardo Moreno Barbosa, miembro del Sistema Nacional de Investigadores, quien asesora a Jorge Nauki Kondo, un tesista que hace un estudio para conocer los daños que causa la radiación a las moléculas de ácido desoxirribonucleico (ADN) a muy bajas energías, menores de un electronvoltio.

En entrevista para la Agencia Informativa Conacyt, el investigador declaró que en una primera parte lo que se realizó fue una simulación de las moléculas de ADN. Posteriormente, lo que se hará es simular la incidencia de la radiación en estas moléculas a través de un software especializado que permita la cuantificación de la interacción de la radiación con la materia.

“Y por qué necesitamos el supercómputo, porque para ver esas energías necesitamos datos estadísticos, y para eso requerimos observar la interacción que se lleva a cabo no solo una vez sino en diferentes ocasiones, ya que toda esa interacción de energías necesita que el experimento esté constantemente corriendo para realizar la estadística y así definir y cuantificar el daño a las moléculas mediante la simulación”.

El doctor Moreno Barbosa refirió que esta simulación reduce considerablemente el tiempo del experimento, ya que en los primeros estudios realizados en una computadora personal les llevó dos semanas poder concretar una simulación de tan solo 10 mil partículas; sin embargo, si el requerimiento es recurrir a un millón, el tiempo sería mucho más prolongado, mientras que con el uso del supercómputo la simulación se realiza en unos días.

Los resultados que buscan en esta investigación se relacionan con los daños que causan las bajas energías al ADN, pero además proponer cómo mejorar la dosis de irradiación para que el ataque a células cancerígenas sea más oportuno sin lastimar las células adyacentes que no presentan problemas.

“Los nuevos tratamientos de cáncer están tomando en cuenta las características de cada persona, porque no se puede estar irradiando a todos con la misma dosis en los diferentes tipos de cáncer. Ahora se fijan en las condiciones de cada persona y sus características inmunológicas para regular las dosis, a partir de análisis químicos y observando su respuesta biológica. Incluso se observa si no es necesario irradiar todo el tumor sino determinados núcleos del tumor, pero todo esto a nivel de ADN”, explicó el doctor Moreno Barbosa.

Actualmente, en este proyecto ya se logró reproducir la cadena del ADN bajo estudio, lo siguiente es trabajar en la simulación del tamaño real de esta cadena para posteriormente, una vez que ya se tengan las estructuras en su tamaño real, se implementen dentro del software especializado para realizar la simulación de irradiación.

Fuente: CONACYT.

Comments are closed.

IMPORTANTE:
Sí: El usuario podrá preguntar, felicitar, realizar críticas constructivas y/o contribuir con opiniones relevantes en el campo de la ingeniería e infraestructura.
No: Molestar, intimidar o acosar de ninguna manera.Tampoco utilizará el espacio para la promoción de productos o servicios comerciales, así como de cualquier actividad que pueda ser calificada como SPAM.

Para saber más consulta los Términos de Uso de INGENET.