Tuesday, October 21, 2008

Sin las supercomputadoras no habría ciencia moderna

El proyecto Delta Metropolitana será presentado oficialmente en noviembre, siendo uno de los más innovadores no sólo del país sino de la región, pues aplicará la tecnología grid.

Resolver las ecuaciones de Albert Einstein o descifrar qué es lo que sucede cuando dos hoyos negros se colisionan, “son problemas que jamás se podrían solucionar de manera exacta a través de lápiz y papel, sólo a través de aproximaciones numéricas y códigos computacionales complicados”, señala a El Economista.com.mx el científico de la UNAM, Dr. Miguel Alcubierre Moya.

Así para científicos de la talla de Alcubierre, una supercomputadora se convierte en “una herramienta indispensable para hacer cálculos que son imposibles para un ser humano, nos llevarían millones de años”.

Sin estas súper máquinas, “quizá yo no sería científico y me tendrían que dedicar a otra cosa” asegura el miembro del Instituto de Ciencias Nucleares, quien está convencido de que estos equipos son una parte fundamental de la ciencia moderna.

¿Qué es el Supercómputo?

“Se refiere a la utilización de computadoras con grandes capacidades de cálculo, memoria, almacenamiento y comunicaciones, con las que se estudian fenómenos representados por modelos numéricos, cuyo tratamiento requiere capacidades computacionales que van mucho más allá de las proporcionadas por los equipos convencionales”, así lo señala el Laboratorio de Supercómputo de la UNAM en su página de Internet.

Grids: la unión hace la fuerza

Cray creó la tecnología “Procesadores Masivamente Paralelos” que condujo a las máquinas ultrarrápidas. El investigador del departamento de Cómputo del Cinvestav, Dr. Sergio Chapa, comenta que la primera supercomputadora que llegó a México, en la década de los 70’s, fue la PDP-10, la cuál sólo tenía 128 (kilobytes) en memoria, nada comparable con la actual computadora más rápida del mundo.

Roadrunner, pertenece a EU, y es capaz de realizar 1,000 billones de cálculos por segundo, con el propósito de trabajar con armas nucleares

Hay que destacar que con el paso del tiempo y con la disminución de costos de los equipos, llegó la tecnología computacional distribuida “clusters”, es decir, máquinas que se interconectan entre si a través de redes locales de alta velocidad, para así formar una supercomputadora, que tendrá como objetivo resolver problemas.

En el Cinvestav cuentan con este tipo de tecnología, con la cual realizan grandes simulaciones, como por ejemplo, señala Sergio Chapa, simular el comportamiento de toda la red del agua potable de la ciudad de México, con el objetivo de prevenir algún desastre identificando el fluido de los líquidos, los focos contaminantes o alguna falla en las tuberías.

Si los clusters, por sí solos, son una maravilla por su bajo costo y gran capacidad de procesamiento, ahora se ha sumado la gran velocidad de Internet provocando el surgimiento de los “Grids”, tecnología que sin importar su ubicación geográfica, permite la interconexión entre varios clusters para resolver problemas complejos de diversos usuarios.

Proyecto Delta Metropolitana, reinventando el supercómputo

En México, las principales instituciones académicas que cuentan con supercomputadoras son la UNAM, la UAM, el Centro Nacional de Supercómputo, el CICESE, el IMP, la Universidad de Sonora y el Cinvestav.

Actualmente, el mayor supercomputador mexicano es un cluster de la UNAM, y se llama “KanBalam”, el cual tiene una capacidad de más de siete billones de operaciones aritméticas por segundo.

Sin embargo, está en camino la creación de la supercomputadora más potente de México, la cual, ahora mismo está siendo configurada por especialistas de la UNAM, UAM Iztapalapa y el Cinvestav.

Con dicho desarrollo, se prevé que nuestro país se posicione en el lugar 99 del Top 500 (ranking de las supercomputadoras más rápidas de mundo) y como la número uno de América Latina.

El proyecto Delta Metropolitana, el cual será presentado oficialmente en noviembre, es uno de los más innovadores no sólo del país sino de la región, pues sabemos que únicamente se han desarrollo supercomputadoras a partir de la tecnología grid sólo en Estados Unidos y la Unión Europea y “no se tiene noticia de que en América Latina exista alguno semejante”, señala la UAM Iztapalapa en el suplemento Cemanáhuac.

Así, las tres instituciones mexicanas unificarán -con el apoyo del CONACYT- y compartirán recursos de sus centros de Cómputo de Alto Rendimiento (CAR), con un solo objetivo: que científicos, principalmente del área metropolitana, tenga acceso a estas herramientas para desarrollar proyectos de investigación científica, en meteorología, exploración de hidrocarburos, aeroespacial, nuclear, entre otros.

Karina López / El Economista

Una nueva tecnología promete hacer pasar al olvido a la Internet tradicional. Según los expertos, en unos años “The Grid” llegara a los usuarios comunes

The Grid o "la rejilla" llegara en algún momento al uso masivo. Capaz de bajar una película en solo segundos, esta tecnología se propone como la sucesora de las actuales redes globales. En este sentido, The Grid es capaz de superar a una conexión típica de banda ancha de 3 Megas llegando a la escalofriante suma de 10.000 veces. Un abanico que abre sin lugar a dudas una nueva dimensión en comunicaciones e interconexión del planeta.

Según explica Europress, Internet tal y como la conocemos hoy por hoy podría ser historia en cuestión de unos años si 'The Grid' hace su irrupción en los ordenadores domésticos de todo el mundo. Este sistema es actualmente una red de 100.000 ordenadores creada por los científicos del CERN para almacenar y compartir los datos que emita el nuevo Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) que se calcula podría llegar a llenar 56 millones de CDS anualmente.

'The Grid', sigue explicando el mismo medio, fue creado en el CERN, en el mismo lugar donde en 1989 Tim Berners inventó la 'Web', y funciona a unas 10.000 veces más rápido que las conexiones típicas de Internet de entre 1 y 3 Megas. Su capacidad le permitiría a un usuario normal de Internet descargar películas o canciones en segundo o centésimas de segundo, realizar vídeo llamadas al precio de una llamada local, participar en partidas online de centenares de miles de personas o transmitir imágenes holográficas.

Aunque está diseñado para grandes proyectos de investigación e ingeniería que necesitan mover enormes cantidades de datos, los científicos responsables de 'The Grid' creen que en unos años podría estar al alcance de todos. Así, seguiría un camino similar al de Internet, que en principio fue ideado como una forma de compartir información entre universidades -aunque algunos le atribuyen un origen militar- y, posteriormente, se convirtió en una herramienta casi indispensable en millones de hogares en todo el mundo.

¿Que es el GRID?

Es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una revolución que dará mucho que hablar.

El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación, empresas, etc., se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.

Las características de esta arquitectura serían

Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite; Alta disponibilidad. Con la nueva funcionalidad, si un servidor falla, se reasignan los servicios en los servidores restantes; Reducción de costes: Con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y podremos hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón; Se relaciona el concepto de grid con la nueva generación de Internet. El nuevo protocolo de Internet IPv6 permitirá trabajar con una Internet más rápida y accesible. Una de las ideas clave en la superación de las limitaciones actuales de Internet IPv4 es la aparición de nuevos niveles de servicio que harán uso de la nueva capacidad de la red para intercomunicar los ordenadores.

Este avance en la comunicación permitirá el avance de las ideas de grid computing al utilizar como soporte la altísima conectividad de Internet. Es por ello que uno de los campos de mayor innovación en el uso del grid computing, fuera de los conceptos de supercomputación, es el desarrollo de un estándar para definir los Grid Services frente a los actuales Web Services.

Fuente: Europress - Wikipedia

No comments: