Tuesday, October 21, 2008


Crean un ratón de ordenador que se maneja con la voz.

Se llama “Vocal Joystick” y facilitará el uso del ordenador a discapacitados

Informáticos de la universidad norteamericana de Washington han creado un software que está permitiendo ya a personas con varios niveles de discapacidad manejar el cursor de su ordenador con la voz. El sistema reconoce ciertos sonidos y, en función de ellos, el cursor se desplaza por la pantalla o abre un enlace, entre otras funcionalidades. Según sus creadores, este dispositivo se diferencia de otros en el hecho de que no usa una tecnología estándar de reconocimiento de voz, sino que detecta sonidos básicos a una velocidad de 100 por segundo, lo que hace que sea fácil de usar. Por Raúl Morales.

Informáticos de la Universidad de Washington han desarrollado un software que permite manejar el cursor del ordenador con la voz. Lo han llamado “Vocal Joystick” y será de gran ayuda para personas discapacitadas.

Así, diciendo “ahh” el cursor se desplazará hacia el noreste; si se dice “Ooo” el mensaje será que vaya hacia el sur. Si lo que se quiere es que el cursor vaya más rápido o más lento, se hará regulando el volumen de nuestra voz. Para abrir un link basta con imitar un “clic” suavemente.

El desarrollo de este dispositivo ha involucrado a profesores y estudiantes de varios departamentos universitarios. Además de informáticos, han intervenido ingenieros eléctricos y lingüistas. Se trata sólo de uno de los varios proyectos en los que esta universidad está participando con la finalidad de crear tecnología que permita, por ejemplo, a los ciegos usar pantallas táctiles para desarrollar una alternativa diferente al clic para navegar con un ordenador.

Los investigadores ya han testado el joystick con pacientes con daños en la columna vertebral y acaban de terminar otra ronda de pruebas con diez participantes que presentaban diferentes grados de discapacidad.

Según informa Seattle Times, los participantes fueron sometidos a 12 horas de formación en los que un informático evaluó cómo aprendían a producir correctamente los sonidos vocales, memorizaban los patrones direccionales o manipulaban la velocidad del cursor.

En algunas ocasiones, mover el ratón con la voz resultó frustrante o agotador para los participantes. Así, si el operador no reproduce su propio sonido como lo tiene grabado el software, el cursor puede ir demasiado rápido en una dirección o pasar de largo por el punto al que se quería que llegara.

Primeras pruebas

En las pruebas también ha quedado claro que, aunque algunos sonidos son sencillos de reproducir, otros, en cambio, son poco naturales o forzados. Pero cuando el sujeto coge ritmo, el uso del ratón es sencillo y natural.

Según sus creadores hay otras opciones para quienes necesitan sistemas adaptados que les permitan usar su ordenador, pero el software de la Universidad de Washington se distingue a varios niveles. Por ejemplo, no usa tecnología estándar de reconocimiento de voz. En su lugar, detecta sonidos básicos a una velocidad de 100 veces por segundo y los aprovecha para generar movimientos fluidos y adaptativos del cursor.

Los investigadores mantienen que su sistema es más sencillo porque permite a los usuarios explotar una gran cantidad de grupos de sonidos para hacer tanto movimientos continuos como puntuales. Además, el Vocal Joystick sólo necesita un micrófono, un ordenador con una tarjeta de sonido corriente y un usuario que pueda vocalizar.

El Vocal Joystick empezó realmente en el departamento de ingeniería eléctrica de la universidad, donde crearon el sistema de reconocimientos de sonidos. A partir de ahí, le profesor de ingeniería e informática James Landay y Jacob Wobbrock, de la escuela de Información, idearon modos creativos de aplicar esta nueva tecnología.

Otros proyectos

Así, han desarrollado también varios “hermanos” del Vocal Joystick, como un brazo robótico. En última instancia, los investigadores quieren aplicar esta tecnología a dispositivos comunes, como a sillas de ruedas eléctricas. Otra aplicación es el “VoiceDraw”, que permite dibujar con un ordenador sin usar las manos.

Wobbrock lidera un grupo llamado AIM, que está centrado en la accesibilidad y la movilidad. Este grupo trabaja en la actualidad en el desarrollo de otro software que hace que el ratón del ordenador vaya más despacio y sea más preciso cuando el usuario trata de hacer “clic” sobre un objetivo.

Antes de desarrollar su trabajo en la Universidad de Washington, Wobbrock realizó una gran labor en la Carnegie Mellon, con la misma finalidad: hacer que la tecnología funcione correctamente para todos, independientemente de las dificultades físicas que el usuario tenga.




Más memoria, es la guerra!

En la situación actual del HPC, donde los cluster de pequeñas máquinas se imponen de forma rotunda, resulta una necesidad casi asfixiante disponer de la suficiente memoria por nodo de cálculo.

En los pasillos de los grandes centros de cálculo y las universidades el clamor por más memoria se está haciendo oír tan fuerte como el de más Gigaflops.

Muchos administradores de centros de HPC empiezan a estar preocupados por las repetidas quejas de usuarios que ven morir largos proceso por la escasez de memoria en los nodos.

Un buen ejemplo de esta situación son los geofísicos, que se ven obligados a interpretar grandes cantidades de datos en tiempo real, en la acuciante búsqueda de nuevos recursos naturales.

Además de mucha memoria los usuarios de grandes trabajos demandan a sus administradores de sistemas que fallos en el hardware no den al traste con semanas de iteraciones. Es decir se busca, aunque a veces no se dice, un alto grado de disponibilidad. Y es aquí donde sistemas más robustos, usados en los entornos críticos de procesos de negocio, y con capacidad para albergar cientos o miles de Gigabytes de memoria se convierten en los SUPERNODOS de Clusters de Cálculo.

Estos Súper clusters de máquinas de memoria compartida, no se caracterizan por el número de sus nodos sino por las capacidades de cada uno de ellos. Lo que les permite realizar retos vedados para el resto de los Clusters. En esta familia de soluciones de HPC el procesador Itanium es el que sin lugar a dudas domina la manada.

Otro factor que se alía con este tipo de máquinas es la adición de más núcleos de proceso por pastilla de silicio, está tendencia a la que es imposible oponerse o tan siquiera rechistar está cambiado el modelo de programación puro por paso de mensajes, (MPI), por un modelo de programación híbrido basados en hebras de programación dentro de cada nodo (OpenMP), y paso de mensajes ente los nodos. Y es precisamente esta manera de programar la que también se adapta a los potentes nodos Itanium cargados de memoria.

Además y por descontado las aplicaciones programadas en OpenMP deseosas de acceder al mayor número de procesadores compartiendo la mayor cantidad de memoria, serán siempre unas grandes beneficiarias de estos sistemas.

Una mayor facilidad en la gestión inherente a esta especie ayuda a su crecimiento demográfico, y hoy en día es norma, en los grandes centros de proceso de datos científico y técnicos, ver juntos a Clusters muy densos y efectivos en coste de adquisición, y a Clusters de máquinas de memoria compartida habilitadores de nuevos y mayores retos con un interesante coste de adquisición.

La necesidad de Clusters dotados de mucha memoria compartida es una importante necesidad y gran aspiración de la ciencia en España. Esta inquietud se ve refleja en conversaciones con nuestros químicos, geólogos, astrónomos, ingenieros,…. Y es una excelente noticia saber que muy importantes centros de investigación y desarrollo de nuestro país ya cuentan o contarán en breve con esta tecnología capaz de derribar barreras en nombre de nuestra ciencia.

Por Iñaki Eiguren


La nueva generación de Centros de Supercomputación

Una vez iniciado el siglo XXI, los centros de cálculo orientados al cálculo científico presentan unas características muy diferentes no tanto en su diseño y configuración, como en su estrategia, es decir, en su modelo de negocio y orientación hacia el mundo de la investigación científica.

Los países occidentales orientan sus políticas a potenciar la investigación y la innovación para generar un alto valor generador de empleo de calidad. La humanidad requiere importantes avances en el conocimiento científico que permitan encontrar soluciones en climatología, recursos hidráulicos, energías alternativas, medicina, biología y seguridad; sin olvidar los requerimientos de las empresas en el desarrollo de la ingeniería civil, la electrónica, la mecánica y las comunicaciones.

Esencialmente, los problemas de los investigadores actuales que requieren el servicio de una informática de cálculo, radican en conseguir facilidad de acceso, capacidad de gran almacenamiento de datos, alta velocidad de ejecución de trabajos, interactividad para modificar los parámetros, visualización de modelos muy complejos, disponibilidad asegurada del servicio, herramientas software estándares y abiertas, soporte humano para el desarrollo de rutinas y aplicaciones específicas, colaboración y compartición de conocimientos a escala global y financiación sostenida. Es decir, una larga lista de deseos por otra parte indispensables, para que puedan dedicarse a abordar grandes retos sin preocuparse de la infraestructura de cálculo.

La iniciativa pública para implantar Centros de Supercomputación se orienta principalmente a desarrollar una nueva generación de profesionales y empresas en el ámbito local, que ejerzan actividades alrededor de la Ciencia y la Tecnología con miras a conseguir una sociedad de mayor nivel intelectual y por tanto con un futuro más esperanzador. Los usuarios son por tanto, las empresas necesitadas de soporte informático de cálculo y las Universidades y Centros de Investigación públicos.

Los ciclos de retorno de la inversión en los proyectos de tecnología en la empresa, permiten una facturación por servicios informáticos que sostengan los gastos del Centro de Supercomputación en gran medida. Sin embargo, los proyectos en Ciencias puras solo son viables con una financiación proveniente de la administración pública, ya que supondrán avances importantes para la sociedad a muy largo plazo.

Los nuevos Centros de Supercomputación están pensados para admitir muchos usuarios de diversa índole, con formas simples de acceso y sin conocimientos informáticos avanzados. Por tanto, la infraestructura debe ser modular, flexible, basada en estándares, siempre disponible, con canales de comunicación de alta velocidad, en ambientes seguros tolerantes a fallos y a desastres, con capacidad de crecimiento de forma sencilla, diseñados para optimizar el consumo energético y con una gran biblioteca de herramientas software sobre los distintos sistemas operativos actuales.

Además deben contar con una estructura de administradores informáticos, especialistas en lenguajes de programación y en redes que ayuden a los investigadores y les descarguen de tener que aprender informática para poder dedicarse a su faceta profesional.

Por otro lado, se debe de disponer de un comité de arbitraje que asigne prioridades a los distintos proyectos y que promueva la relación internacional en redes GRID y en la colaboración en proyectos de ámbito global. Dicho comité debe poseer criterio para actuar con rigor y eficacia en función de las necesidades y objetivos de la comunidad.

La ubicación física de los nuevos Centros de Cálculo dentro de los campus universitarios supone aprovechar la experiencia y sabiduría de los mayores expertos en todas las ramas de la Ciencia en la formación de este comité. También permite generar sinergias con la comunidad académica para localizar a los mejores especialistas y ofrecer una gran oportunidad profesional. La Universidad puede además aportar servicios generales en administración, recursos humanos, seguridad, mantenimiento y logística que reducen los costes generales del Centro de Cálculo, así los últimos grandes Centros instalados en Europa han sido implantados en las Universidades de Karlruhe, Linkoping, Tromso, Santiago de Compostela, Barcelona, etc.…

Alguna amarga experiencia ha habido en España, que nos ha enseñado como un Centro de Supercomputación de prestigio en la década de los 90, caía en el ostracismo por estar físicamente apartado del ámbito universitario, perdiéndose casi toda la inversión en infraestructura y el liderazgo en las políticas de investigación de la región.

Los Nuevos Centros de Supercomputación son entidades vivas con una renovación tecnológica completa en plazos de cuatro a cinco años. Las necesidades siempre crecientes de los investigadores y la evolución del hardware hacia elementos más productivos con menor consumo y menor mantenimiento, obligan a una actualización que mantenga los requerimientos exigidos de los usuarios y que permitan abordar proyectos a largo plazo. Existen estimaciones de crecimientos exponenciales en la capacidad de proceso y almacenamiento que auguran grandes posibilidades de abordar desafíos investigadores hasta ahora solo en los sueños de los científicos.

La nanotecnología, la proteómica, la astrofísica, la simulación y muchas otras áreas podrán dar grandes pasos adelante. So podrán realizar predicciones climatológicas a largo plazo y con alta precisión y fiabilidad, se podrá conocer el comportamiento de los volcanes y predecir movimientos telúricos, se podrán desarrollar medicamentos que modifiquen la estructura genética del enfermo, se podrá fabricar productos con nuevos materiales más resistentes, ligeros y flexibles, se podrá conocer el origen del Universo y de la Vida. Todo ello permitirá generar riqueza intelectual y económica a la vez que supondrá un gran beneficio a la raza humana.
Por Isidro Cano

Supercomputación, la Fórmula 1 de la Informáticaihzkef


Al igual que en el mundo del motor, la informática es un sector que necesita un banco de pruebas en donde se lleven a cabo experiencias reales muy exigentes. La Supercomputación es el tejido ideal para ello dado que supone la ejecución de complejos programas de cálculo científico que requieren de las mayores prestaciones en informática.


El sector de la supercomputación, también llamado cálculo científico o HPC (high performance computing) abarca los centros de proceso de datos tanto públicos como privados y que dan servicio a entidades investigadoras, Universidades y proyectos de iniciativa privada.

Es un segmento de mercado de pequeño valor porcentual respecto a toda la informática, pero es de importancia capital para los fabricantes de hardware y software. La Supercomputación tiene un valor crítico y estratégico. Los avances en la supercomputación de hoy se convertirán en avances de la informática comercial del mañana.

Centrándonos en las tecnologías de supercomputación, se crea un ciclo continuo de innovación que permite la evolución de las tecnologías de la información. En las últimas décadas, las arquitecturas de servidores y redes así como el empleo de Internet han sido previamente empleados y optimizados en HPC y su empleo masivo ha llegado posteriormente con el éxito conocido de todos.

Actualmente se emplean los llamados Superordenadores en casi todas las áreas investigación científica, en meteorología, exploración de hidrocarburos, defensa e industria automovilística y aeroespacial. Pero poco a poco se extiende el ámbito a otras aplicaciones, por ejemplo, recientemente las entidades dedicadas al mercado de capitales también emplean estas supermáquinas para analizar el comportamiento de productos financieros.

Muchas empresas y organismos públicos se ven influenciadas en mayor o menor medida por este segmento de la tecnología informática. A raíz de avances informáticos se han llegado incluso a crear nuevos subsectores empresariales como el de la Biotecnología que congrega empresas de todo el mundo en torno a la investigación en genética y proteómica, llevados a cabo por superordenadores o redes internacionales de cálculo bioinformático.

Las tendencias tecnológicas de este sector se centran en la compartición de recursos informáticos. Dado lo elevado de las inversiones necesarias en infraestructuras (los centros actuales contienen miles y decenas de miles de procesadores) se intenta interconectar los CPD’s entre sí en las denominadas GRID o redes de intercambio de servicios de computación.

Además se implantan ordenadores estándares (siempre más económicos y fáciles de mantener) en los llamados clusters o granjas de servidores, que corren normalmente con software abierto sobre sistema operativo LINUX, ampliamente conocido por los profesionales del sector y con costes muy bajos. Con estos sistemas informáticos se abordan los retos de crecimiento continuo (escalabilidad) así como la flexibilidad y manejabilidad que se requieren para adaptarse a los distintos proyectos de investigación actuales.

Aunque los ordenadores actuales son muy rápidos y potentes, manejando fluidamente grandes volúmenes de datos a través de redes de comunicaciones de última generación, la realidad es que aún queda mucho por mejorar puesto que los científicos abordan desafíos hasta ahora impensables, el llamado “gran challenge application” o aplicaciones software para las cuales todavía no se ha construido el superordenador capaz de soportarlo. Ello obliga a la industria informática y de telecomunicaciones a una continua innovación y a grandes inversiones en nuevos materiales y dispositivos que al final beneficiarán a toda la comunidad de usuarios informáticos.

Grandes fabricantes como HP ponen en marcha programas de colaboración con entidades científicas de todo el mundo, con financiación cruzada y con transferencia de tecnología de forma que se puedan abordar retos muy significativos. En España, proyectos como ORIGENES, destinado a desvelar el origen de la vida, o iniciativas en Bioinformática y Proteómica así como en ciencias medioambientales, son un ejemplo de los acuerdos llevados a cabo con centros de investigación públicos y en donde participan científicos españoles con ingenieros de los laboratorios de la corporación de la multinacional informática.

España ha conquistado en los últimos años un papel mucho más importante que en el pasado, dentro de los rankings de superordenadores en activo, teniendo ahora una infraestructura de cálculo que impulsa incluso proyectos de la empresa privada con recursos locales. Es fundamental la inversión en I+D para no quedarnos en la cola del mundo civilizado, es fundamental por tanto disponer también de algunos buenos F1 informáticos.
Por Isidro Cano. Director de Supercomputación HP España


Sin las supercomputadoras no habría ciencia moderna

El proyecto Delta Metropolitana será presentado oficialmente en noviembre, siendo uno de los más innovadores no sólo del país sino de la región, pues aplicará la tecnología grid.

Resolver las ecuaciones de Albert Einstein o descifrar qué es lo que sucede cuando dos hoyos negros se colisionan, “son problemas que jamás se podrían solucionar de manera exacta a través de lápiz y papel, sólo a través de aproximaciones numéricas y códigos computacionales complicados”, señala a El Economista.com.mx el científico de la UNAM, Dr. Miguel Alcubierre Moya.

Así para científicos de la talla de Alcubierre, una supercomputadora se convierte en “una herramienta indispensable para hacer cálculos que son imposibles para un ser humano, nos llevarían millones de años”.

Sin estas súper máquinas, “quizá yo no sería científico y me tendrían que dedicar a otra cosa” asegura el miembro del Instituto de Ciencias Nucleares, quien está convencido de que estos equipos son una parte fundamental de la ciencia moderna.

¿Qué es el Supercómputo?

“Se refiere a la utilización de computadoras con grandes capacidades de cálculo, memoria, almacenamiento y comunicaciones, con las que se estudian fenómenos representados por modelos numéricos, cuyo tratamiento requiere capacidades computacionales que van mucho más allá de las proporcionadas por los equipos convencionales”, así lo señala el Laboratorio de Supercómputo de la UNAM en su página de Internet.

Grids: la unión hace la fuerza

Cray creó la tecnología “Procesadores Masivamente Paralelos” que condujo a las máquinas ultrarrápidas. El investigador del departamento de Cómputo del Cinvestav, Dr. Sergio Chapa, comenta que la primera supercomputadora que llegó a México, en la década de los 70’s, fue la PDP-10, la cuál sólo tenía 128 (kilobytes) en memoria, nada comparable con la actual computadora más rápida del mundo.

Roadrunner, pertenece a EU, y es capaz de realizar 1,000 billones de cálculos por segundo, con el propósito de trabajar con armas nucleares

Hay que destacar que con el paso del tiempo y con la disminución de costos de los equipos, llegó la tecnología computacional distribuida “clusters”, es decir, máquinas que se interconectan entre si a través de redes locales de alta velocidad, para así formar una supercomputadora, que tendrá como objetivo resolver problemas.

En el Cinvestav cuentan con este tipo de tecnología, con la cual realizan grandes simulaciones, como por ejemplo, señala Sergio Chapa, simular el comportamiento de toda la red del agua potable de la ciudad de México, con el objetivo de prevenir algún desastre identificando el fluido de los líquidos, los focos contaminantes o alguna falla en las tuberías.

Si los clusters, por sí solos, son una maravilla por su bajo costo y gran capacidad de procesamiento, ahora se ha sumado la gran velocidad de Internet provocando el surgimiento de los “Grids”, tecnología que sin importar su ubicación geográfica, permite la interconexión entre varios clusters para resolver problemas complejos de diversos usuarios.

Proyecto Delta Metropolitana, reinventando el supercómputo

En México, las principales instituciones académicas que cuentan con supercomputadoras son la UNAM, la UAM, el Centro Nacional de Supercómputo, el CICESE, el IMP, la Universidad de Sonora y el Cinvestav.

Actualmente, el mayor supercomputador mexicano es un cluster de la UNAM, y se llama “KanBalam”, el cual tiene una capacidad de más de siete billones de operaciones aritméticas por segundo.

Sin embargo, está en camino la creación de la supercomputadora más potente de México, la cual, ahora mismo está siendo configurada por especialistas de la UNAM, UAM Iztapalapa y el Cinvestav.

Con dicho desarrollo, se prevé que nuestro país se posicione en el lugar 99 del Top 500 (ranking de las supercomputadoras más rápidas de mundo) y como la número uno de América Latina.

El proyecto Delta Metropolitana, el cual será presentado oficialmente en noviembre, es uno de los más innovadores no sólo del país sino de la región, pues sabemos que únicamente se han desarrollo supercomputadoras a partir de la tecnología grid sólo en Estados Unidos y la Unión Europea y “no se tiene noticia de que en América Latina exista alguno semejante”, señala la UAM Iztapalapa en el suplemento Cemanáhuac.

Así, las tres instituciones mexicanas unificarán -con el apoyo del CONACYT- y compartirán recursos de sus centros de Cómputo de Alto Rendimiento (CAR), con un solo objetivo: que científicos, principalmente del área metropolitana, tenga acceso a estas herramientas para desarrollar proyectos de investigación científica, en meteorología, exploración de hidrocarburos, aeroespacial, nuclear, entre otros.

Karina López / El Economista

Una nueva tecnología promete hacer pasar al olvido a la Internet tradicional. Según los expertos, en unos años “The Grid” llegara a los usuarios comunes

The Grid o "la rejilla" llegara en algún momento al uso masivo. Capaz de bajar una película en solo segundos, esta tecnología se propone como la sucesora de las actuales redes globales. En este sentido, The Grid es capaz de superar a una conexión típica de banda ancha de 3 Megas llegando a la escalofriante suma de 10.000 veces. Un abanico que abre sin lugar a dudas una nueva dimensión en comunicaciones e interconexión del planeta.

Según explica Europress, Internet tal y como la conocemos hoy por hoy podría ser historia en cuestión de unos años si 'The Grid' hace su irrupción en los ordenadores domésticos de todo el mundo. Este sistema es actualmente una red de 100.000 ordenadores creada por los científicos del CERN para almacenar y compartir los datos que emita el nuevo Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) que se calcula podría llegar a llenar 56 millones de CDS anualmente.

'The Grid', sigue explicando el mismo medio, fue creado en el CERN, en el mismo lugar donde en 1989 Tim Berners inventó la 'Web', y funciona a unas 10.000 veces más rápido que las conexiones típicas de Internet de entre 1 y 3 Megas. Su capacidad le permitiría a un usuario normal de Internet descargar películas o canciones en segundo o centésimas de segundo, realizar vídeo llamadas al precio de una llamada local, participar en partidas online de centenares de miles de personas o transmitir imágenes holográficas.

Aunque está diseñado para grandes proyectos de investigación e ingeniería que necesitan mover enormes cantidades de datos, los científicos responsables de 'The Grid' creen que en unos años podría estar al alcance de todos. Así, seguiría un camino similar al de Internet, que en principio fue ideado como una forma de compartir información entre universidades -aunque algunos le atribuyen un origen militar- y, posteriormente, se convirtió en una herramienta casi indispensable en millones de hogares en todo el mundo.

¿Que es el GRID?

Es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una revolución que dará mucho que hablar.

El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación, empresas, etc., se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.

Las características de esta arquitectura serían

Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite; Alta disponibilidad. Con la nueva funcionalidad, si un servidor falla, se reasignan los servicios en los servidores restantes; Reducción de costes: Con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y podremos hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón; Se relaciona el concepto de grid con la nueva generación de Internet. El nuevo protocolo de Internet IPv6 permitirá trabajar con una Internet más rápida y accesible. Una de las ideas clave en la superación de las limitaciones actuales de Internet IPv4 es la aparición de nuevos niveles de servicio que harán uso de la nueva capacidad de la red para intercomunicar los ordenadores.

Este avance en la comunicación permitirá el avance de las ideas de grid computing al utilizar como soporte la altísima conectividad de Internet. Es por ello que uno de los campos de mayor innovación en el uso del grid computing, fuera de los conceptos de supercomputación, es el desarrollo de un estándar para definir los Grid Services frente a los actuales Web Services.

Fuente: Europress - Wikipedia

EL MAYOR SUPERORDENADOR DE ESPAÑA


Viaje a las profundidades del 'Mare nostrum'


Se ha convertido en una referencia mundial en sus primeros tres años de funcionamiento

Tiene 10.240 procesadores y puede realizar 94 billones de operaciones por segundo

Sus simulaciones sirven para desarrollar nuevos fármacos y predecir el cambio climático

Por PABLO JÁUREGUI

BARCELONA.- Lo primero que sorprende es la chocante fusión de dos mundos: lo sagrado y lo profano, lo espiritual y lo tecnológico, lo religioso y lo científico.

MareNostrum, el superordenador más potente de España, se encuentra en el interior de una capilla que construyó en Barcelona una familia de nobles catalanes a principios del siglo XX, y hoy se ha convertido en un espacio desacralizado al servicio de la investigación más puntera de todo el planeta.

El superordenador 'MareNostrum' se halla en el interior de una capilla desacralizada. (Foto: Domènec Umbert)

Debido a esta insólita ubicación, cuando uno recorre las tripas de esta gigantesca computadora, impresiona el contraste entre las 40 torres metálicas que albergan sus 10.240 procesadores de última generación -capaces de realizar 94 billones de operaciones por segundo-, y la ancestral simbología cristiana que decora las vidrieras de sus muros.

«Somos conocidos en todo el mundo por nuestra potencia de computación, pero sobre todo, por el hecho que el superordenador está instalado en este lugar tan espectacular», reconoce Francesc Subirada, director asociado de este centro inaugurado hace ahora casi tres años, en noviembre de 2005. Impulsado y gestionado por un consorcio formado por el Ministerio de Ciencia e Innovación (51%), la Generalitat (37%), y la Universidad Politécnica de Cataluña (12%), el MareNostrum se ha convertido en una referencia internacional en el campo de la supercomputación.

Al adentrarnos en el interior de la instalación, lo que también impacta es el ruido: un zumbido ensordecedor que provoca el sofisticado sistema de refrigeración que bombea aire frío las 24 horas del día, para evitar el sobrecalentamiento del sistema. El 'MareNostrum' no descansa nunca: día y noche, realiza operaciones que centenares de investigadores de todo el mundo utilizan para simular toda clase de procesos con aplicaciones en disciplinas tan variadas como la biomedicina, la climatología, y la astrofísica.

«Lo que nos permite un supercomputador como el 'MareNostrum' es una gran capacidad para modelar la realidad y predecir resultados que de otra manera no podríamos obtener porque resultaría demasiado caro, peligroso o imposible realizar un experimento», explica Subirada.

Múltiples aplicaciones

En estos momentos, por ejemplo, hay equipos científicos aprovechando el potencial de esta máquina para investigar la eficacia de nuevos tratamientos para diversas enfermedades, mediante la simulación de las reacciones entre fármacos y proteínas.

Otros intentan simular los diferentes escenarios climáticos que podrían provocar los gases contaminantes que están desencadenando el calentamiento global. Y algunos incluso intentan reproducir los primeros momentos posteriores al 'Big Bang', como en el recientemente inaugurado acelerador de partículas del CERN en Ginebra, para desentrañar nuevas claves sobre los orígenes del Universo.

En el 80% de los casos, los científicos que obtienen autorización para aprovechar la capacidad de cálculo del 'MareNostrum' -tras pasar por el filtro de un comité de expertos que decide cada cuatro meses quién puede usar la máquina- pertenecen a organismos públicos de investigación para los que este servicio es totalmente gratuito. Sin embargo, aproximadamente un 20% del tiempo se reserva para empresas que alquilan la máquina para aprovechar su potencia de cálculo.

Un ejemplo notable es el de Repsol, que ya ha adoptado decisiones sobre las zonas concretas en las que va a realizar prospecciones de petróleo en el Golfo de México, basándose en las simulaciones geológicas realizadas con el 'MareNostrum'. Además, también hay empresas en los sectores de la aviación y el automóvil que están aprovechando el potencial del superordenador para desarrollar nuevos modelos de vehículos más eficientes y aerodinámicos.

«El 'MareNostrum' está permitiendo a España jugar en la primera división de la supercomputación», asegura José María Baldasano, director del Área de Ciencias de la Tierra del Barcelona Supercomputing Center (BSC) donde se ubica el ordenador. De hecho, las simulaciones que realiza este científico sobre el calentamiento global con el MareNostrum se van a utilizar para elaborar el próximo informe del Panel Intergubernamental del Cambio Climático (IPCC) de la ONU. «Esto refleja el peso científico que hemos adquirido en el mundo gracias a este proyecto», concluye Baldasano.

100 razones para migrar de Windows a Linux

Por: Anuxi Varilla

1. No tienes que activar Linux por teléfono o Internet.

2. Si cambias tu hardware y reinstalas Linux no tienes que llamar a nadie para justificarte.

3. No hay nada parecido a un "Linux Genuine Advantage".

4. Los vendedores de Linux normalmente no te cobran ni un duro.

5. Y no le dan 10 millones de dólares de sus ganancias a Jerry Seinfeld.

6. Puedes instalar Linux en tantos PCs como quieras.

7. Puedes regalárselo a tus amigos y familia.

8. Puedes descargarlo y tostarte CDs y DVDs hasta que te aburras.

9. No tienes que introducir complejas claves de producto.

10. No tienes que guardarte esas claves para tu seguridad.

11. Nadie tiene que vender un ordenador de segunda mano con Linux y luego estar escuchando críticas del comprador porque Word no está preinstalado en el ordenador.

12. No tienes que explicarle a los usuarios de Linux que Windows 97 no existe, ni tampoco Office 98, o que la famosa "cinta" o "ribbon" no está presente en Vista.

13. ¿Te gusta Internet? El protocolo TCP/IP se desarrolló en máquinas UNIX. Es algo natural en Linux, no como en Windows que dio soporte a TCP/IP de forma nativa tan sólo a partir de Windows 2000.

14. ¿Te gusta programar? El lenguaje de programación C se desarrolló en UNIX.

15. Además, muchos lenguajes de script muy conocidos comenzaron su andadura en el mundo Linux/UNIX.

16. Si aprendiste PGP serás capaz de escribir aplicaciones para Windows Server 2008, que da soporte a PHP de serie, no como ocurre con el ASP.NET de Microsoft, que no está soportado de serie en WS2008.

17. No necesitarás desfragmentar discos en Linux. Nunca.

18. Y aunque no sea el caso, el vendedor te dirá que el sistema está libre de mantenimiento, ya que puedes programar una tarea para desfragmentar.

19. No te tienes que preocupar de los virus de ordenador.

20. Puedes estar seguro de que tu experiencia informática será más segura ya que la propia filosofía de Linux y de su gestión de procesos hace que estos siempre se ejecuten con el mínimo nivel de privilegios.

21. Linux es protagonista en la Informática de Alto Rendimiento (HPC).

22. De hecho, el 80% de los 500 supercomputadores de todo el mundo corren Linux.

23. Linux revitalizará tu viejo hardware y dará un rendimiento increíble en viejas máquinas.

24. Hará también mejor uso de tu hardware moderno.

25. No tendrás que "reiniciar de forma rutinaria" tus servidores Linux.

26. Si necesitas una suite ofimática puedes descargar Open Office y utilizarla. No hay gasto adicional.

27. Si necesitas una aplicación para publicar documentos dispones de Scribus.

28. La utilidad de actualización de software de Linux se hace cargo de todo, no solo del sistema operativo y de las utilidades que se incluyen en la instalación, sino de todo el resto de aplicaciones y paquetes instalados.

29. No tendrás problemas con aplicaciones que no te puedes permitir. Casi todo el software es de libre distribución.

30. No tienes que tener software pirata porque no te puedes permitir el original. Por lo mismo, claro.

31. Linux es mucho más fácil de configurar. No existe ese complejo registro, ni tampoco elementos de configuración ocultos tras un sinfín de pestañas o localizaciones distintas.

32. Todas tus preferencias respecto a las aplicaciones se almacenan en tu directorio raíz, lo que facilita trasladarlas a otro ordenador.

33. Linux es un sistema operativo abierto. Si hay un problema de seguridad, podrás conocer todos los detalles. Hay mucha mayor transparencia.

34. No dependes de un vendedor/desarrollador único en Linux. No dependes de una única entidad para que siga funcionando.

35. Linux es versátil. Puedes usar la misma distribución en una plataforma de 32 o 64 bits, en un servidor MIPS, en una estación de trabajo SPARC y en otras arquitecturas. Te encontrarás con el mismo resultado, que además se aprovechará al máximo de la configuración hardware.

36. Los grupos de usuarios de Linux son muy numerosos y siempre están más que dispuestos a compartir su conocimiento, además de consejos e ideas.

37. Linux te anima a aprender más sobre tu ordenador y cómo hacer mejor uso de él.

38. Linux es usable: la interfaz por defecto es buena, pero puedes personalizarla para que se parezca, si así lo quieres, a Windows XP o Mac OS X, lo que hace fácil adaptar a los usuarios de Windows XP a Linux, por ejemplo.

39. Linux está avanzando a un ritmo que un proyecto cerrado y propietario como Microsoft Windows es incapaz de sostener.

40. Linux no se cuelga sin razón aparente. Un navegador que se cuelga no puede provocar un cuelgue general del sistema.

41. Linux no se reinicia a sí mismo, y las actualizaciones automáticas no te forzarán a ello de forma inmediata.

42. Linux puede leer y escribir en decenas de sistemas de ficheros, incluidos los de Windows, luego podrás manejar tus datos en estas particiones sin problemas.

43. Dispones del código fuente de todo el sistema y las aplicaciones para hacer lo que quieras con él si tienes los conocimientos necesarios.

44. Linux se instalará sin problemas en cualquier partición lógica, no sólo en las primarias.

45. Linux puede funcionar desde un CD sin afectar lo que ya tienes instalado en tu PC.

46. Puedes usar un LiveCD, por ejemplo, para acceder a tu banco online sin miedo a virus o troyanos.

47. Puedes usar un CD de Linux para comprobar cómo funcionará tu hardware sin tener que preocuparte por lo que hacer si las cosas no funcionan.

48. Linux y su herencia UNIX hacen de este el sistema operativo mejor documentado.

49. Linux dispone de herramientas de gestión de paquetes excelentes que hacen sencillísimo instalar y actualizar aplicaciones (o eliminarlas).

50. Linux dispone de algunos juegos sobresalientes. Puede que no sea un argumento muy destacable, pero hay juegos que sólo están disponibles para Linux y son fantásticos.

51. Esto también incluye a juegos educativos, como la aplicación GCompris, ideal para entornos de este tipo.

52. Si quieres, también puedes jugar a juegos de Windows bajo Linux.

53. Linux dispone de un entorno de escritorio con efectos 3D y una usabilidad impresionante.

54. El TCO (Total Cost of Ownsership) es una palabra típica de entornos empresariales, y en este apartado Linux machaca a Windows.

55. Linux interopera con todos: con Windows, con Mac OS, con otras distribuciones de Linux, con UNIX, OS/2... ¡E incluso PlayStations!

56. Linux soporta una gran cantidad de dispositivos hardware.

57. Linux es más fácil de instalar.

58. Linux ofrece un par de soluciones de antivirus gratuitas, orientadas a ayudar a los usuarios con Windows.

59. Puedes crearte tu propia distribución si así lo quieres, por ejemplo, diseñándola para tu familia.

60. Linux ofrece un montón de herramientas de seguridad. Puedes diagnosticar y gestionar tu entorno de red gratuitamente, algo que en Windows te costaría un quintal.

61. Algunas de estas utilidades también están disponibles en Windows, pero a menudo con funciones limitadas.

62. Linux ofrece compatibilidad de serie con todos los nuevos Net Books que han revolucionado el mercado portátil.

63. El proyecto One Laptop Per Child también habría sufrido si estuviera restringido a sistemas operativos propietarios.

64. Linux te puede ayudar a erradicar el spam sin coste alguno con soluciones como Spam Assassin.

65. La filosofía Open Source te protege de temas maliciosos.

66. Tampoco tendrás problemas como los que afectaron a los usuarios que instalaron iTunes y sin que se les avisase acabaron con el navegador Safari también instalado.

67. Todo tipo de escuelas alrededor del mundo han señalado la reducción de costes al usar Linux.

68. Según una encuesta, los programadores Open Source ganan más que sus homólogos en Windows.

69. Incluso puedes conseguir que Google te esponsorice para contribuir a proyectos Open Source gracias al tradicional Google Summer of Code.

70. Windows Vista pone a prueba tu hardware, mientras que con Linux consigues el mejor rendimiento de tus componentes.

71. Linux ofrece a las empresas un entorno para servidores muy superior al de Microsoft.

72. Cada vez más usuarios de Windows Vista migran a Linux.

73. El software Open Source ofrece versiones superiores de Microsoft Office SharePoint Server que las que ofrece Microsoft.

74. Linux está disponible solo cuando está totalmente preparado.

75. Además, los desarrolladores tienen mucha reputación, ya que cada nueva versión del sistema está muy pulida por ellos.

76. Linux siempre es y será un sistema operativo multiusuario.

77. Linux te permite utilizar el sistema operativo en tantas particiones y discos duros como desees, y todas ellas seguirán pudiendo parecer un único disco.

78. Gracias a los enlaces simbólicos es fácil solucionar problemas de espacio en disco instalando otra unidad y ampliando el espacio a ella con técnicas como el uso de esos enlaces simbólicos.

79. Linux dispone de lenguajes de script increíblemente potentes.

80. La línea de comandos de Linux permite recuperar sentencias que utilizaste hace mucho.

81. Linux te deja colocar una ventana por encima de todas las demás con facilidad.

82. El Proyecto Honeypot demostró que un sistema Linux sin parchear puede ser utilizado como servidor en Internet sin que se vea comprometido en meses, algo que ocurre en horas en servidores Windows.

83. En el mundo Windows se dice que un administrador de sistemas Linux es más caro, y puede ser, pero porque entre otras cosas esta persona puede controlar muchos más servidores que uno de Windows, y porque estos sistemas son más versátiles.

84. Un sistema con Linux preinstalado puede ser usado para muchas más cosas que un sistema con Windows preinstalado nada más haber salido de la caja.

85. Puedes ponerle Linux a tus padres y abuelos y no tendrán problemas: podrán realizar las tareas que más les gustan sin dificultad.

86. No tendrás a tu padre llamándote para preguntarte qué pasa con los cuelgues de ese extraño archivo llamado RUNDLL32.EXE.

87. Y hablando de tus padres, en Linux se instalan de serie un montón de juegos de cartas.

88. Tux es la mascota más chula del momento. No como la de Windows... ¿unas ventanas de colores?

89. Linux es más ecológico, ya que evita todo ese gasto de papel que se gasta en la distribución de productos Windows.

90. Linux permite seguir aprovechando máquinas que dado el ritmo de cambios en el hardware al poco se quedan antiguos para las modernas versiones de Windows.

91. Linux te permite ser más productivo, con cosas como el establecimiento de distintos escritorios de trabajo.

92. Linux es más amigable que Windows.

93. Linux está diseñado por personas que buscan en todo momento maximizar el rendimiento, no los beneficios.

94. Algunos fabricantes como ASUS están empezando a integrar Linux incluso en sus placas base.

95. Linux no morirá como le ha ocurrido a otras alternativas como BeOS, AmigaOS o OS/2.

96. La industria cada vez respeta y apoya más a Linux.

97. Linux no restringe qué contenidos se usan en el sistema. No hay plataformas DRM molestando.

98. Si tienes un problema con algún proceso en Linux, puedes matarlo sin problemas y de forma definitiva.

99. Linux sigue manteniendo su filosofía original, y no ha ido variándola con el tiempo como ha hecho Windows para ir usando cosas como TCP/IP o el nuevo UAC.

100. Linux funciona.