Monday, June 04, 2007

Parte 6 Historia de la COMPUTACION


14. Redes Informáticas


Una Red es una manera de conectar varias computadoras entre sí, compartiendo sus recursos e información y estando conscientes una de otra. Cuando las PCs comenzaron a entrar en el área de los negocios, el conectar dos PCs no traía ventajas, pero esto desapareció cuando se empezaron a crear los sistemas operativos y el Software multiusuario.


Topología de Redes
La topología de una red, es el patrón de interconexión entre nodos y servidor, existe tanto la topología lógica (la forma en que es regulado el flujo de los datos), cómo la topología física (la distribución física del cableado de la red).

Las topologías físicas de red más comunes son:


Topología de Estrella: Red de comunicaciones en que la que todas las terminales están conectadas a un núcleo central, si una de las computadoras no funciona, esto no afecta a las demás, siempre y cuando el "servidor" esté funcionando.

Topología Bus Lineal: Todas las computadoras están conectadas a un cable central, llamado el "bus" o "backbone". Las redes de bus lineal son de las más fáciles de instalar y son relativamente baratas.

Topología de Anillo: Todas las computadoras o nodos están conectados el uno con el otro, formando una cadena o círculo cerrado.

Tipos de Redes


Según el lugar y el espacio que ocupen, las redes, se pueden clasificar en dos tipos:
Redes LAN (Local Área Network) o Redes de área local
Redes WAN (Wide Área Network) o Redes de área amplia

1) LAN (Redes de Área Local)
Es una red que se expande en un área relativamente pequeña. Éstas se encuentran comúnmente dentro de una edificación o un conjunto de edificaciones que estén contiguos. Así mismo, una LAN puede estar conectada con otras LAN a cualquier distancia por medio de línea telefónica y ondas de radio.
Pueden ser desde 2 computadoras, hasta cientos de ellas. Todas se conectan entre sí por varios medios y topología, a la computadora que se encarga de llevar el control de la red es llamada "servidor" y a las computadoras que dependen del servidor, se les llama "nodos" o "estaciones de trabajo".

Los nodos de una red pueden ser PCs que cuentan con su propio CPU, disco duro y software y tienen la capacidad de conectarse a la red en un momento dado; o pueden ser PCs sin CPU o disco duro y son llamadas "terminales tontas", las cuales tienen que estar conectadas a la red para su funcionamiento.
Las LAN son capaces de transmitir datos a velocidades muy rápidas, algunas inclusive más rápido que por línea telefónica; pero las distancias son limitadas.

2) WAN (Redes de Área Amplia)
Es una red comúnmente compuesta por varias LAN interconectadas y se encuentran en un área geográfica muy amplia. Estas LAN que componen la WAN se encuentran interconectadas por medio de líneas de teléfono, fibra óptica o por enlaces aéreos como satélites.
Entre las WAN más grandes se encuentran: la ARPANET, que fue creada por la Secretaría de Defensa de los Estados Unidos y se convirtió en lo que es actualmente la WAN mundial: INTERNET, a la cual se conectan actualmente miles de redes universitarias, de gobierno, corporativas y de investigación.

Componentes de una Red

1.-Servidor (server): El servidor es la máquina principal de la red, la que se encarga de administrar los recursos de la red y el flujo de la información. Muchos de los servidores son "dedicados”, es decir, están realizando tareas específicas, por ejemplo, un servidor de impresión solo para imprimir; un servidor de comunicaciones, sólo para controlar el flujo de los datos...etc. Para que una máquina sea un servidor, es necesario que sea una computadora de alto rendimiento en cuanto a velocidad y procesamiento, y gran capacidad en disco duro u otros medios de almacenamiento.

2.- Estación de trabajo (Workstation): Es una computadora que se encuentra conectada físicamente al servidor por medio de algún tipo de cable. Muchas de las veces esta computadora ejecuta su propio sistema operativo y ya dentro, se añade al ambiente de la red

3. -Sistema Operativo de Red: Es el sistema (Software) que se encarga de administrar y controlar en forma general la red. Para esto tiene que ser un Sistema Operativo Multiusuario, como por ejemplo: Unix, Netware de Novell, Windows NT, etc.

4. -Recursos a compartir: Al hablar de los recursos a compartir, estamos hablando de todos aquellos dispositivos de Hardware que tienen un alto costo y que son de alta tecnología. En estos casos los más comunes son las impresoras, en sus diferentes tipos: Láser, de color, plotters, etc.

3. - Hardware de Red: Son aquellos dispositivos que se utilizan para interconectar a los componentes de la red, serían básicamente las tarjetas de red (NIC-> Network Interface Cards) y el cableado entre servidores y estaciones de trabajo, así como los cables para conectar los periféricos.


Tecnologías Futuras.

La nanotecnología basada en el nanómetro, del cual la unidad es la mil millonésima parte de un metro, permite a los científicos tener nuevos conceptos de diagnósticos de enfermedad y tratamiento a una escala molecular y atómica. Al utilizar partículas de nanómetro, un médico puede separar las células del feto de la sangre de una mujer embarazada para ver si el desarrollo del feto es normal. Este método también está siendo utilizado en los diagnósticos tempranos de cáncer y de enfermedades cardíacas.

Uno de los impactos más significativos de la nanotecnología es en la interface de los materiales bio-inorgánicos, de acuerdo con Greg Tegart, consejero ejecutivo del Centro de APEC para la Previsión de Tecnología. Al combinar enzimas y chips de silicona podemos producir biosensores. Estos podrían ser implantados en seres humanos o animales para monitorear la salud y enviar dosis correctivas de drogas.

La nanotecnología podría afectar la producción de virtualmente todo objeto hecho por el hombre, desde automóviles, llantas y circuitos de computadoras, hasta medicinas avanzadas y el reemplazo de tejidos y conducir a la invención de objetos que aún están por imaginarse. Se ha mostrado que los nanotubos de carbón son diez veces más fuertes que el acero, con un sexto del peso, y los sistemas de nanoescala tienen el potencial de hacer el costo del transporte supersónico efectivo e incrementar la eficiencia de la computadora en millones de veces. Al disfrutar más y más gente de la navegación por Internet, los científicos han comenzado la investigación de la nueva generación de Internet. La tercera generación de Internet, conocida como la cuadrícula de servicio de información (ISG, siglas en inglés), conectará no sólo computadoras y sitios web, sino también recursos informativos, incluyendo bases de datos, software y equipo informativo. La cuadrícula proveerá a los suscriptores de servicios integrados precisamente como una computadora supergrande.

Por ejemplo, cuando un suscriptor vaya a viajar, el o ella sólo necesitará introducir datos en el número de turistas, destino, tiempo y otros factores. Entonces el ISG contactará automáticamente aerolíneas, estaciones de tren, agencias de viajes y hoteles para preparar un programa de viaje para el suscriptor y terminar todo el trabajo necesario como la reservación de boletos y de cuartos.

Ordenadores Cuánticos y Moleculares.

La velocidad y el tamaño de los micros están íntimamente relacionadas ya que al ser los transistores más pequeños, la distancia que tiene que recorrer la señal eléctrica es menor y se pueden hacer más rápidos. Al ser los transistores cada vez más pequeños la cantidad de ellos contenidos en un microprocesador, y por consiguiente su velocidad, se ha venido duplicando cada dos años. Pero los estudios revelan que este ritmo no se puede mantener y que el límite será alcanzado tarde o temprano, ya que si se reduce más, las interferencias de un transistor provocarían fallos en los transistores adyacentes.

Con el fin de superar estos límites de tamaño y velocidad se está trabajando en la actualidad en varios centros de investigación de todo el mundo en dos líneas que pueden revolucionar el mundo de la informática: Los ordenadores cuánticos y los ordenadores de ADN.


Los Ordenadores Cuánticos

Los ordenadores utilizan bits para codificar la información de modo que un bit puede tomar el valor cero o uno. Por contra, los ordenadores cuánticos utilizan los qubits (bits cuánticos) para realizar esta tarea. Un qubit almacena la información en el estado de un átomo, pero por las propiedades de los átomos hacen que el estado no tenga porque ser cero o uno, sino que puede ser una mezcla de los dos a la vez. Así, al poder almacenar una mezcla de ambos valores a la vez en cada qubit podemos tratar toda la información de una sola vez.


Su procesador consta de algunos átomos de hidrógeno y carbono en una molécula de cloroformo con los spines de sus núcleos alineados por radiofrecuencias, usando las técnicas usuales de resonancia magnética de origen nuclear (NMR). Podría ser el inicio de la nanotecnología, idea propuesta por Eric Drexler, quien, como estudiante del MIT en los años 70, consideraba la posibilidad de construir máquinas con unos pocos átomos que puedan programarse para construir otras, eventualmente millones.

Gracias a estas propiedades los ordenadores cuánticos tienen una especial capacidad para resolver problemas que necesitan un elevado número de cálculos en un tiempo muy pequeño. Además, como estarán construidos con átomos, su tamaño será microscópico consiguiendo un nivel de miniaturización impensable en los microprocesadores de silicio.
Por desgracia, en la actualidad aún no se ha llegado a construir ordenadores cuánticos que utilicen más de dos o tres qubits. Aún así, hay un gran número de centros de investigación trabajando tanto a nivel teórico como a nivel práctico en la construcción de ordenadores de este tipo y los avances son continuos. Entre los principales centros destacan los laboratorios del centro de investigación de Almaden de IBM, AT&T, Hewlett Packard en Palo Alto (California), el Instituto Tecnológico de Massachusetts (MIT) y universidades de todo el mundo como la de Oxford Standford, Berkeley, etcétera.

Computadoras de ADN.

La computación molecular consiste en representar la información a procesar con moléculas orgánicas y hacerlas reaccionar dentro de un tubo de ensayo para resolver un problema.
La primera experiencia en laboratorio se realizó en 1994 cuando se resolvió un problema matemático medianamente complejo. Para ello se utilizó la estructura de moléculas de ADN para almacenar la información de partida y se estudió las moléculas resultantes de las reacciones químicas para obtener la solución.


Por una parte, esta técnica aprovecha la facultad de las moléculas de reaccionar simultáneamente dentro de un mismo tubo de ensayo tratando una cantidad de datos muy grande al mismo tiempo. Por otro lado, el tamaño de las moléculas los sitúa a un tamaño equiparable al que se puede conseguir con los ordenadores cuánticos. Otra ventaja importante es que la cantidad de información que se puede almacenar es sorprendente, por ejemplo, en un centímetro cúbico se puede almacenar la información equivalente a un billón de CDs.

Si comparamos un hipotético computador molecular con un supercomputador actual vemos que el tamaño, la velocidad de cálculo y la cantidad de información que se puede almacenar son en extremo mejoradas. La velocidad de cálculo alcanzada por un computador molecular puede ser un millón de veces más rápida y la cantidad de información que puede almacenar en el mismo espacio es un billón de veces (1.000.000.000.000) superior.

Aunque aún no se pueden construir ordenadores de este tipo, desde la primera experiencia práctica esta área ha pasado a formar parte de los proyectos más serios como alternativa al silicio. Buena prueba de ello son las investigaciones llevadas a cabo en el marco del DIMACS o "Centro de Matemática Discreta y Computación Teórica" del cual forman parte las universidades Princeton, los laboratorios de AT&T, Bell entre otros.

Otros focos de investigación son el Departamento de Defensa de los Estados Unidos y el Consorcio Europeo de Computación Molecular formado por un importante número de universidades. Científicos israelitas, presentaron una computadora de ADN tan diminuta que un millón de ellas podría caber en un tubo de ensayo y realizar 1.000 millones de operaciones por segundo con un 99,8 por ciento de precisión. Es la primera máquina de computación programable de forma autónoma en la cual la entrada de datos, el software y las piezas están formados por biomoléculas. Los programas de la microscópica computadora están formados por moléculas de ADN que almacenan y procesan la información codificada en organismos vivos.


15. La Computación Vestible

La computación vestible o para llevar puesta (Wearable Computing o WC) intenta hacer que la computadora sea verdaderamente parte de la vida diaria del ser humano, integrándola en la forma de un accesorio tan cómodo de vestir como un reloj de pulsera y tan fácil de usar como un teléfono móvil. Se trata de un sistema completo que porta el usuario, desde la placa principal (el motherboard) hasta la fuente de alimentación y todos los dispositivos de entrada/salida, y que interactúan con él basado en el contexto de la situación.

"Para integrar la computadora de forma imperceptible con el entorno, no basta con que se la pueda llevar a la playa, a la selva o a un aeropuerto. La computadora de bolsillo más potente seguiría centrando la atención del usuario sobre una caja individual. Uno debería estar dentro de la computadora más bien que frente a ella, debería estar en un entorno inmersivo”

En una configuración convencional, la WC constará de un chaleco lleno de chips y sensores conectado al cinturón-batería, de donde se extraerá la alimentación del equipo. La energía generada por la respiración, el calor corporal, los latidos cardíacos y el movimiento de los brazos y las piernas podrá usarse para alimentar a las baterías. Como dispositivo de interfaz, cuenta con micrófonos y antenas diminutos, así como también con unos anteojos especiales equipados con micro cámaras que integran las funciones de cámaras fotográficas, video-cámaras y escáners.

A través del sistema de control visual se puede controlar con la vista muchas de las funciones de la máquina. Aquellas principales se descuelgan de la parte interna de los anteojos en forma de menú de múltiple elección y con sólo mirarlas fijas por un período de 2 segundos o con un simple parpadeo el usuario puede elegir una de ellas. Esta elección puede llevar a un segundo menú en el que se esbozan características secundarias, y así sucesivamente hasta que quede convenientemente detallada la operación que se desea realizar. Aunque resulte increíble, a esa distancia del ojo, la imagen percibida sobre la cara interna de los anteojos, es equivalente a la ofrecida por un monitor común situado a varias decenas de centímetros.

Esto creará una simbiosis íntima entre el hombre y la computadora. La WC responderá a la voz del dueño dándole la información crítica que necesita, en el momento en que la precisa y en cualquier lugar. Por ejemplo, y en el caso de que una persona presencie un hurto, podrá fotografiarlo y enviarlo por Internet ya que, además, uno podrá navegar por la red mientras viaja o camina por cualquier zona del globo. El usuario podrá recibir de manera instantánea aquellas informaciones que particularmente le interesen; podrá enlazarse con la red de posicionamiento global para saber en cualquier momento su ubicación y nunca se olvidará del cumpleaños de ninguno de sus amigos. Asimismo, ofrece la posibilidad para tomar notas y procesarlas en el momento, algo verdaderamente útil ya que evita la sobrecarga de pensamientos y libera a la mente de "recursos" para permitir que surjan nuevas ideas. Incluso, permitirá organizar mejor los pensamientos, ya que recuperará para el usuario todo lo que anteriormente escribió, leyó, vio y escuchó sobre el mismo tema, complementando o aumentando su información.

La principal aplicación de las WC será la adquisición, el almacenamiento y la recuperación de la información, y la idea es que estén "siempre encendidas" en contraste con las computadoras que están "casi siempre apagadas".



No comments: