jueves, 23 de abril de 2009

Historia del ordenador

El vídeo sobre la historia del ordenador comienza hablando del ASCI White, la computadora más potente del mundo, compuesta por 8.000 ordenadores sincronizados. Es el encargado de la seguridad nacional de EEUU y nació a partir de la prohibición de Bush padre de realizar pruebas nucleares subterráneas. Es ASCI White debe ser capaz de realizar una simulación fiel de todo lo que ocurre en una explosión nuclear.

Pero para llegar a este punto, debemos ver la evolución que ha sufrido el ordenador desde sus inicios, en el siglo XIX, cuando un científico británico, Charles Babbage, concibió la idea de ordenadores mecánicos para guardar información e imprimirla, basados en tarjetas perforadoras y complejos sistemas de ejes y engranajes. Debido a la imprecisión en su construcción y la falta de fondos, el proyecto fue abandonado tras numerosos fallos.

Hasta finales de ese mismo siglo no se volvió a intentar una cosa así, debido a la oleada de inmigrantes en EEUU que amenazaba con colapsar el censo de población, que hasta 1890 se hacía a mano. También estaba basada en tarjetas perforadas, pero esta vez se utilizaba la electricidad para poder leer sus resultados. Al ver la utilidad de la aplicación, fue empleada para muchas otras cosas.

Hizo falta llegar a la I Guerra Mundial para que se pusiera en marcha el primer ordenador verdadero, el Colossus. Fueron los ingleses de nuevo quienes desarrollaron una máquina capaz de descifrar el código secreto alemán y poder así obtener valiosa información para ganar la Guerra. Durante la II Guerra Mundial nace en EEUU el ENIAC, un superodenador capaz de calcular objetivos de tiro teniendo en cuenta altura, velocidad y dirección del viento y humedad. Era una gran máquina, pero carecía de suficiente memoria y no podía tomar decisiones en función de sus cálculos realizados. Ese fue el siguiente objetivo.

Aquí es cuando aparecen en escena un sistema de entrada, otro de almacenamiento y un sistema de salida de datos. Gracias a todos estos elementos, el ordenador se hizo más útil aún y se podía aplicar para muchas otras cosas, como predecir la victoria de Eisenhower en las elecciones de EEUU. IBM se dio cuenta de que cada vez serían más pequeños y se harían imprescindibles para los negocios.

Debido a la carrera espacial, EEUU trató de reducir el tamaño de los ordenadores para hacer posible su sueño de ser el primero en llegar a la Luna. Con la llegada de los microprocesadores se redujo mucho el tamaño del ordenador.

Xerox introdujo un ordenador con muchas de las características de los pc's de hoy en día. Tenía ratón, teclado y pantalla. También era capaz de imprimir. Sin embargo su elevado precio impidió que revolucionara la informática.

A mediados de los 70, el chip redce su precio y Steve Jobs, junto a su colega Steve Wozniak, desarrollaron un ordenador en un garage. Era el Apple one. Posteriormente llegó el Apple II, que venía listo para ser utilizado sin necesidad de soldar piezas ni montar nada. Además incluía un drive para disketes. Poco después, a comienzos de los 80, IBM responde con el PC.

Sin embargo, estos ordenadores no contenían ratón y no eran sencillos de manejar. A partir de este momento comienza la carrera para ganarse al gran público haciendo que estos ordenadores fueran más manejables y permitieran hacer muchas más cosas a la gente. Surge el Macintosh, con novedades como el software y el ratón. Precisamente fue el software lo que hizo a Bill Gates el hombre más rico del mundo, ya que Microsoft fue la empresa que más vendía en el mundo. Su software era compatible con todos los fabricantes de procesadores. En los 90 la venta de ordenadores se dispararon y comenzaron a interactuar entre ellos y con otros aparatos electrónicos, incluso sin cables.

Actualmente se trabaja en ordenadores moleculares, con el mismo fin de siempre. Hacerlo todo más pequeño. El reto del futuro es que el ordenador sea capaz de interactuar perfectamente con el hombre e incluso implantarse en él para comunicarse con las neuronas y mejorar nuestras capacidades. El problema de multiplicar la capacidad humana hasta límites insospechados es que no siempre puede ser utilizado en el buen sentido...

0 comentarios:

Modified by Blogger Tutorial

Gestión del Conocimiento ©Template Nice Blue. Modified by Indian Monsters. Original created by http://ourblogtemplates.com

TOP