Está en la página 1de 10

La historia de la computadora y la computación:

A revolucionado la manera en la que trabajamos, jugamos, viajamos, y nos comunicamos.


Afecta cada parte de nuestras vidas, ya consiguió ganar guerras, resolver problemas
aparentemente irresolubles y nos lanzó al espacio.
La era de las computadoras no hizo más que comenzar, aún estamos en la edad de piedra.
A medida que vayamos avanzando en el siglo no habrá una distinción clara entre la
inteligencia humana y la de la máquina.
La mayor parte de la gente, hoy en día sabe lo que es un ordenador e incluso algo sobre su
manejo. Estos poseen dispositivos de entrada (por ejemplo: teclado, mouse, etc.)y
dispositivos de salida (por ejemplo: pantalla, impresora, etc. ), el cerebro de la máquina
(CPU).
Por dentro la computadora realiza millones de cálculos por segundo. Sus circuitos
electrónicos solo tienen 2 funciones: pueden estar CONECTADOS o DESCONECTADOS; en
códigos binarios 1 = encendido/verdadero, 0 = apagado/falso. Mediante estos valores se
obtiene la lógica binaria, la cuál permite al ordenador computar, utiliza estos códigos para
realizar cálculos, transformar personas normales en autores, animadores y navegantes de
la red.
El ordenador crea su magia mediante la velocidad a la que puede calcular, un PC medio
realiza 100millones de cálculos por segundo, pero por ejemplo, el Laboratorio Nacional de
Lawrence Livermore contiene la máquina ASCI White la cuál es capaz de realizar 12
trillones de cálculos matemáticos por segundo.

Charles Babbage fue un científico británico que inventó el salva ganado para evitar que los
trenes de vapor descarrilaran chocando contra bovinos. Se lo considera por muchos el
"Padre del Ordenador". A comienzos del siglo XIX concibió la idea de ordenadores
mecánicos, es decir, ordenadores que iban a hacer más que calcular, que podrían guardar
información, almacenar números y volver sobre ellos cuando lo necesitaran e iba a poder
imprimir las respuestas que ofrecía.

Desafortunadamente, estos ordenadores cometían erros frecuentemente, lo que hacia


enfurecer a su inventor. Primero previó un sistema de engranajes y ejes que trabajaban
juntos para hacer cálculos, después de 10 años de trabajo tiró el proyecto a la basura; solo
lo completó para crear un aparato más sofisticado, una máquina que poseyera los
componente básicos de los ordenadores modernos, tarjetas perforadoras, un molino y el
almacén; lo llamó "El motor Analítico". Pero el científico nunca construyó una máquina, ya
que su protoordenador colapsó antes de poder completarlo, fue víctima de herramientas
imprecisas y de la falta de fondos.
Todo esto ocurrió 100 años antes de que se volviera a concebir la idea de un aparato así.
El siguiente paso en la evolución de la computadora vino a finales del siglo XIX, cuando
oleadas masivas de inmigrantes amenazaban con sobre cargar el censo americano de
1890. En 1887 la oficina del Censo aún llevaba la cuenta de el recuento de 1880 a mano.
Por lo tanto, suplicaban por otra forma de tabular los resultados. Entonces fue cuando
Herman Hollerith introdujo una serie de máquinas que harían que el recuento del Censo
fuera fácil
Cada persona estaba representada por una tarjeta, donde los individuos tenían que
perforar las cajas relacionadas con su edad, sexo, raza y profesión. Entonces los
trabajadores del Censo introducían las tarjetas perforadas en las máquinas, la tabulación
se hacía con electricidad, al utilizar clavijas eléctricas los resultados se registraban en una
serie de diales. Otras máquinas separaban las tarjetas, las máquinas de Hollerith
aceleraban de forma vertiginosa el procesamiento de la información, en solo 6 semanas se
había hecho el recuento del Censo de 1890 de 62 mill. 622 mil 250 habitantes. Por lo tanto
Hollerith siguió comercializando ese invento; se dio cuenta de que el Censo era un gran
cliente, y luego fue y consiguió hacer negocio entre los ferrocarriles, y formó una
compañía que se convirtió en la base para la IBM.
La invención de Hollerith fue un hito en el camino de lo mecánico a lo digital, pero todavía
faltarían 50 años y el poder destructivo de una Guerra Mundial, para que arrancara el
primer ordenador verdadero.
Antes de los años 30’s los aparatos mecánicos computacionales se utilizaban para seguirle
la pista a la población, pasajeros de tren y archivos de seguros de vida. Pero los primeros
ordenadores digitales electrónicos se construyeron con un objetivo mucho mas persuasivo
en la mente, ayudar a ganar una Guerra Mundial.
Una de las máquinas mas tempranas se propuso por los británicos para romper el código
alemán, con ello empezaron a creer que se podía ganar la Guerra.
Una de las personas que trabajo para romper el código Enigma fue Alan Turing. En el norte
de Londres, en unas instalaciones secretas en Bletchley Park los británicos construyeron
"Colossus", un tipo de ordenador diseñado para romper el código Enigma. Colossus
comparaba secuencias de letras a un ritmo de 25.000 caracteres por segundo. La máquina
solo podía realizar la tarea de unir letras, pero lo hacia muy bien, sus transmisiones
descifradas alemanas se denominaron el "Ultra secreto", el secreto mejor guardado de la
Guerra.
Al otro lado del Atlántico los ingenieros trabajaban para construir otro aparato
computacional. América era un centro neurálgico productor de instrumentos de Guerra
pero para 1943 había una escasez critica de un componente sorprendente de las
máquinas de Guerra, tablas de disparos para piezas de artillería. Estas tablas permitían a
los artilleros apuntar sus armas correctamente en gamas diferentes, altitudes,
temperaturas y condiciones del viento. Los ordenadores humanos trabajaron
frenéticamente para producir cálculos mecánicos para crear esas tablas, pero lo pasaron
mal intentando estar a la altura.
Para solucionar el problema, John Mauchly, un físico de la Universidad de Pensilvania se
propuso construir un ordenador gigante electrónico que podía calcular tablas de números
en minutos. Mauchly y un estudiante de ingeniería eléctrica, Presper Eckert, empezaron a
construir "ENIAC", el integrador numérico electrónico y ordenador, mucho mas grande
que el Colosos. Contenía 70.000 resistencias, 10.000 condensadores, 6.000 interruptores y
18.000 tubos de vacío delicados. Podía realizar 5.000 sumas, 357 multiplicaciones y 38
divisiones cada segundo. Pero ENIAC, la máquina mas compleja de su tiempo, todavía le
faltaba muchas cualidades que tiene un ordenador moderno.

Justo antes del final de la Segunda Guerra Mundial, John Bonn Umán, un concejero de
Eckert Mauchly en el proyecto ENIAC, escribió un ensayo que influiría en el siguiente paso
del diseño de ordenadores.
El artículo de Von Neumann delineaba la estructura de un ordenador moderno. El diseño
comprendía una unidad de procesamiento y una unidad de control, memoria de entrada y
salida, pero lo mas importante de la evolución de las computadoras tendría su capacidad
de programación internamente en su memoria. El trabajo de Von Neumann proponía una
máquina que poseyera una capacidad general de propósito.
La idea para almacenar programas internamente era la última llave para desarrollar el
verdadero ordenador con un propósito general.
Eckert y Mauchly se sintieron traicionados al no estar incluidos como autores en el
artículo, pero al darse cuenta que el ordenador encontraría un lugar en el mundo de los
negocios, formaron su propia compañía. Empezaron a trabajar en una máquina llamada
"UNIVAC", a diferencia de sus predecesores, UNIVAC era una máquina amable, diseñada
para solucionar problemas científicos o militares. Podía diseñarse para satisfacer varios
propósitos. UNIVAC también constituía el primer ordenador en poder fabricarse en masa y
venderse comercialmente.

Después del éxito del UNIVAC, varias empresas empezaron a ver el futuro en el desarrollo
de computadoras.
IBM empezó a darse cuenta de que las computadoras se harían cada vez más pequeñas,
baratas y mas fáciles de manejar, y que abría lugar en los negocios para estas máquinas,
que a la larga sustituirían a la tecnología de las tarjetas perforadas.
Para comienzos de la década de los 60's IBM dominaba el gran mercado de los
ordenadores, los negocios empezaban a depender de los ordenadores, las máquinas se
iban haciendo cada vez mas pequeñas gracias al cambio de tecnologías de tubo a la
tecnología de los transistores.
En 1947 tres científicos en los laboratorios inventaron el transistor.
El siguiente paso a la miniaturización tuvo lugar en 1959, cuando Robert Noyce y Jack
Kilby, ingenieros para fabricantes rivales de transistores llegaron a los mismos avances de
forma independiente y que conducían a la misma idea revolucionaria. La gran innovación
en la electrónica se llamó "Circuito Integrado", para su tamaño, estos eran los
ordenadores mas potentes de la Tierra.
Ted Hoff, un ingeniero en la compañía de Chips Intel, estaba dando un gran paso en el
proceso de miniaturización, estaba desarrollando una idea que pondría todo el ordenador
en un Chip de Silicio, el "Microprocesador".
A Hoff le habían encargado diseñar 12 circuitos integrados por separado, pero sugirió
colocar toda la unidad de proceso en un chip y programarlo como un ordenador. Intel
desarrollo la idea y para 1970 tenían un modelo de microprocesador.

Uno de los primeros intentos de simplificar las operaciones del ordenador fue encabezado
por Doug Engelbart, él concibió una manera sencilla de manejo, y mostró un prototipo en
1968 en la Conferencia de otoño de ordenadores en San Francisco, soldando un teclado y
un ratón, trabajaba con un ordenador a 30 millas de distancia, unido por microondas y
demostró que se podía procesar palabras en un hipertexto.
XEROX creyó que el futuro podría estar en los ordenadores y comenzó a construir una
máquina de fácil manejo. En 1973 introdujo el “Alto”, que incorporaba muchas de las
innovaciones en ordenadores personales. Este tenia un ratón, una interfaz gráfica, estaba
construido de forma interconectada e imprimía en una impresora láser.

La Revolución estaba al alcance de la mano, y la carga no seria liderada por una gran
empresa, sino por un grupo de aficionados e ingenieros libre pensadores, dos de ellos
fueron Steve Jobs y Steven Wozniak.
A mediados de los 70's empezaron a fabricar un ordenador pequeño, llamado "Apple I".
Al ir abaratándose los chips, empezaron a aparecer kits de ordenadores de automontaje,
uno de estos, apareció en la cubierta de Popular Electronics en 1975, llamado "Altair".

Steve Jobs vendió su Volkswagen y Steven Wozniak su calculadora HP para financiar su


empresa.
En 1977 introdujeron el "Apple II", un ordenador atractivo, independiente un teclado con
la adhesión de un monitor y un drive para un disquete.

En 1981 IBM introdujo su versión de un aparato personal, llamado "PC".


Inspirados por el trabajo de XEROX Park, Apple tomó muchas de las mejores
características de los ordenadores, como la interfaz gráfica y el ratón, los mejoró y fabricó
una máquina al alcance del bolsillo. Apple introdujo el ordenador "Macintosh" en 1984. Lo
que lo hizo fácil de usar era su sistema operativo y sus aplicaciones (Software).

Bill Gates, presidente de una compañía de Software llamado "Microsoft" estaba allí para
capitalizarse en el mercado creciente. Finalmente se convirtió en un hombre conocido,
apostando por su visión en un basto imperio de Software, y convirtiéndose en el hombre
más rico del mundo.
En 1981, IBM decidió utilizar el sistema operativo de Microsoft, conocido como "PC 2",
mientras surgían los clones de IBM en el mercado, Microsoft era libre de vender el sistema
MS 2 para rivalizar con las compañías de ordenadores.

Apple no se sintió "halagada" cuando Microsoft introdujo su plataforma "Windows" para


PC , ya que algunos dicen que robó la interfaz gráfica, descargo menús y todo lo que Apple
popularizó.
El continuo empequeñecimiento de la tecnología de los chips es lo que está espoleando la
evolución.
Los chips se fabrican mediante un proceso llamado Fotolitografía. Los fabricantes
empiezan poniendo una capa de silicio sobre una capa de un material fotosensible, y
luego los científicos hacen una plantilla del diseño que quieren mediante el grabado en un
metal fino con un rayo de electrón. Estos chips, están encontrando su lugar en aparatos
inteligentes y hablan entre si mediante un sistema sin cables al conectarse a Internet.
Se dice que en el futuro, los ordenadores no se trasladarán, sino que estarán integrados
en las gafas, y eso transmitirá señales directas a las retinas, es decir, que todo será un
avance progresivo. Y la memoria artificial simulará la memoria humana. Y quizás en el
futuro, estas máquinas puedan igualar la inteligencia humana.
Los ordenadores serán moleculares, ya que todos se están reduciendo en tamaño. Y se
podrá almacenar información, por ejemplo, de toda una biblioteca en algo muy pequeño,
como el tamaño de una moneda. Y esta electrónica molecular, puede llevar a borrar la
línea divisoria entre la máquina y el hombre.

También podría gustarte