Está en la página 1de 6

Prehistoria de la informática:

Los dispositivos para ayudarnos a contar y calcular aparecieron a medida que se


desarrollaban los sistemas numéricos en distintas partes del mundo. Alrededor del año
3000 a.c., mercaderes y traficantes en el Medio Oriente y a lo largo de la ruta de tráfico
del Mediterráneo comenzaron a utilizar el ábaco, este simple marco de madera con
bolas ensartadas por alambres es aun hoy utilizado en muchas partes del mundo para
realizar cálculos contables y comerciales.

El pintor Leonardo da Vinci (1452-1519) trazó las ideas para una sumadora mecánica.
Siglo y medio después, el filósofo y matemático francés Blaise Pascal (1623-1662) por
fin inventó y construyó la primera sumadora mecánica, se la llamó Pascalina y
funcionaba como un a maquinaria a base de engranajes y ruedas, y tiene el mismo
principio que el cuentakilómetros de un automóvil.

Esta máquina solo podía sumar y restar operaciones, a pesar de que Pascal fue
engrandecido por toda Europa debido a sus logros, la Pascalina resulto un desolador
fallo financiero, pues en ese momento, resultaba más costosa que la labor humana
para los cálculos aritméticos.

Unos años más tarde, un alemán llamado Gottfried Leibnitz mejoró la máquina de
Pascal. Inventó una calculadora que, además de sumar y restar, también podía
multiplicar, dividir y hallar la raíz cuadrada de un número, se accionaba manualmente.

El telar de tejido inventado en 1801 por el francés Joseph- Marie Jackard (1753-1834),
usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de
Jackard opera de la manera siguiente, las tarjetas se perforan estratégicamente y se
acomodan en cierta secuencia para indicar un diseño de tejido en particular.

Charles Babbage (1792-1871) fue un inventor y matemático británico que diseñó y


construyó máquinas de cálculo basándose en principios que se adelantaron al moderno
ordenador o computadora electrónica. En 1820, Babbage comenzó a desarrollar su
máquina diferencial, un aparato que podía realizar cálculos matemáticos sencillos.
Aunque Babbage empezó a construir esta máquina, no pudo terminarla por falta de
fondos. Quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su
motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas
perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage
repitiera ciertas operaciones, Entre sus notas sobre la máquina se encuentra lo que se
reconoce hoy como el primer algoritmo destinado a ser procesado por una máquina.
Debido a esta sugerencia se considera a Lady Lovelace la primera programadora.

Primera generación de computadoras (1941-1948) Las válvulas de vacío:


La actualidad se conoce como computadoras.

Las primeras computadoras de válvulas de vacío se distinguían por dos aspectos


fundamentales:

• Su gran tamaño. 
• El gran consumo de energía que disipaba un fuerte calor.

Ambos efectos eran debidos al gran tamaño de las válvulas con las que estaban
construidos y a que éstas necesitaban consumir una gran cantidad de energía para
alimentarse, generando una enorme cantidad de calor.

Las válvulas de vacío surgieron a principios del siglo XX, cuando en 1907 Lee De
Forest inventó la primera válvula electrónica (triodo) al intentar perfeccionar los
receptores telegráficos existentes en la época. La posibilidad de la válvula electrónica
de asumir dos estados posibles fue la base fundamental sobre la que se implantó el
código binario (0,1) y las modernas computadoras digitales.

En 1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de


J. Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de
Moore en Pennsylvania; ENIAC fue la primera computadora de válvulas electrónicas
construida, entró en funcionamiento en 1945 y fue dada de baja en 1955. En ese
momento aún permanecía operativa.

La arquitectura física de ENIAC se componía de 18.000 válvulas, un volumen de


alrededor de 111 metros cúbicos (aproximadamente el tamaño de un autobús), unas 30
toneladas de peso y un consumo de 150.000 watios.

El tamaño de la máquina era una exigencia de la tecnología de construcción ya que las


válvulas generaban mucho calor y debían separarse lo más posible para poder disipar
convenientemente ese calor.

ENIAC no sería exactamente, en su diseño lógico, lo que se entiende ahora por


computadora, puesto que no poseía la capacidad de almacenamiento de programas;
en efecto, el programa debía ser previamente perforado en tarjetas y posteriormente
cargado en la memoria, finalizando con la ejecución del programa y el proceso de los
datos a utilizar.

El principal problema que presentaba ENIAC era que el proceso no estaba optimizado
en absoluto, la computadora sólo podía efectuar estas tareas secuencialmente. Así, si
estaba leyendo las tarjetas perforadas no podía procesar los datos ni escribir la salida
por la impresora, con lo cual el tiempo de ejecución se incrementaba
considerablemente.
El mantenimiento, no obstante, era muy arduo, ya que se debían controlar todas las
válvulas para evitar que una parte de la computadora quedara inutilizada, las mejores
prestaciones que se consiguieron fueron alrededor de dos o tres días sin que se
fundiera ninguna válvula.

La segunda generación de computadoras (1948-1962)

Los Transistores. Memorias de ferrita

Las computadoras de la segunda generación vieron como algo cambiaba en su interior.


En efecto, a finales de la década de los años cuarenta, Schockley, Brattain y Barden
inventaron, en los laboratorios Bell, el transistor cuyo nombre procede de la contracción
de "transference resistor", es decir, resistencia de transferencia; rápidamente se vieron
las grandes posibilidades que el nuevo descubrimiento tenía como sustituto óptimo de
las válvulas. El material con el que se fabricó el primer transistor fue el germanio,
material con el que se siguieron fabricando los transistores hasta el año 1954 en que
Texas Instruments fabricó el primer transistor de silicio.

El cambio fundamental que originó la aparición del transistor fue que redujo en gran
medida el tamaño de las computadoras, puesto que sobre placas relativamente
pequeñas podían instalarse componentes fundamentales para la estructura de la
computadora. Asimismo, se redujeron sus labores de mantenimiento debido a que
aumentó la fiabilidad de sus componentes.

La velocidad de cálculo se multiplicó, reduciéndose el tiempo de conmutación (tiempo


que tarda un componente en pasar de un estado a otro, es decir, en tomar uno de los
dos valores del código binario) a velocidades próximas a los milisegundos.

El problema fundamental con el que se encontraron los informáticos en esta época fue
que todavía no se había conseguido solucionar completamente el problema de
optimización de la gestión de los recursos del sistema informático.

En esta etapa se consigue simultanear el proceso del programa con las operaciones de
entrada y salida, pero solamente dentro del mismo programa. Al no poderse realizar
más que una ejecución de un programa al mismo tiempo, esto detenía el proceso de
otros programas. Todo ello originaba una infrautilización de los elementos más rápidos
y, por tanto, más caros, de la máquina y una considerable pérdida de tiempo y dinero.

Además de esto, se utilizaron Las memorias de ferrita que estaban compuestas por
matrices de los anillos de hierro, siguiendo una disposición especial que minimizaba la
longitud de los cables usados y el espacio utilizado. Fueron ampliamente usadas, hasta
que fueron sustituidas por las memorias de semiconductores.
La tercera generación de computadoras (1962-1971)

Los Circuitos Integrados. Memorias de semiconductores

El paso de la segunda a la tercera generación de computadoras se produjo a principios


de la década de los sesenta y se debió a la aparición de los circuitos integrados.

Si bien la primera patente comercial de un circuito integrado se concedió en 1959 al


ingeniero de la empresa estadounidense Texas Instruments, Jack Kilby, hasta el año
1962 no se presentó comercialmente el primer circuito integrado; éste era de tecnología
digital y su estructura era la de un transistor (en realidad estaba compuesto por dos
transistores), pero en una superficie de 1 mm2.

Los circuitos integrados tienen un tamaño similar al de un transistor, pero el grado de


miniaturización de sus componentes es muchísimo mayor, pudiéndose incluir la
potencia de varios transistores en un solo circuito de menor tamaño que el de un
transistor. Con los circuitos integrados no sólo se aumentó la miniaturización de los
componentes, sino también su fiabilidad y velocidad de proceso, de modo que el
tiempo de conmutación pasó a medirse en nanosegundos, esto es, milmillonésimas de
segundo.

En esta tercera generación de computadoras se introdujo el concepto de multitarea.

La multitarea es una optimización de la utilización de los componentes del sistema


informático. En la multitarea se gestionan de tal forma los recursos del sistema de la
computadora que el sistema operativo maneja el entorno hardware de tal forma que, si
bien es sólo un programa el que ocupa el procesador central en un momento dado.
Hubo un gran desarrollo de los sistemas operativos, en los que se incluyó la
multiprogramación, el tiempo real y el modo interactivo. Comienza a utilizarse las
memorias de semiconductores y los discos magnéticos. La memoria de semiconductor
usa circuitos integrados basados en semiconductores para almacenar información. Un
chip de memoria de semiconductor puede contener millones de minúsculos transistores
o condensadores.

La cuarta generación de computadoras (1971 a 1981)

Semiconductores, Microprocesador

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta


generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de
silicio y la colocación de Muchos más componentes en un Chip: producto de la
microminiaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador y de chips hizo posible la creación de las computadoras personales
(PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de


semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip
de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250
transistores.

Esta generación de computadoras se caracterizó por grandes avances tecnológicos


realizados en un tiempo muy corto. En 1977 aparecen las primeras
microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple
Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado
de las microcomputadoras con su Personal Computer, de donde les ha quedado como
sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (MicroSoft Disk Operating System).

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las
interfaces gráficas de usuario, que son pantallas con ventanas, iconos (figuras) y
menús desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo para realizar
operaciones de copiado o formato con una simple pulsación de cualquier botón del
ratón (mouse) sobre uno de los iconos o menús.

La quinta generación de computadoras (1982-1989)

La inteligenca artificial

Las computadoras de quinta generación son computadoras basadas


en inteligencia artificial.

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón.


Su objetivo era el desarrollo de una clase de computadoras que utilizarían ténicasde
inteligencia artificial al nivel del lenguaje de máquina y serían capaces de
resolver problemas complejos, como la traducción automática de una lengua natural a
otra.

Las computadoras de esta generación contienen una gran cantidad de


microprocesadores  trabajando en paralelo y pueden reconocer voz e imágenes.
También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo
la habilidad para tomar decisiones con base en procesos de aprendizaje
fundamentados en sistemas expertos e inteligencia artificial.
· Estarán hechas con microcircuitos de muy alta integración, que funcionaran con
un alto grado de paralelismo, imitando algunas características de las redes
neurales con las que funciona el cerebro humano.

· Computadoras con Inteligencia Artificial

· Interconexión entre todo tipo de computadoras, dispositivos y redes integradas

· Integración de datos, imágenes y voz (entorno multimedia)

· Utilización del lenguaje natural (lenguaje de quinta generación)

· Empleo de programas de mayor nivel

· Nuevos dispositivos de entrada y salida

Otro factor fundamental del diseño es la capacidad del Computador para reconocer


patrones y secuencias de procesamiento que haya encontrado previamente, que
permita a la Computadora recordar resultados previos e incluirlos en el procesamiento.
En esencia, la Computadora aprenderá a partir de sus propias experiencias, usará sus
datos originales para obtener la respuesta por medio del razonamiento y conservará
esos resultados para posteriores tareas de procesamiento y toma de decisiones.

La sexta generación de computadoras (1990)

Ahora vemos que el costo de una PC es relativamente bajo asi como el de una Laptop,
las computadoras de ahora vienen trabajando con arquitecturas paralelas / vectoriales
lo que hace que sean muy rapidas, pueden almacenar una cantidad enorme de
informacion hablamos de terabites, ahora las computadoras practicamente toman
decisiones propias alcanzando casi la misma del ser humano, tenemos computadoras
tactiles que casi no ocupan espacion en el hogar y el trabajo, tambien con diseño
holográfico, lo cual ha revolucionado el mercado de la informática. por el momento las
únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en
múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la
incorporación de chips de procesadores especializados en las tareas de vídeo y sonido. se
podría llamar a la era de las computadoras inteligentes basadas en redes neuronales artificiales o
"cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-
prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su
nula resistencia, ganando performance y economizando energía. La ganancia de performance
sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice
metales comunes, por supuesto Todo esto está en pleno desarrollo.

También podría gustarte