Está en la página 1de 12

Introducción

En este informe de investigación que he elaborado he indagado sobre los


inicios de las computadoras, actualmente podemos decir que una computadora es un
rápido y exacto sistema de manipulación de símbolos, organizado para captar,
almacenar y procesar datos y producir resultados bajo la dirección de un programa
almacenado. Pero su historia viene de muy antiguo.
Durante siglos, la gente vivió en la Tierra sin elaborar registros; pero cuando
las organizaciones sociales se empezaron a formar, los registros se hicieron
necesarios. Las primeras herramientas para dicho objeto tienen que haber sido los
propios dedos del ser humano, que los utilizó para representar los números y
combinaciones de números. De ahí que la palabra dígito se utiliza tanto para designar
el dedo de la mano o el pie como para un número entero. Sin embargo, el número
limitado de dedos combinado con la necesidad de recordar más hechos, condujo al
uso de otros objetos distintos de los dedos como pequeñas piedras. Hemos recalcado
que las computadoras han sido un bien necesario desde su creación,porque
estas nos facilitan las labores y el trabajo, tanto a nivel laboral como a
nivel estudiantil. A nivel estudiantil nos favorece mucho porque nos
permite recopilar informaciones y guardar archivos de nuestras clases con mucho
más mayor facilidad que un teléfono móvil inteligente.
Origen del computador

Desde los inicios de la humanidad, el hombre ha buscado formas de


simplificar y optimizar sus actividades cotidianas. Esta necesidad ha dado lugar a la
creación de numerosos inventos, entre los que se encuentran las computadoras. Las
primeras computadoras fueron creadas hace más de 2000 años, aunque en aquel
entonces se trataba de dispositivos muy sencillos. Con el paso del tiempo y el avance
de la tecnología, las computadoras fueron evolucionando hasta convertirse en los
sofisticados dispositivos que son hoy en día. Lo cierto es que es muy complejo
atribuir a una única persona el descubrimiento o la invención de las computadoras.
Para muchos expertos, son diversas las personas que contribuyeron con sus
creaciones, ideas y conocimientos para que este ingenio viese la luz.
Los primeros ábacos, que muchas cronologías sitúan en 2500 a.C., consistían
en una serie de piedras que se colocaban en hileras paralelas en el suelo. Se movían
de derecha a izquierda (los egipcios), o de izquierda a derecha (los griegos), para
contar, sumar, restar y multiplicar. Instrumentos parecidos al ábaco aparecen en
Babilonia y China en los años 1000 y 500 a. de C., pero aún son nada más que tablas
de contar. Lo más parecido era el tablero de Salamis, encontrado en 1846 en la isla
del mismo nombre y que se cree que fue usado por los babilonios en tomo al 300 a.
de C.
Leonardo de Pisa Fibonacci, inventor de la secuencia de Fibonacci, es el
primero en usar la expresión abacus en su obra Líber Abad, de 1202, y durante mucho
tiempo, ábaco y aritmética fueron equivalentes. El nombre, en griego, significa
“tabla”, y probablemente procede del semita aqab, polvo o arena. Sin embargo, el
ábaco, tal como lo conocemos nosotros, formado por una serie de cuentas que se
deslizan sobre cuerdas o alambres, se popularizó en China en torno a 1300, durante la
dinastía Yuan.
Entre 1610 y 1617 John Napier, estudioso del Apocalipsis e inventor de los
logaritmos, desarrolló un sistema para calcular mediante varillas colocadas sobre un
tablero, también llamadas huesos de Napier, precursoras de la regla de cálculo, que se
inventa entre 1620-1630. Probablemente fue el matemático inglés William Oughtred,
amigo de Napier, quien hacia 1621 desarrolló este instrumento, tanto en su versión
rectilínea como circular. En 1624, el matemático alemán Wílhelm Schickard
construye la primera calculadora mecánica a partir de los huesos de Napier, veinte
años antes que Pascal.
Se usa para cálculos astronómicos. En 1645, el matemático y físico francés
Blaise Pascal construyó la segunda calculadora mecánica de la historia, la Pascalina.
Estuvo tres años construyendo la máquina, que sólo podía sumar y restar, para ayudar
a su padre, que trabajaba en Hacienda.
En 1670, Wilhelm Leibnitz inventó el sistema binario y descubre muchos de
los aspectos matemáticos que se utilizarán en la computación moderna. Se anticipa a
Touring y diseña una máquina de calcular, la Stepped Reckoner, que realiza las
cuatro operaciones básicas.
En 1800, el matemático francés Joseph Jacquard desarrolló un sistema de
tarjetas perforadas para controlar el dibujo formado en un telar. Estamos en plena
revolución de la industria textil y según los agujeros de la tarjeta, la máquina actúa de
una manera u otra. Presentó su proyecto en Lyon en 1805.
En 1822, Charles Babbage presenta su proyecto de la máquina diferencial
para evaluar polinomios en la Royal Astronomical Society. Babbage fue la primera
persona en concebir un ordenador, pero nunca acabó de construir la máquina.
Babbage presenta en 1835, una máquina analítica basada en el funcionamiento
del telar de tarjetas perforadas de Jacquard, pero, aunque trabajó en el proyecto entre
1833 y 1842, nunca consiguió acabar, como le pasó con la máquina diferencial.
En 1855, el sueco Georg Scheutz construye con éxito una máquina
diferencial, basada en el diseño de Babbage, que el Gobierno británico compra para
su Oficina General del Registro en 1859, aunque finalmente, la falta de fondos frustró
el proyecto.
El matemático y filósofo inglés George Boole, en 1859, publica su obra
Ecuaciones Diferenciales y sienta las bases de la denominada álgebra booleana, una
de las bases de la Ciencia Computacional. En 1885, Hermán Hollerith construye la
máquina censadora o tabuladora, que por medio de tarjetas perforadas reducía el
tiempo al realizar el censo. Es considerado el primer informático.
En 1893, Leonardo Torres Quevedo presenta su Memoria sobre las máquinas
algebraicas y al año siguiente presenta la primera máquina construida por él. Este
ingeniero y matemático español construyó el primer transbordador aéreo que cruza
las cataratas del Niágara, el Spanish Aerocar.
Muchos investigadores concentraron sus esfuerzos en el diseño de una
máquina de cálculo digital. Pero si existe una persona a la que se le puede atribuir el
primer prototipo de computadora es al ingeniero electrónico y físico estadounidense
de origen Búlgaro John Vincent Atanassoff, nacido en New York el 4 de octubre del
año 1903. Atanassoff, realizó diversos estudios y experimentos sobre la realización de
cálculos matemáticos mediante aparatos o máquinas analógicas. No había otra
alternativa en su tiempo. Según palabras de Atanassoff, estos ingenios eran muy
imprecisos y lentos. Por este motivo, era necesario la invención de una máquina de
cálculo mucho más eficiente, veloz y fiable que las que existían.
No dudó en ponerse manos a la obra y en 1933 comenzó un laborioso proceso
de desarrollo e investigación sobre el tema. El objetivo final no era otro que conseguir
lo que se conoce hoy en día como el primer computador u ordenador digital. Con la
ayuda, colaboración y asistencia del ingeniero eléctrico estadounidense Clifford
Berry (1918-1963), enfocaron sus esfuerzos en cuatro pilares o conceptos:

● Electrónica para los componentes operativos.

● Sistema binario para la realización de cálculos.

● Condensadores para el almacenamiento de datos.

● Sistema lógico para la realización de cálculos.

Tras unos pocos años, en 1942, se presentó el primer prototipo de


computadora. Le pusieron el nombre de ABC (acrónimo de Antanassoff-Berry
Computers). Dicho artefacto es
considerado como la primera
computadora digital del mundo.
Como curiosidad, decir
que Antanassoff cometió el
error de no patentar su invento
al momento. Esto provocó que
Jhon Mauchly (1907-1980),
intentará adelantarse y les llevará a ambos a un extenso proceso judicial. Finalmente,
en el año 1972, se le otorgó el mérito de ser el padre de la computadora a Atanasoff.

En el siglo XIX, se puede considerar que el pionero en esta lucha contra la


limitación material, y la capacidad espiritual fue el matemático y científico británico
Charles Babbage (1791-1871). Fue él quien primero vio la posibilidad, en 1823, de
crear una máquina que
hiciera posible operaciones
matemáticas que el hombre
no podría realizar a lo largo
de una vida por existir.
Eran cálculos matemáticos
de tal complejidad que no
pueden emprenderse ya que
nadie vive lo suficiente para
verlos acabados. Babbage,
convenció al gobierno inglés para que financiara su “ingenio analítico” capaz de
solucionar todo tipo de cálculos. Los esfuerzos de Babbage se unieron a Herman
Hollerith (1860-1929), que estaba confeccionando el censo de Estados Unidos. Tenía
el problema de que apenas había terminado el censo de un ciclo temporal ya tenía que
comenzar el próximo, la cantidad de tiempo que llevaban los cálculos y tabulaciones.
Herman Hollerith, fue la persona que introdujo las primeras tarjetas perforadas para
almacenar información. Con este revolucionario sistema para la época, consiguió
reducir el tiempo a la mitad. Como curiosidad, existe una especie de computadora que
funcionaba a vapor. El programa de operaciones se almacenaba en una cinta
perforada, método que todavía se seguía empleando en los años sesenta.
Pero el primer ordenador nunca llegó a completarse. De cualquier forma, si
hubiera sido desarrollado
del todo, no hubiera dado
resultados, ya que no
existía tecnología
suficiente. Dado que
funcionaba con palancas,
bielas, ruedas dentadas,
engranajes pesados y
lentos que no permitían
realizar cálculos rápidos.
Solo los electrones, cuya velocidad se aproxima a la de la luz, podrían llevar a cabo
los sueños del padre del ordenador.

Continuamos con el siglo XX, el primer esbozo de un computador moderno lo


acometió en 1930, el ingeniero alemán Konrad Zuse (1910-1995). Construyó una
calculadora que ya operaba según el modo binario: la Z1. Con aquel ingenio se podía
realizar una multiplicación compleja en tres segundos.
En 1940, propuso al gobierno
alemán financiar su desarrollo, crear
una máquina de pensar y resolver de
forma rápida cualquier problema, pero
Adolf Hitler no le hizo caso. Se
considera que en 1942 John Vincent
Atanassoff inventó la primera
computadora digital. Por tanto, no sí
gran polémica y disputas, se considera al ingeniero electrónico estadounidense John
Vincent Atanassoff (1903-1955), el inventor de la computadora. Pero de ello
hablamos con detalle un poco más abajo.
Al comienzo de la Segunda Guerra Mundial los especialistas ingleses en
cálculo buscaban la forma de decodificar los mensajes secretos alemanes. Encargaron
el asunto al húngaro Alan Mathison Turing (1912-1954) , inventor de una máquina de
calcular que lleva su nombre.

La primera computadora se ensambló en 1943 en Bletchley, nos referimos al


computador electromecánico llamado Colossus. El enorme aparato podía tratar cinco
mil caracteres por segundo, para lo que requería de más de dos mil lámparas. Esta
máquina podía descifrar los mensajes de la inteligencia alemana, pero no era
exactamente un ordenador. Al tiempo que Turing trabajaba en Londres, Estados
Unidos buscaba la forma de poner al día la máquina de Babbage. En 1944 el
ingeniero Howard H.Aiken (1900-1973) daba a conocer su máquina: el Harvard Mark
1, financiada por IBM y se mejoró la calculadora de Babbage.

Paso importantísimo fue dado en 1946, con el computador electrónico ENIAC


o Electronic Numerical Integrator and Computer de John Presper Eckert (1919-1995)
y John William Mauchly (1907-1980). El invento se debió al encargo hecho a los
científicos citados por el ejército norteamericano necesitado de una máquina rápida
para calcular la trayectoria de los proyectiles.Como curiosidad, decir que aquel
aparato era inmenso. Pesaba 30 toneladas que ocupaban una superficie de 170 m2. Su
cableado tenía varios kilómetros y utilizaba 18.000 válvulas de radio, que consumían
gran cantidad de electricidad. Pero se calentaban tanto y tan deprisa que su
refrigeración suponía un problema adicional.

A pesar de todo, el armatoste tenía una capacidad de proceso mil veces


inferior a la de un ordenador personal o PC de los años noventa, y no podía almacenar
ni la milésima parte de información. Pero la llegada e introducción de la electrónica
hizo posible contar con un factor nuevo de capital importancia: la velocidad
operativa. Un paso muy importante dentro de la historia de la computadora y su
evolución. El ordenador con programación almacenada nacería hacia 1948. Lo lanzó
IBM con una revolucionaria idea fruto de las investigaciones de John von Neumann
(1903-1957) de la Universidad de Princeton, en New Jersey. La presentación de esta
primera computadora electrónica de la Historia tuvo lugar en Nueva York, el 24 de
enero de 1948: el modelo IBM SSEC, dotado de 13.500 lámparas al vacío y 21.000
relés. Consistiendo su primera prueba en sumar 3.500 números de 14 cifras decimales
cada uno, en un solo segundo. Pero la computadora moderna sólo fue posible con la
invención del transistor en 1947. El término fue idea de Maurice Perret, científico
francés a quien en 1955 pidió consejo a un alto cargo de IBM sobre cómo llamar a
aquellas nuevas máquinas. Propuso el de computadora u ordenador, término que
procedía de la Teología, donde figura como uno de los adjetivos que se aplicaban a
Dios «Ordenador del mundo». A principios de los años 60 los chips, microchips y
circuitos integrados entraban en escena. Disminuyendo el tamaño de las
computadoras y aumentando su potencia sensiblemente.
.

Generaciones de las computadoras

Las computadoras u ordenadores son las herramientas de cálculo más


eficientes jamás inventadas. Tienen el suficiente poder de cálculo, autonomía y
velocidad de procesamiento para reemplazar en muchas tareas, o permitirnos
dinámicas de trabajo que nunca antes en la historia habían sido posibles, al punto tal
de hacerse hoy en día indispensables. Estos aparatos se inventaron en el siglo XX,
revolucionando para siempre la manera en que entendemos los procesos industriales,
las comunicaciones, la sociedad y muchas otras áreas de la vida. Su historia comienza
con el primer computador propiamente dicho, cuya autoría no puede adjudicarse
estrictamente a ninguna persona en solitario. Desde entonces han cambiado
enormemente y nos han cambiado enormemente, por lo que muchos estudiosos
consideran su aparición una Segunda Revolución Industrial o incluso una Revolución
Digital.

Primera generación (de 1940 a 1952)

La generación inicial de computadores inicia con la invención de las primeras


máquinas de cálculo automáticas, que podían considerarse propiamente un
“computador”. Responden a la necesidad durante la Segunda Guerra Mundial de
descifrar códigos secretos enemigos. Estaban basadas electrónicamente en válvulas y
tubos al vacío. Podían programarse mediante un conjunto de instrucciones simples,
que debían suministrarse al sistema a través de tarjetas perforadas de papel o de
cartón, como en el invento de Babbage.

Segunda generación (de 1956 a 1964)

La segunda generación representó un cambio importante, ya que se


sustituyeron las válvulas de vacío por transistores, permitiendo hacer las máquinas
mucho más pequeñas y reduciendo además su consumo eléctrico. Estas fueron,
también, las primeras máquinas en disponer de un lenguaje de programación, como el
célebre FORTRAN. Así, pronto se hizo obsoleto el sistema de las tarjetas perforadas.

Tercera generación (de 1965 a 1971)


El salto a la tercera generación estuvo determinado por la invención de los
circuitos integrados: permitieron aumentar la capacidad de procesamiento de las
máquinas y por si fuera poco reducir sus costos de fabricación. Se trataba de circuitos
impresos en pastillas de silicio, con pequeños transistores y semiconductores
incorporados. Este fue el primer paso hacia la miniaturización de las computadoras.

Cuarta generación (de 1972 a 1980)

La paulatina integración de los anteriores componentes electrónicos propició


la aparición de los microprocesadores: nuevos circuitos integrados que reúnen todos
los elementos fundamentales de la computadora y que empezaron pronto a llamarse
chips. Gracias a ellos, las computadoras podían descentralizar sus operaciones lógico-
aritméticas. Por ejemplo, reemplazar la memoria de anillos de silicio por memoria de
chips, fue un paso importante hacia la microcomputarización. A esta generación
pertenecen las primeras computadoras personales o PC.

Quinta generación (de 1983 a 2019)

La generación más reciente y vigente hoy en día, presenció la más enorme


diversificación en el ámbito de la computación de toda su historia. Se hizo portátil,
liviana y cómoda, e incluso expandió sus fronteras de uso gracias a la posibilidad de
las redes informáticas.El computador ya ni siquiera necesita estar fijo en una
habitación, sino que puede viajar en nuestros maletines. Nunca antes la velocidad de
procesamiento, la versatilidad y la comodidad convergieron tanto en el mundo de la
computadora, permitiéndole fusionarse con los teléfonos (dando nacimiento al
Smartphone) y con otros muchos formatos diferentes.

Sexta generación (de 2019 al futuro próximo)


Poco se sabe de la generación de computadores por venir. Los grandes
adelantos en materia de inteligencia artificial, computación cuántica y algoritmos de
aprendizaje prometen un futuro altamente automatizado y de enormes potenciales
industriales. En él la computadora puede dejar de ser un artefacto que nos acompaña
y pasar a estar dentro de nuestros propios cuerpos.

Conclusión

En la actualidad, dada la complejidad del mundo actual, con el manejo


inmenso de conocimientos e información propia de esta época de crecimiento
tecnológico es indispensable contar con una herramienta que permita manejar
información con eficiencia y flexibilidad, esa herramienta es la computadora. Desde
el punto de vista funcional es una máquina que posee, al menos, una unidad central de
procesamiento, una memoria principal y algún periférico o dispositivo de entrada y
otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se
encarga de su procesamiento y los dispositivos de salida los comunican a otros
medios. Es así, que la computadora recibe datos, los procesa y emite la información
resultante, la que luego puede ser interpretada, almacenada, transmitida a otra
máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o
usuario y bajo el control de un programa.
Si bien esta máquina puede ser de dos tipos, analógica o digital, el primer tipo
es usado para pocos y muy específicos propósitos; la más difundida, utilizada y
conocida es la computadora digital (de propósitos generales); de tal modo que en
términos generales (incluso populares), cuando se habla de «la computadora» se está
refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas
computadoras híbridas, siendo también éstas de propósitos especiales.

También podría gustarte