Está en la página 1de 7

Universidad Autónoma de Santo Domingo

Facultad de Ciencias
Escuela de Informática

Sustentante

Edwin Pujols Martínez


100498799

Tema

Historia de la computadora

Asignatura

INF2080 Organización y Arquitectura del Computador

Sección

06

Profesor

Erik Minor Cordero


Introducción.

En este documento presento los resultados de mi lectura investigativa en lo concerniente a la


historia y evolución de la computadora, el dispositivo primordial para el estudiante de
Informática. Sustento que las dos componentes principales de una computadora, software y
hardware, son de igual importancia y se desarrollan de manera paralela. Espero que mi texto
sea de utilidad para todo aquel interesado en el tema tratado.
Historia de la computadora.

Los inicios de la computación están estrechamente ligados a la aritmética. Las dos grandes
partes de la computación son: software y hardware. Estas dos, históricamente, se han
desenvuelto de modo independiente. El software se desarrolla con el pensamiento abstracto,
las matemáticas, la lógica. Por ejemplo, la matemática inglesa Ada Lovelace, al crear un
algoritmo para el cálculo de números de Bernoulli usando la hipotética “máquina analítica” de
Charles Babbage, se convierte así en la madre de la programación aun cuando no había
computadoras programables en existencia.
Por otro lado, el hardware se basa en la interfaz física al software: requiere del desarrollo
tecnológico, industrial y económico para la producción de máquinas capaces de realizar las
operaciones requeridas en un tiempo razonable. Con la creación del ábaco por los babilonios (c.
2500 a. C.), la historia ve la primera “máquina de cómputo”: una calculadora. El ábaco proveyó
la fundación para la notación posicional. Este desarrollo es hardware, más tarde (c. 200 a. C.) el
matemático indio Pingala introduce una descripción del sistema de numeración binaria, sistema
utilizado en prácticamente todos los ordenadores modernos. El sistema binario se puede
considerar tanto software (una abstracción matemática) como hardware (las señales
electrónicas utilizadas por el hardware).
Antes de la llegada al mundo de la primera computadora general moderna, ya existía un
número de sus ingredientes en el mundo. En el siglo XVII es introducida la regla de cálculo por
William Oughtred, ésta utilizó las reglas de los logaritmos de John Napier para la computación
de multiplicaciones y divisiones, y es considerada como una de las primeras computadoras
análogas (el mecanismo de Anticitera, c. 200 a. C., es hoy día considerado la primera
computadora análoga). En el 1642, el matemático Blaise Pascal inventó la calculadora
mecánica, la Pascalina, que inspiró a otros matemáticos e inventores europeos a la
construcción de nuevos y más complejos diseños de calculadora mecánica. En Francia, en 1804,
Joseph-Marie Jacquard desarrolló el “telar de Jacquard”, un telar automático controlado
(programado) por el uso de tarjetas perforadas para la confección de textiles.
En el siglo XIX, inspirado también por los logaritmos y por la máquina de Jacquard, Charles
Babbage, diseñó la máquina diferencial y la máquina analítica. Por razones financieras, estos
aparatos no pudieron ser construidos, no obstante, su diseño incorporó ideas precursoras a las
computadoras modernas, como: unidad central de procesamiento (CPU), memoria interna,
dispositivos de entrada y salida, almacenamiento permanente, e incluso una forma microcódigo
(una forma de especificar el significado de las instrucciones del CPU).
Las matemáticas y su desarrollo a la par también fueron fundamentales ingredientes para la
computadora moderna. Así, en 1847, el matemático George Boole desarrolló el álgebra binaria
(álgebra de Boole), indispensable en el diseño de computadoras modernas. En 1936, Alan
Turing introduce la máquina de Turing, el modelo matemático que describe la computación de
propósito general. La máquina de Turing se puede ver como una reformulación más accesible
de las ideas desarrolladas por el matemático Kurt Gödel sobre la “aritmetización” de la lógica,
esto es, reducir la lógica matemática y la prueba de teoremas a operaciones aritméticas
simples. En su tesis de maestría de 1938, el estadounidense Claude Shannon avanzó al público
la posibilidad de usar circuitos en operaciones del álgebra de Boole, convirtiéndose así en uno
de los padres de la lógica digital. Shannon también fue un padre fundador del criptoanálisis y de
las telecomunicaciones, campos importantísimos para la existencia de la Internet.
En el mes de mayo de 1941, en Alemania, la primera computadora programable ve la luz: la Z3.
Creada por el inventor Konrad Zuse, la Z3 fue la primera computadora Turing completa, es
decir, tenía un poder computacional equivalente a la máquina de Turing universal, lo cual la
hacía capaz de simular cualquier diseño de máquina de cómputo del mundo real.
Durante la Segunda Guerra Mundial, el término “computadora” es introducido, refiriéndose a
las mujeres que realizaban los cálculos de balística. En este periodo también, la actriz Hedy
Lamarr y George Antheil dan inicio a las ideas que sirven como principios de lo que hoy
conocemos como Bluetooth y GPS.
El significado moderno de la palabra “computadora” surgió en 1945, con la introducción de la
ENIAC (Electronic Numerical Integrator And Computer), la primera computadora
completamente electrónica que utilizaba tubos de vacío. Antes de la adopción del transistor y
del microprocesador, las computadoras eran criaturas gigantescas: la ENIAC pesaba casi 30
toneladas, cubría una habitación de 167 metros cuadrados y requería cerca de 160 kW de
electricidad para su operación. El desarrollo de la ENIAC fue iniciado por John W. Mauchly y J.
Presper Eckert en 1943.
También en 1945, el matemático John Von Neumann teoriza la arquitectura o diseño del
hardware de la computadora, resultando en la célebre arquitectura de Von Neumann. Dicha
arquitectura sería implementada eventualmente en la EDVAC (Electronic Discrete Variable
Automatic Computer). Las ideas de Von Neumann y sus colaboradores influenciaron
prácticamente todos los proyectos de construcción de computadoras subsecuentes. En 1947,
en London, Kathleen Booth desarrolla el primer lenguaje de ensamblador.
En septiembre de 1947, William B. Shockley, John Bardeen y Walter Brattain crean el transistor
electrónico, una de las invenciones tecnológicas más monumentales en la historia humana. El
uso del transistor permite la miniaturización de las computadoras, con tubos de vacío sería una
imposibilidad construir dispositivos como las laptops y los teléfonos celulares modernos.
En 1951 nace la línea de mainframes UNIVAC, la primera de uso comercial exitoso. Entre sus
diseñadores estuvo Grace Hopper, cuyos estudios sobre lenguajes de alto nivel resultaron en la
creación de COBOL (1961). La UNIVAC fue la primera computadora electrónica de uso general,
capaz de manipular tanto datos numéricos como textuales. Uno de sus primeros usos de
importancia fue para el procesamiento del censo estadounidense. Notemos que la UNIVAC
todavía utilizaba tubos de vacío, el transistor aún no entraba en las escenas comerciales o
prácticas, fue en la Universidad de Manchester del Reino Unido (1953) que la primera
computadora de transistores fue completada.
En 1954 inicia la elaboración de FORTRAN (terminado en 1957) por John Backus y su equipo en
IBM. FORTRAN es considerado el primer lenguaje de programación de alto nivel, hoy en día se
sigue utilizando en las ciencias para la solución de problemas numéricos. FORTRAN utiliza un
compilador, que traduce el código textual de alto nivel a un programa ejecutable por la
computadora, el compilador mismo siendo un programa.
El MOSFET (metal-oxide-semiconductor field-effect transistor), fue inventado en 1959 por
Mohamed Atalla y Dawon Kahng de los Laboratorios Bell. Este tipo de transistor permitió la
creación de circuitos integrados de alta densidad, es el dispositivo electrónico más usado en la
actualidad.
La red precursora de la Internet moderna, ARPANET, es desarrollada en 1969 por el
departamento de defensa estadounidense. Los años de 1970, el ejercicio cedió el uso de
ARPANET para usos civiles, permitiendo el explosivo crecimiento de la red nacional y luego
global.
La historia de las computadoras personales y portables comienza en la década de los 70’s, con
el auge del microprocesador y así la microcomputadora y los sistemas operativos. Como
importante hito histórico, tenemos que Intel publicó el Intel 8086 en 1978, el primer
microprocesador de instrucciones x86. A partir del microprocesador, las fuerzas de la demanda
económica, la introducción de la Internet y la World Wide Web, impulsaron la computadora a lo
que es hoy: la columna vertebral y sistema nervioso de la civilización humana.
En la República Dominicana, la primera computadora fue vista en la Central Romana, en 1964.
Para 1968, la UASD, con la organización del Ing. Miguel Gil Mejía, adquirió su primera
computadora: 16 kB de RAM, 2.5 MB de disco duro y costó 200 mil dólares! Otros pioneros y
pioneras de la computación en nuestro país: Héctor Báez Tisol, Fausto Betances, Mireya Soto de
Amarante, Domingo Russo, Wilfrido Fiallo.
Conclusión.

Hoy día, en el mundo existen incontables dispositivos valuados a una milésima del precio de esa
primera computadora recibida por la UASD, miles de millones de veces más poderosos y
eficientes. Las computadoras representan el logro más alto de la industria e intelecto humano,
sus aplicaciones son prácticamente infinitas: medicina, astronáutica, telecomunicaciones,
inteligencia artificial… Las computadoras sólo pueden hacerse más y más imprescindibles en el
futuro. Conocer la historia de estas maravillosas máquinas es por ello una importante faceta en
el estudio de la carrera de Informática.
Referencias.
1. Centre for Computing History. Computing History Timeline. Acceso: 12 de febrero de
2023.
2. Computer Hope. When was the first computer invented?. Acceso: 12 de febrero de
2023.
3. Engineering and Technology History Wiki. Milestones: Manufacture of transistors, 1951.
Acceso: 12 de febrero de 2023.
4. Wikipedia. History of computing. Acceso: 12 de febrero de 2023.
5. Wikipedia. Timeline of computing hardware before 1950. Acceso: 12 de febrero de 2023.
6. Wikipedia. Timeline of computing 1950–1979. Acceso: 12 de febrero de 2023.
7. Wikipedia. Antikythera mechanism. Acceso: 12 de febrero de 2023.
8. Wikipedia (Castellano). Mecanismo de Anticitera. Acceso: 12 de febrero de 2023.
9. Wikipedia. Timeline of computing 1950–1979. Acceso: 12 de febrero de 2023.
10. Wikipedia. Ada Lovelace. Acceso: 12 de febrero de 2023.
11. Wikipedia. Jacquard machine. Acceso: 12 de febrero de 2023.
12. Wikipedia. Konrad Zuse. Acceso: 12 de febrero de 2023.
13. Wikipedia. Hedy Lamarr. Acceso: 12 de febrero de 2023.
14. Wikipedia. Claude Shannon. Acceso: 12 de febrero de 2023.
15. Wikipedia. Turing completeness. Acceso: 12 de febrero de 2023.
16. Wikipedia. Vacuum tube. Acceso: 12 de febrero de 2023.
17. Wikipedia. Transistor computer. Acceso: 12 de febrero de 2023.
18. Wikipedia. Internet. Acceso: 12 de febrero de 2023.
19. Wikipedia. John von Neumann. Acceso: 12 de febrero de 2023.
20. Wikipedia. Grace Hopper. Acceso: 12 de febrero de 2023.
21. Wikipedia. ENIAC. Acceso: 12 de febrero de 2023.
22. Bono Cimarrón. Lara Valerio: Historia de la computadora en dominicana I. Acceso: 12 de
febrero de 2023.
23. Bono Cimarrón. Lara Valerio: Historia de la computadora en dominicana II. Acceso: 12
de febrero de 2023.
24. Youtube. Anécdotas de los Pioneros de la Computación en República Dominicana.
Acceso: 12 de febrero de 2023.
25. Cultura Científica. De la máquina analítica al PC en 10 pasos. Acceso: 12 de febrero de
2023.
26. Mujeres con Ciencia. Pioneras de la tecnología. Acceso: 12 de febrero de 2023.

También podría gustarte