En este informe de investigación que he elaborado he indagado sobre los
inicios de las computadoras, actualmente podemos decir que una computadora es un rápido y exacto sistema de manipulación de símbolos, organizado para captar, almacenar y procesar datos y producir resultados bajo la dirección de un programa almacenado. Pero su historia viene de muy antiguo. Durante siglos, la gente vivió en la Tierra sin elaborar registros; pero cuando las organizaciones sociales se empezaron a formar, los registros se hicieron necesarios. Las primeras herramientas para dicho objeto tienen que haber sido los propios dedos del ser humano, que los utilizó para representar los números y combinaciones de números. De ahí que la palabra dígito se utiliza tanto para designar el dedo de la mano o el pie como para un número entero. Sin embargo, el número limitado de dedos combinado con la necesidad de recordar más hechos, condujo al uso de otros objetos distintos de los dedos como pequeñas piedras. Hemos recalcado que las computadoras han sido un bien necesario desde su creación,porque estas nos facilitan las labores y el trabajo, tanto a nivel laboral como a nivel estudiantil. A nivel estudiantil nos favorece mucho porque nos permite recopilar informaciones y guardar archivos de nuestras clases con mucho más mayor facilidad que un teléfono móvil inteligente. Origen del computador
Desde los inicios de la humanidad, el hombre ha buscado formas de
simplificar y optimizar sus actividades cotidianas. Esta necesidad ha dado lugar a la creación de numerosos inventos, entre los que se encuentran las computadoras. Las primeras computadoras fueron creadas hace más de 2000 años, aunque en aquel entonces se trataba de dispositivos muy sencillos. Con el paso del tiempo y el avance de la tecnología, las computadoras fueron evolucionando hasta convertirse en los sofisticados dispositivos que son hoy en día. Lo cierto es que es muy complejo atribuir a una única persona el descubrimiento o la invención de las computadoras. Para muchos expertos, son diversas las personas que contribuyeron con sus creaciones, ideas y conocimientos para que este ingenio viese la luz. Los primeros ábacos, que muchas cronologías sitúan en 2500 a.C., consistían en una serie de piedras que se colocaban en hileras paralelas en el suelo. Se movían de derecha a izquierda (los egipcios), o de izquierda a derecha (los griegos), para contar, sumar, restar y multiplicar. Instrumentos parecidos al ábaco aparecen en Babilonia y China en los años 1000 y 500 a. de C., pero aún son nada más que tablas de contar. Lo más parecido era el tablero de Salamis, encontrado en 1846 en la isla del mismo nombre y que se cree que fue usado por los babilonios en tomo al 300 a. de C. Leonardo de Pisa Fibonacci, inventor de la secuencia de Fibonacci, es el primero en usar la expresión abacus en su obra Líber Abad, de 1202, y durante mucho tiempo, ábaco y aritmética fueron equivalentes. El nombre, en griego, significa “tabla”, y probablemente procede del semita aqab, polvo o arena. Sin embargo, el ábaco, tal como lo conocemos nosotros, formado por una serie de cuentas que se deslizan sobre cuerdas o alambres, se popularizó en China en torno a 1300, durante la dinastía Yuan. Entre 1610 y 1617 John Napier, estudioso del Apocalipsis e inventor de los logaritmos, desarrolló un sistema para calcular mediante varillas colocadas sobre un tablero, también llamadas huesos de Napier, precursoras de la regla de cálculo, que se inventa entre 1620-1630. Probablemente fue el matemático inglés William Oughtred, amigo de Napier, quien hacia 1621 desarrolló este instrumento, tanto en su versión rectilínea como circular. En 1624, el matemático alemán Wílhelm Schickard construye la primera calculadora mecánica a partir de los huesos de Napier, veinte años antes que Pascal. Se usa para cálculos astronómicos. En 1645, el matemático y físico francés Blaise Pascal construyó la segunda calculadora mecánica de la historia, la Pascalina. Estuvo tres años construyendo la máquina, que sólo podía sumar y restar, para ayudar a su padre, que trabajaba en Hacienda. En 1670, Wilhelm Leibnitz inventó el sistema binario y descubre muchos de los aspectos matemáticos que se utilizarán en la computación moderna. Se anticipa a Touring y diseña una máquina de calcular, la Stepped Reckoner, que realiza las cuatro operaciones básicas. En 1800, el matemático francés Joseph Jacquard desarrolló un sistema de tarjetas perforadas para controlar el dibujo formado en un telar. Estamos en plena revolución de la industria textil y según los agujeros de la tarjeta, la máquina actúa de una manera u otra. Presentó su proyecto en Lyon en 1805. En 1822, Charles Babbage presenta su proyecto de la máquina diferencial para evaluar polinomios en la Royal Astronomical Society. Babbage fue la primera persona en concebir un ordenador, pero nunca acabó de construir la máquina. Babbage presenta en 1835, una máquina analítica basada en el funcionamiento del telar de tarjetas perforadas de Jacquard, pero, aunque trabajó en el proyecto entre 1833 y 1842, nunca consiguió acabar, como le pasó con la máquina diferencial. En 1855, el sueco Georg Scheutz construye con éxito una máquina diferencial, basada en el diseño de Babbage, que el Gobierno británico compra para su Oficina General del Registro en 1859, aunque finalmente, la falta de fondos frustró el proyecto. El matemático y filósofo inglés George Boole, en 1859, publica su obra Ecuaciones Diferenciales y sienta las bases de la denominada álgebra booleana, una de las bases de la Ciencia Computacional. En 1885, Hermán Hollerith construye la máquina censadora o tabuladora, que por medio de tarjetas perforadas reducía el tiempo al realizar el censo. Es considerado el primer informático. En 1893, Leonardo Torres Quevedo presenta su Memoria sobre las máquinas algebraicas y al año siguiente presenta la primera máquina construida por él. Este ingeniero y matemático español construyó el primer transbordador aéreo que cruza las cataratas del Niágara, el Spanish Aerocar. Muchos investigadores concentraron sus esfuerzos en el diseño de una máquina de cálculo digital. Pero si existe una persona a la que se le puede atribuir el primer prototipo de computadora es al ingeniero electrónico y físico estadounidense de origen Búlgaro John Vincent Atanassoff, nacido en New York el 4 de octubre del año 1903. Atanassoff, realizó diversos estudios y experimentos sobre la realización de cálculos matemáticos mediante aparatos o máquinas analógicas. No había otra alternativa en su tiempo. Según palabras de Atanassoff, estos ingenios eran muy imprecisos y lentos. Por este motivo, era necesario la invención de una máquina de cálculo mucho más eficiente, veloz y fiable que las que existían. No dudó en ponerse manos a la obra y en 1933 comenzó un laborioso proceso de desarrollo e investigación sobre el tema. El objetivo final no era otro que conseguir lo que se conoce hoy en día como el primer computador u ordenador digital. Con la ayuda, colaboración y asistencia del ingeniero eléctrico estadounidense Clifford Berry (1918-1963), enfocaron sus esfuerzos en cuatro pilares o conceptos:
● Electrónica para los componentes operativos.
● Sistema binario para la realización de cálculos.
● Condensadores para el almacenamiento de datos.
● Sistema lógico para la realización de cálculos.
Tras unos pocos años, en 1942, se presentó el primer prototipo de
computadora. Le pusieron el nombre de ABC (acrónimo de Antanassoff-Berry Computers). Dicho artefacto es considerado como la primera computadora digital del mundo. Como curiosidad, decir que Antanassoff cometió el error de no patentar su invento al momento. Esto provocó que Jhon Mauchly (1907-1980), intentará adelantarse y les llevará a ambos a un extenso proceso judicial. Finalmente, en el año 1972, se le otorgó el mérito de ser el padre de la computadora a Atanasoff.
En el siglo XIX, se puede considerar que el pionero en esta lucha contra la
limitación material, y la capacidad espiritual fue el matemático y científico británico Charles Babbage (1791-1871). Fue él quien primero vio la posibilidad, en 1823, de crear una máquina que hiciera posible operaciones matemáticas que el hombre no podría realizar a lo largo de una vida por existir. Eran cálculos matemáticos de tal complejidad que no pueden emprenderse ya que nadie vive lo suficiente para verlos acabados. Babbage, convenció al gobierno inglés para que financiara su “ingenio analítico” capaz de solucionar todo tipo de cálculos. Los esfuerzos de Babbage se unieron a Herman Hollerith (1860-1929), que estaba confeccionando el censo de Estados Unidos. Tenía el problema de que apenas había terminado el censo de un ciclo temporal ya tenía que comenzar el próximo, la cantidad de tiempo que llevaban los cálculos y tabulaciones. Herman Hollerith, fue la persona que introdujo las primeras tarjetas perforadas para almacenar información. Con este revolucionario sistema para la época, consiguió reducir el tiempo a la mitad. Como curiosidad, existe una especie de computadora que funcionaba a vapor. El programa de operaciones se almacenaba en una cinta perforada, método que todavía se seguía empleando en los años sesenta. Pero el primer ordenador nunca llegó a completarse. De cualquier forma, si hubiera sido desarrollado del todo, no hubiera dado resultados, ya que no existía tecnología suficiente. Dado que funcionaba con palancas, bielas, ruedas dentadas, engranajes pesados y lentos que no permitían realizar cálculos rápidos. Solo los electrones, cuya velocidad se aproxima a la de la luz, podrían llevar a cabo los sueños del padre del ordenador.
Continuamos con el siglo XX, el primer esbozo de un computador moderno lo
acometió en 1930, el ingeniero alemán Konrad Zuse (1910-1995). Construyó una calculadora que ya operaba según el modo binario: la Z1. Con aquel ingenio se podía realizar una multiplicación compleja en tres segundos. En 1940, propuso al gobierno alemán financiar su desarrollo, crear una máquina de pensar y resolver de forma rápida cualquier problema, pero Adolf Hitler no le hizo caso. Se considera que en 1942 John Vincent Atanassoff inventó la primera computadora digital. Por tanto, no sí gran polémica y disputas, se considera al ingeniero electrónico estadounidense John Vincent Atanassoff (1903-1955), el inventor de la computadora. Pero de ello hablamos con detalle un poco más abajo. Al comienzo de la Segunda Guerra Mundial los especialistas ingleses en cálculo buscaban la forma de decodificar los mensajes secretos alemanes. Encargaron el asunto al húngaro Alan Mathison Turing (1912-1954) , inventor de una máquina de calcular que lleva su nombre.
La primera computadora se ensambló en 1943 en Bletchley, nos referimos al
computador electromecánico llamado Colossus. El enorme aparato podía tratar cinco mil caracteres por segundo, para lo que requería de más de dos mil lámparas. Esta máquina podía descifrar los mensajes de la inteligencia alemana, pero no era exactamente un ordenador. Al tiempo que Turing trabajaba en Londres, Estados Unidos buscaba la forma de poner al día la máquina de Babbage. En 1944 el ingeniero Howard H.Aiken (1900-1973) daba a conocer su máquina: el Harvard Mark 1, financiada por IBM y se mejoró la calculadora de Babbage.
Paso importantísimo fue dado en 1946, con el computador electrónico ENIAC
o Electronic Numerical Integrator and Computer de John Presper Eckert (1919-1995) y John William Mauchly (1907-1980). El invento se debió al encargo hecho a los científicos citados por el ejército norteamericano necesitado de una máquina rápida para calcular la trayectoria de los proyectiles.Como curiosidad, decir que aquel aparato era inmenso. Pesaba 30 toneladas que ocupaban una superficie de 170 m2. Su cableado tenía varios kilómetros y utilizaba 18.000 válvulas de radio, que consumían gran cantidad de electricidad. Pero se calentaban tanto y tan deprisa que su refrigeración suponía un problema adicional.
A pesar de todo, el armatoste tenía una capacidad de proceso mil veces
inferior a la de un ordenador personal o PC de los años noventa, y no podía almacenar ni la milésima parte de información. Pero la llegada e introducción de la electrónica hizo posible contar con un factor nuevo de capital importancia: la velocidad operativa. Un paso muy importante dentro de la historia de la computadora y su evolución. El ordenador con programación almacenada nacería hacia 1948. Lo lanzó IBM con una revolucionaria idea fruto de las investigaciones de John von Neumann (1903-1957) de la Universidad de Princeton, en New Jersey. La presentación de esta primera computadora electrónica de la Historia tuvo lugar en Nueva York, el 24 de enero de 1948: el modelo IBM SSEC, dotado de 13.500 lámparas al vacío y 21.000 relés. Consistiendo su primera prueba en sumar 3.500 números de 14 cifras decimales cada uno, en un solo segundo. Pero la computadora moderna sólo fue posible con la invención del transistor en 1947. El término fue idea de Maurice Perret, científico francés a quien en 1955 pidió consejo a un alto cargo de IBM sobre cómo llamar a aquellas nuevas máquinas. Propuso el de computadora u ordenador, término que procedía de la Teología, donde figura como uno de los adjetivos que se aplicaban a Dios «Ordenador del mundo». A principios de los años 60 los chips, microchips y circuitos integrados entraban en escena. Disminuyendo el tamaño de las computadoras y aumentando su potencia sensiblemente. .
Generaciones de las computadoras
Las computadoras u ordenadores son las herramientas de cálculo más
eficientes jamás inventadas. Tienen el suficiente poder de cálculo, autonomía y velocidad de procesamiento para reemplazar en muchas tareas, o permitirnos dinámicas de trabajo que nunca antes en la historia habían sido posibles, al punto tal de hacerse hoy en día indispensables. Estos aparatos se inventaron en el siglo XX, revolucionando para siempre la manera en que entendemos los procesos industriales, las comunicaciones, la sociedad y muchas otras áreas de la vida. Su historia comienza con el primer computador propiamente dicho, cuya autoría no puede adjudicarse estrictamente a ninguna persona en solitario. Desde entonces han cambiado enormemente y nos han cambiado enormemente, por lo que muchos estudiosos consideran su aparición una Segunda Revolución Industrial o incluso una Revolución Digital.
Primera generación (de 1940 a 1952)
La generación inicial de computadores inicia con la invención de las primeras
máquinas de cálculo automáticas, que podían considerarse propiamente un “computador”. Responden a la necesidad durante la Segunda Guerra Mundial de descifrar códigos secretos enemigos. Estaban basadas electrónicamente en válvulas y tubos al vacío. Podían programarse mediante un conjunto de instrucciones simples, que debían suministrarse al sistema a través de tarjetas perforadas de papel o de cartón, como en el invento de Babbage.
Segunda generación (de 1956 a 1964)
La segunda generación representó un cambio importante, ya que se
sustituyeron las válvulas de vacío por transistores, permitiendo hacer las máquinas mucho más pequeñas y reduciendo además su consumo eléctrico. Estas fueron, también, las primeras máquinas en disponer de un lenguaje de programación, como el célebre FORTRAN. Así, pronto se hizo obsoleto el sistema de las tarjetas perforadas.
Tercera generación (de 1965 a 1971)
El salto a la tercera generación estuvo determinado por la invención de los circuitos integrados: permitieron aumentar la capacidad de procesamiento de las máquinas y por si fuera poco reducir sus costos de fabricación. Se trataba de circuitos impresos en pastillas de silicio, con pequeños transistores y semiconductores incorporados. Este fue el primer paso hacia la miniaturización de las computadoras.
Cuarta generación (de 1972 a 1980)
La paulatina integración de los anteriores componentes electrónicos propició
la aparición de los microprocesadores: nuevos circuitos integrados que reúnen todos los elementos fundamentales de la computadora y que empezaron pronto a llamarse chips. Gracias a ellos, las computadoras podían descentralizar sus operaciones lógico- aritméticas. Por ejemplo, reemplazar la memoria de anillos de silicio por memoria de chips, fue un paso importante hacia la microcomputarización. A esta generación pertenecen las primeras computadoras personales o PC.
Quinta generación (de 1983 a 2019)
La generación más reciente y vigente hoy en día, presenció la más enorme
diversificación en el ámbito de la computación de toda su historia. Se hizo portátil, liviana y cómoda, e incluso expandió sus fronteras de uso gracias a la posibilidad de las redes informáticas.El computador ya ni siquiera necesita estar fijo en una habitación, sino que puede viajar en nuestros maletines. Nunca antes la velocidad de procesamiento, la versatilidad y la comodidad convergieron tanto en el mundo de la computadora, permitiéndole fusionarse con los teléfonos (dando nacimiento al Smartphone) y con otros muchos formatos diferentes.
Sexta generación (de 2019 al futuro próximo)
Poco se sabe de la generación de computadores por venir. Los grandes adelantos en materia de inteligencia artificial, computación cuántica y algoritmos de aprendizaje prometen un futuro altamente automatizado y de enormes potenciales industriales. En él la computadora puede dejar de ser un artefacto que nos acompaña y pasar a estar dentro de nuestros propios cuerpos.
Conclusión
En la actualidad, dada la complejidad del mundo actual, con el manejo
inmenso de conocimientos e información propia de esta época de crecimiento tecnológico es indispensable contar con una herramienta que permita manejar información con eficiencia y flexibilidad, esa herramienta es la computadora. Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa. Si bien esta máquina puede ser de dos tipos, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de «la computadora» se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.
ChatGPT Ganar Dinero Desde Casa Nunca fue tan Fácil Las 7 mejores fuentes de ingresos pasivos con Inteligencia Artificial (IA): libros, redes sociales, marketing digital, programación...
Excel para principiantes: Aprenda a utilizar Excel 2016, incluyendo una introducción a fórmulas, funciones, gráficos, cuadros, macros, modelado, informes, estadísticas, Excel Power Query y más
Guía De Hacking De Computadora Para Principiantes: Cómo Hackear Una Red Inalámbrica Seguridad Básica Y Pruebas De Penetración Kali Linux Su Primer Hack