Está en la página 1de 18

Historia de la computadora

Te explicamos cómo es la historia de la computadora, sus


antecedentes y las características de cada generación de
computadoras.

Escuchar
2 min. de lectura

La historia de la computadora comienza en 1834 con la máquina analítica


de Babbage.
Historia de la computadora
Las computadoras, computadores u ordenadores son las herramientas
de cálculo más eficientes jamás inventadas. Tienen el suficiente poder
de cálculo, autonomía y velocidad de procesamiento para reemplazarnos
en muchas tareas, o permitirnos dinámicas de trabajo que nunca antes
en la historia habían sido posibles, al punto tal de hacerse hoy en día
indispensables.

Estos aparatos se inventaron en el siglo XX, revolucionando para


siempre la manera en que entendemos los procesos industriales,
las comunicaciones, la sociedad y muchas otras áreas de la vida.

Su historia comienza con el primer computador propiamente dicho, cuya


autoría no puede adjudicársele estrictamente a ninguna persona en
solitario. Desde entonces han cambiado enormemente y nos han
cambiado enormemente, por lo que muchos estudiosos consideran su
aparición una Segunda Revolución Industrial o incluso una Revolución
Digital.

Ver también: Generaciones de las computadoras

Antecedentes de la computadora
Los antecedentes de la computadora se remontan al año 4.000 a. C.
cuando se inventaron las primeras máquinas diseñadas para la
aritmética y las primeras reglas de cálculo. Entre ellos se encuentra el
ábaco, un importante adelanto en la materia.

Muy posteriormente se crearon inventos más sofisticados, como la


máquina de Blaise Pascal (conocida como Máquina de Pascal o
Pascalina), creada en 1642. Consistía en una serie de engranajes que
permitían realizar operaciones aritméticas mecánicamente. Al
mejorarla, en 1671 Gottfried Leibniz dio inicio a las primeras
calculadoras, primas cercanas del computador.

En 1802 Joseph Marie Jacquard inventó un sistema de tarjetas


perforadas que le permitiría automatizar sus telares y reducir así la
necesidad de mano de obra. En 1822 fueron la inspiración del inglés
Charles Babbage en la creación de una máquina de cálculo
diferencial. Babbage es «el padre de la computadora» porque en
1834 inventó una suerte de máquina analítica.

Primera generación (de 1940 a 1952)


Las tarjetas perforadas suministraban instrucciones a las primeras
máquinas.
La generación inicial de computadores inicia con la invención de las
primeras máquinas de cálculo automáticas, que podían considerarse
propiamente un “computador”. Respondían a la necesidad durante
la Segunda Guerra Mundial de descifrar códigos secretos enemigos.

Estaban basadas electrónicamente en válvulas y tubos al vacío. Podían


programarse mediante un conjunto de instrucciones simples, que debían
suministrarse al sistema a través de tarjetas perforadas de papel o de
cartón, como en el invento de Babbage.

Segunda generación (de 1956 a 1964)


La segunda generación representó un cambio importante, ya que se
sustituyeron las válvulas de vacío por transistores, permitiendo hacer
las máquinas mucho más pequeñas y reduciendo además su consumo
eléctrico.

Estas fueron, también, las primeras máquinas en disponer de


un lenguaje de programación, como el célebre FORTRAN. Así, pronto
se hizo obsoleto el sistema de las tarjetas perforadas.
Tercera generación (de 1965 a 1971)

Los circuitos integrados iniciaron la miniaturización de las computadoras.


El salto a la tercera generación estuvo determinado por la invención
de los circuitos integrados: permitieron aumentar a capacidad de
procesamiento de las máquinas y por si fuera poco reducir
sus costos de fabricación.

Se trataba de circuitos impresos en pastillas de silicio, con


pequeños transistores y semiconductores incorporados. Este fue el
primer paso hacia la miniaturización de las computadoras.

Cuarta generación (de 1972 a 1980)


Los microprocesadores aparecieron con las primeras computadoras
personales.
La paulatina integración de los anteriores componentes electrónicos
propició la aparición de los microprocesadores: nuevos circuitos
integrados que reúnen todos los elementos fundamentales de la
computadora y que empezaron pronto a llamarse chips.

Gracias a ellos, las computadoras podían descentralizar sus operaciones


lógico-aritméticas. Por ejemplo, reemplazar la memoria de anillos de
silicio por memoria de chips, fue un paso importante hacia la
microcomputarización. A esta generación pertenecieron las primeras
computadoras personales o PC.

Quinta generación (de 1983 a 2019)


La generación más reciente y vigente hoy en día, presenció la más
enorme diversificación en el ámbito de la computadora de toda su
historia. Se hizo portátil, liviana y cómoda, e incluso expandió sus
fronteras de uso gracias a la posibilidad de las redes informáticas.

El computador ya ni siquiera necesita estar fijo en una habitación, sino


que puede viajar en nuestros maletines. Nunca antes la velocidad de
procesamiento, la versatilidad y la comodidad convergieron tanto en el
mundo de la computadora, permitiéndole fusionarse con los teléfonos
(dando nacimiento al Smartphone) y con otros muchos formatos
diferentes.
Sexta generación (de 2019 al futuro próximo)
Poco se sabe de la generación de computadores por venir. Los grandes
adelantos en materia de inteligencia artificial, computación cuántica
y algoritmos de aprendizaje prometen un futuro altamente
automatizado y de enormes potenciales industriales. En él la
computadora puede dejar de ser un artefacto que nos acompaña y pasar
a estar dentro de nuestros propios cuerpos.

Historia de la Computadora
Te explicamos y resumimos la historia de la computadora, cómo eran las
primeras que se inventaron y cuáles son sus características principales.

La computadora es la máquina de cálculo más avanzada y eficiente inventada.


Escuchar
3 min. of reading

Historia de la computadora
La historia de la computadora es el recuento de los eventos, innovaciones y
desarrollos tecnológicos del campo de la informática y la automatización,
que dieron origen a las máquinas que conocemos como computadoras,
computadores u ordenadores. Registra además su mejoramiento y
actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo
XXI.

Las computadoras, como todos sabemos, son las máquinas de cálculo más
avanzadas y eficientes inventadas por el ser humano. Están dotadas del
suficiente poder de operaciones, la suficiente autonomía y velocidad como para
reemplazarlo en muchas tareas, o permitirle dinámicas de trabajo virtuales y
digitales que nunca antes en la historia habían sido posibles.

La invención de este tipo de aparatos en el siglo XX revolucionó para


siempre la manera en que entendemos los procesos industriales,
el trabajo, la sociedad y un sinfín de otras áreas de nuestra vida. Afecta desde
el modo mismo de relacionarnos, hasta el tipo de operaciones de intercambio
de información a escala mundial que somos capaces de realizar.

Ver además: Microprocesador

Antecedentes de la computadora

Joseph Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas.

La historia de la computadora tiene largos antecedentes, que se remontan a


las primeras reglas de cálculo y a las primeras máquinas diseñadas para
facilitarle al ser humano la tarea de la aritmética. El ábaco, por ejemplo, fue un
importante adelanto en la materia, creado alrededor de 4.000 a. C.
También hubo inventos muy posteriores, como la máquina de Blaise
Pascal, conocida como Máquina de Pascal o Pascalina, creada en 1642.
Consistía en una serie de engranajes que permitían realizar operaciones
aritméticas. Esta máquina fue mejorada por Gottfried Leibinitz en 1671 y se dio
inicio a la historia de las calculadoras.

Los intentos del ser humano por automatizar continuaron desde


entonces: Joseph Marie Jacquard inventó en 1802 un sistema de tarjetas
perforadas para intentar automatizar sus telares, y en 1822 el inglés Charles
Babbage empleó dichas tarjetas para crear una máquina de cálculo diferencial.

Solamente doce años después (1834), logró innovar su máquina y obtener una
máquina analítica capaz de las cuatro operaciones aritméticas y de almacenar
números en una memoria (hasta 1.000 números de 50 dígitos). Por este
motivo, a Babbage se le considera el padre de la computación, ya que esta
máquina representa un salto hacia el mundo de la informática como lo
conocemos.

Invención de la computadora
La invención de la computadora no puede atribuirse a una sola persona. Se
considera a Babbage como el padre de la rama de saberes que luego será la
computación, pero no será sino hasta mucho más adelante que se hará la
primera computadora como tal.

Otro importante fundador en este proceso fue Alan Turing, creador de una
máquina capaz de calcular cualquier cosa, y que llamó “máquina universal” o
“máquina de Turing”. Las ideas que sirvieron para construirla fueron las mismas
que luego dieron nacimiento al primer computador.

Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and


Calculator, o sea, Integrador y Calculador Electrónico Numeral), creado por
dos profesores de la universidad de Pensilvania en 1943, considerado el
abuelo de los computadores propiamente dicho. Consistía en 18.000 tubos al
vacío que llenaban un cuarto entero.
Invención de los transistores

Los transistores fueron fundamentales para la fabricación de los primeros microchips.

La historia de los computadores no habría tenido el curso que tuvo sin la


invención en 1947 de los transistores, fruto de los esfuerzos de los
laboratorios Bell en Estados Unidos. Estos aparatos son interruptores
eléctricos fabricados con materiales sólidos y sin necesidad del vacío.

Este descubrimiento fue fundamental para la fabricación de los primeros


microchips, y permitieron el paso de los aparatos eléctricos a los electrónicos.
Los primeros circuitos integrados (o sea, chips) aparecieron en 1958, fruto de
los esfuerzos de Jack Kilby y Robert Noyce. El primero recibió el Premio Nobel
de Física en 2000 por el hallazgo.

Sigue en: Transistores
El primer computador

La Z3 fue la primera computadora electrónica alemana.

Los primeros computadores surgieron como máquinas de cálculo lógico,


debido a las necesidades de los aliados durante la Segunda Guerra Mundial.
Para decodificar las transmisiones de los bandos en guerra debían hacerse
cálculos rápido y constantemente.

Por eso, la Universidad de Harvard diseñó en 1944 la primera


computadora electromecánica, con ayuda de IBM, bautizada Mark I.
Ocupaba unos 15 metros de largo y 2,5 de alto, envuelta en una caja
de vidrio y acero inoxidable. Contaba con 760.000 piezas, 800 kilómetros de
cables y 420 interruptores de control. Prestó servicios durante 16 años.

Al mismo tiempo, en Alemania, se había desarrollado la Z1 y Z2, modelos de


prueba de computadores similares construidos por Konrad Zuse, quien
completó su modelo Z3 totalmente operacional, basado en el sistema binario.
Era más pequeño y de más barata construcción que su competidor
estadounidense.

La primera computadora de uso comercial


En febrero de 1951 apareció la Ferranti Mark 1, una versión moderna de la
computadora norteamericana del mismo nombre que estaba disponible
comercialmente. Fue sumamente importante en la historia del computador,
pues contaba con un índice de registros, que permitía la lectura más fácil de un
conjunto de palabras en la memoria.
Por esa razón surgieron hasta treinta y cuatro patentes distintas de su
desarrollo. En los años posteriores sirvió de base para la construcción de
las computadoras IBM, muy exitosas industrial y comercialmente.

El primer lenguaje de programación

El lenguaje FORTRAN se desarrolló para el computador IBM 704.

En 1953 apareció FORTRAN, acrónimo de The IBM Mathematical Formula


Translation (“Traducción de fórmulas matemáticas de IBM”), desarrollado como
el primer lenguaje formal de programación, o sea, el primer programa diseñado
para fabricar programas computacionales, por los programadores de IBM,
liderados por John Backus.

Inicialmente se desarrolló para el computador IBM 704, y para una variada


gama de aplicaciones científicas y de ingeniería, razón por la cual tuvo una
amplia serie de versiones a lo largo de medio siglo de implementación. Es
todavía uno de los dos lenguajes de programación más populares,
especialmente para los supercomputadores del mundo.
La primera computadora moderna

Engelbart inventó el ratón (mouse) y la interfaz gráfica de usuario.

La primera computadora moderna apareció en otoño de 1968, como un


prototipo presentado por Douglas Engelbart. Tenía por primera vez un ratón
o puntero, y una interfaz gráfica de usuario (GUI), cambiando para siempre
el modo en que los usuarios y los sistemas computarizados interactuarían en
adelante.

La presentación del prototipo de Engelbart duró 90 minutos e incluyó una


conexión en pantalla con su centro de investigación, constituyendo así la
primera videoconferencia de la historia. Los modelos de Apple y luego
de Windows fueron versiones posteriores de este primer prototipo.
Dispositivos de almacenamiento secundario

Los disquetes de 3 ½ pulgadas eran rígidos, de colores y mucho más pequeños.

El primer dispositivo de intercambio de información entre un computador y otro


fueron los disquetes Floppy, creados en 1971 por IBM. Se trataba de
cuadrados negros de plástico flexible, en el medio de los cuales había un
material magnetizable que permitía grabar y recuperar información. Hubo
varios tipos de disquetes:

 8 pulgadas. Los primeros en aparecer, voluminosos y con capacidad entre 79 y


512 kbytes.
 5 ¼ pulgadas. Semejantes a los de 8 pulgadas pero más pequeños, almacenaban
entre 89 y 360 kbytes.
 3 ½ pulgadas. Introducidos en la década de los 80, eran rígidos, de colores y
mucho más pequeños, con una capacidad de entre 720 y 1440 kbytes.

También hubo versiones de alta y baja densidad, y numerosas variantes de


casetes. A finales de los 80, la aparición y masificación del disco compacto
(CD) reemplazó totalmente el formato, aumentando la velocidad y capacidad de
recuperación de datos.

Finalmente, en el cambio de siglo, todos estos formados de dispositivo se


hicieron obsoletos y fueron reemplazados por el pendrive o memoria flash
removible, de capacidad variada (pero muy superior), alta velocidad y
portatilidad extrema.
Las primeras redes informáticas
La primera red de computadores del mundo fue ARPANET, creada en
1968 por el Departamento de Defensa de los Estados Unidos. Sirvió de
plataforma rápida de intercambio de información entre instituciones educativas
y estatales, con fines probablemente militares.

Esta red se desarrolló, actualizó y eventualmente se convirtió en la columna


vertebral de Internet, abierta ya al público en general, al menos hasta 1990.

Computadoras del siglo XXI

El surgimiento de la robótica promete dejar sin empleo a muchos trabajadores.

Las computadoras hoy son parte de la vida cotidiana, a punto tal que para
muchos es inconcebible ya un mundo sin ellas. Se las encuentra en nuestras
oficinas, en nuestros teléfonos celulares, en diversos electrodomésticos, a
cargo de instalaciones automatizadas, y desempeñando un sinfín de
operaciones de manera automática e independiente.

Esto tiene muchos aspectos positivos, pero también entraña muchos


temores. Por ejemplo, el surgimiento de la robótica, paso siguiente natural de
la computación, promete dejar sin empleo a muchos trabajadores humanos,
superados por la capacidad de automatización que cada día es mayor y más
rápida.
Compartir

Fuente: https://humanidades.com/historia-de-la-computadora/#ixzz7w58CuPTtv

Etapas de procesamiento de datos


Recopilación de datos
La recopilación de datos es el primer paso en el procesamiento de datos. Los
datos se obtienen de las fuentes disponibles, incluidos los archivos de testo y los
almacenes de datos.
Es importante que las fuentes de datos disponibles sean confiables y estén bien
construidas, por lo que los datos recopilados (y luego se utilizan como información)
sean de la mejor calidad posible.

Preparación de datos
Una vez que se recopilan los datos, estos ingresan a la etapa de preparación de
los datos. La preparación de datos, a menudo denominada "preprocesamiento", es
la etapa en la que los datos sin procesar se limpian y organizan para la siguiente
etapa de procesamiento de datos.
Durante la preparación, los datos sin procesar se verifican diligentemente para
detectar cualquier error. El propósito de este paso es eliminar los datos incorrectos
(datos redundantes, incompletos o incorrectos) y comenzar a crear datos de alta
calidad para una mejor inteligencia empresarial.

Entrada de datos
Luego, los datos limpios se ingresan en su destino (tal vez un CRM como
Salesforce o un almacén de datos), y se traducen a un idioma que se pueda
comprender.
La entrada de datos es la primera etapa en la que los datos sin procesar
comienzan a tomar la forma de información utilizable.

Procesamiento
Durante esta etapa, los datos ingresados en la computadora en la etapa anterior
se procesan para su interpretación. El procesamiento se puede realizar mediante
técnicas de filtrado, análisis e visualización de datos e incluso con algoritmos de
aprendizaje automático, aunque el proceso en sí puede variar ligeramente
dependiendo de la fuente de datos que se procesa (base de datos, redes sociales,
dispositivos conectados, etc.) y su uso previsto (examen de patrones de
publicidad, diagnóstico de dispositivos conectados, determinar las necesidades del
cliente, etc.).

Interpretación de los datos


La etapa de salida / interpretación es la etapa en la que los datos son finalmente
utilizables para los usuarios. Se traducen los datos, se pueden leer, y  a menudo
en forma de gráficos, videos, imágenes, texto sin formato, etc.).
Los miembros de la empresa o institución ahora pueden comenzar a administrar
los datos para sus propios proyectos de análisis de datos.

Almacenamiento de datos
La etapa final del procesamiento de datos es el almacenamiento. Una vez que se
procesan todos los datos, se almacenan para su uso futuro. Si bien es posible que
alguna información se use de inmediato, gran parte de ella tendrá un propósito
más adelante.
Además, los datos almacenados correctamente son una necesidad para cumplir
con la legislación de protección de datos como GDPR. Cuando los datos se
almacenan correctamente, los miembros de la organización pueden acceder a
ellos rápida y fácilmente cuando sea necesario.

El análisis de datos

Cuando el dominio desde el que se recogen los datos es una ciencia o ingeniería,
el procesamiento de datos y de sistemas informativos se consideran términos
demasiado amplios, y el término más especializado, análisis de datos se suele
utilizar, centrándose en la altamente especializada y altamente precisa derivación
algorítmica y cálculos estadísticos que se observan con menos frecuencia en el
típico entorno empresarial.
En estos contextos, el análisis de datos de formatos json, csv o xml se utilizan con
frecuencia. Esta divergencia de nomenclatura se expone en las típicas
representaciones numéricas utilizadas en el procesamiento de datos numéricos.
Las Mediciones de procesamiento de datos normalmente están representados por
números enteros o de punto fijo con código binario o representaciones de los
números decimales, mientras que la mayoría de las mediciones del análisis de
datos son a menudo representados por representación de punto flotante de los
números racionales. 

Tratamiento de datos

Prácticamente todos los procesos naturales pueden considerarse como ejemplos


de sistemas de tratamiento de datos donde la "información observable" en forma
de presión, luz, etc. se convierte en señales eléctricas en el sistema nervioso.
En los sentidos lo reconocemos como el tacto, el sonido, y la visión. Incluso en la
interacción de los sistemas vivos rudimentarios se pueden ver esta una forma
básica de sistemas de procesamiento de la información.
El uso convencional de los términos de procesamiento de datos y sistemas de
información limitan su utilización para referirse a las derivaciones algorítmicas,
deducciones lógicas, y los cálculos estadísticos que se repiten en los entornos
empresariales, en lugar de el más amplio sentido, que es la conversión de todas
las mediciones del mundo real en información del mundo real, por ejemplo,
también en un sistema biológico orgánico o incluso un sistema científico o de
ingeniería.

Elementos del procesamiento de datos


Con el fin de ser procesados por un ordenador, en primer lugar los datos necesitan
ser convertidos en un formato legible por máquina.
Una vez que los datos están en formato digital, diversos procedimientos pueden
aplicarse a los datos para obtener información útil. Procesamiento de datos
pueden implicar diferentes procesos, entre ellos:
SISTEMA DE PROCESAMIENTO DE DATOS Los sistemas de procesamiento de datos o sistemas
de computación, consisten en un conjunto de dispositivos que permiten la realización de
diversos procesos que van desde la ejecución de juegos hasta la solución de complicados
cálculos matemáticos, formulas y otros tipos de información basada en el sistema informático.
2. Enumera 3 ventajas y 3 desventajas en el uso de los sistemas informáticos en la actualidad.
Como ejemplo: VENTAJAS DEVENTAJAS Puedes realizar más operaciones en un mismo tiempo
Menos cantidad de personas son necesarias para realizar la misma tarea en forma manual por
lo tanto son menos puestos de trabajo 3. Lee la definición de Hardware y software.
HARDWARE Y SOFTWARE El Hardware son todos los dispositivos físicos y tangibles (se pueden
ver y tocar) de los sistemas informáticos. Por ejemplo: teclado, monitor, placa madre o
motherboard, cables, unidades de almacenamiento, etc. El Software es la parte lógica de los
sistemas informáticos (son los programas). Por ejemplo: El sistema operativo Windows, el
procesador de texto Microsoft Word, juegos, aplicaciones, etc. 4. Dibuja una computadora de
escritorio e indica sus partes. 5. Nombra al menos 5 softwares más usas (puedes incluir los de
celular, Tablet, etc) PARTES DE UNA COMPUTADORA Y FUNCIÓN WEB CAM IMPRESORA
PARLANTE MOUSE TECLADO MONITOR GABINETE

Qué es hardware y software?


Los dispositivos tecnológicos como computadores o
smartphones están compuestos por hardware y software.
Hardware es el conjunto de componentes físicos de los que
está hecho el equipo y software es el conjunto de
programas o aplicaciones, instrucciones y reglas
informáticas que hacen posible el funcionamiento del
equipo.

¿Qué es el hardware?
Es la parte que puedes ver y tocar de los dispositivos. Es decir, todos
los componentes de su estructura física como pantallas y teclados.

¿Cuál es el software?
Estos son los programas informáticos que hacen posible la ejecución
de tareas específicas dentro de un computador. Por ejemplo, los
sistemas operativos, aplicaciones, navegadores web,  juegos o
programas.

Estas características siempre trabajan de la mano. Mientras el software


aporta las operaciones, el hardware es el canal físico por el cual dichas
funciones pueden realizarse.

Aunque aún no tengamos idea de cómo evolucionen las cosas, esta


combinación seguirá funcionando como la base del desarrollo
tecnológico.

También podría gustarte