Está en la página 1de 5

República bolivariana de Venezuela

Ministerio del poder popular para la educación


Colegio universitario de administración y mercadeo
C.U.A.M
Semestre I (2022-A)

La Informática:
Origen y Evolución

Profesor: Alumno:
Claudio Silva Edgar Chacón
Definición de la informática:

El término informática proviene del francés informatique, implementado por el ingeniero


Philippe Dreyfus a comienzos de la década del 60 la apalabra es, a su vez, un acrónimo de
palabra information information y automatique de esta forma, la informática se refiere al
procesamiento automático de información mediante a un dispositivos electrónicos y sistemas
computacionales. Los sistemas informáticos deben contar con la. Capacidad de cumplir tres
tareas básicas: entrada (captación de la información), procesamiento y salida (transmisión de
los resultados). El conjunto de estas tres tareas se conoce como algoritmo.

Usos de la informática:
La informática reúne a muchas de las técnicas que el hombre ha desarrollado con el objetivo
de potenciar sus capacidades de pensamiento, memoria y comunicación. Su área de aplicación
no tiene límites: la informática se utiliza en la gestión de negocios, en el almacenamiento de
información, en el control de procesos, en las comunicaciones, en los transportes, en la
medicina y en muchos otros sectores.
La informática abarca también los principales fundamentos de las ciencias de la computación,
como la programación para el desarrollo de software, la arquitectura de las computadoras y del
hardware, las redes como Internet y la inteligencia artificial. Incluso se aplica en varios temas
de la electrónica.
Historia y evolución:
1614: en escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el
cálculode multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.

1642: en científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la
pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares
originales.

1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz
demultiplicar y dividir.

1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta
perforada que controla el patrón de funcionamiento de la máquina, una idea que sería
empleada más adelante por los primeros computadores.

1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la


primera computadora, de funcionamiento mecánico, a la que llamó la «máquina analítica».
Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer
realidad su idea.

1946: en la Universidad de Pensilvania se pone en funcionamiento la ENIAC (Electronic


Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera
computadora electrónica de propósito general

Se considera que la primera máquina programable y completamente automática de la historia


fue el computador Z3, diseñado por el científico alemán Konrad Zuse en 1941. Esta máquina
pesaba 1000 kilogramos y se demoraba tres segundos para realizar una multiplicación o una
división. Las operaciones de suma o resta, en cambio, le insumían 0,7segundos.
En 1942 John Vicent Atanasoff y Cliffor Adwrd Berry complementaron una calculadora de
propósitos especial para resorber sistemas de ecuaciones lineales la cuales fueron llamadas
“ABC”

En 1944 en Estados Unidos construyen en la universidad de Harvard la Harvard Mark 1


primera máquina electrónica diseñada por un equipo encabezado por Howard H Aiken

En el mismo año en Inglaterra se construyeron los ordenadores Colossus mark 1 y Colosuss


mark 2 con el objetivo de descifrar las comunicaciones de los alemanes durante la segunda
guerra mundial.

En 1945 John von Neumann escribe el first draf of a reporto n the EDVAC una página del
primer documento donde se describe el diseño lógico de una computadora utilizando el
concepto de un programa almacenado conocido como stored program formando una escritura
distinta. Mejor conocida como máquina de descifrado.

En 1946 en la universidad de Pensilvania se construye la ENIAC (electronic numerical


integrador and calculador) que fue la primera computadora electrónica con propósito general
esta máquina ocupaba todo un sótano de la universidad tenía más de 17.00 tubos de vacío
consumía 200 kW de energía eléctrica requería todo un sistema de aire acondicionado tenía la
capacidad de realizar cinco mil operaciones aritméticos por segundo.

En 1947 en laboratorio bell John bardeen Walter h Brattain y William Shockly inventan el
trasmisor.

En 1949: Jay Forrester desarrolla la primera memoria la cual remplazo los confiables turbos
de vacíos con la forma de predominante de memoria por los próximos diez años.

En 1950 Alan turing expone un artículo que describe lo que ahora conocemos como la prueba
de turing su publicación explota el desarrollo natural y potencial de la inteligencia humana y
de la computadora.
En 1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia
de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser
almacenado.

1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso
del lenguaje ensamblador para la programación de las computadoras. Las computadoras con
transistores reemplazan a las de válvulas, marcando el comienzo de la segunda generación de
computadoras.

1957: Jack S. Kilby construye el primer circuito integrado.

1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras,
en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser
reemplazadas con placas de circuitos integrados.

1965: Olivetti lanza, Programa 101, la primera computadora de escritorio.

1971: Nicolet Instruments Corp. lanza al mercado la Nicolet 1080, una computadora de uso
científico basada en registros de 20 bits.

1971: Intel presenta el primer microprocesador comercial, el primer chip: el microprocesador


Intel 4004.

La evolución de la informática en las últimas décadas no resulta tan interesante como la que
sus usuarios han atravesado, ya que muchos de ellos pasaron de un estado de falta de interés a
uno de absoluta dependencia de la tecnología. Sobra decir que hay matices en esta historia:
usar un ordenador o un teléfono móvil no nos convierte en expertos, pero ya es más que
mantenernos a un costado de este fenómeno simplemente por la falta de voluntad para entender
su potencial.

También podría gustarte