Está en la página 1de 7

Republica Bolivariana de Venezuela

Ministerio del poder popular para la Educación

“UDO” Universidad de oriente

Tecnología en construcción civil

El Computador

Prof: Díaz E Alumno:

Cabeza F

Ciudad Guayana 13 de junio del 2018


Historia del computador
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e
inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población de 1890 de
Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre
contactos eléctricos.
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos
historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron
(1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la
computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la
práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía
muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de
entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un
procesador para las operaciones matemáticas y una impresora para hacer permanente el
registro.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros
modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se
evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder
ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron
sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la
trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la
aviación.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus,
que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo
dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En
1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían
construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este
prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC,
Electrónica Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se
basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry
Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser
modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de
programa que estaba basado en los conceptos del matemático húngaro-estadounidense John
von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que
liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la
ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento
de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con
válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más
prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que
fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se
hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema
resultaba más barata.
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación
de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban
soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los
porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década
de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large
Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de
Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre
un único sustrato de silicio.

Generación del computador


Primera generación ( 1940-1952 )
Hardware: Albergaban circuitos eléctricos, estas maquinas eran muy grandes caras (10.000
dólares) y de difícil operación.
Software: En los tubos fe vacíos que hacían que los ordenadores fuesen enormes. El usuario
tenia que hacer todos los programas en código binario las maquinas eran de un costo enormes,
velocidad 75 pulgadas por segundo.
Segunda generación ( 1959-1965 )
Hardware: Con transistores. Maquina mas pequeñas, confiables económicas.
Software: Aparecen los transitores que hacen que las maquinas se reduzcan de tamaño
facilitando la operación de los sistemas operativos Velocidad: 8,8 kbps
Tercera generación ( 1965-1970 )
Hardware: Con la tecnología que permitió empaquetar cientos de transitores en un circuito
integrado un chip de silicio costo considerable.
Software: Había ordenadores especializados para multitud de cosas concretas. IBM resolvió
problema y creo un software compatible para ordenadores de propósito general.
Cuarta generación ( 1971-1981 )
Hardware: Con el microprocesador, que es un computador completo empaquetado en un solo
chip de silicio su costo era desde 750 dólares.
Software: Aparecen los microprocesadores que son el fundamento de los ordenadores. Son
como los antiguas estaciones de trabajo pero ahora a nivel personal. Mayor velocidad.
Quinta generación ( 1982-1989 )
Hardware: La conectividad entre computadoras, ha adquirido una importancia vital en las
grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadores.
Software: Con bases en los grandes acontecimientos tecnológicos materia de microelectrónica
y computación ( software ) como CAD, CAM, CAE, CASE, inteligencia artificial, sistemas
expertos, redes neurales, teoría del caos, algoritmos genéticos, fibras ópticas,
telecomunicaciones etc. Velocidad: microsegundos.
Sexta generación ( 1990-hoy )
Hardware: Las computadoras cuentan con arquitecturas combinadas paralelo/vectorial. Costo
va desde los 350 mil.
Software: Computadoras capaces de realizar mas de un millón de millones de operaciones de
punto flotante por segundo.

Datos
Un dato es una representación simbólica (numérica, alfabética, algorítmica, espacial, etc.) de
un atributo o variable cuantitativa o cualitativa. Los datos describen hechos empíricos, sucesos
y entidades. Es un valor o referente que recibe el computador por diferentes medios, los datos
representan la información que el programador manipula en la construcción de una solución o
en el desarrollo de un algoritmo.

Información
La información es un conjunto organizado de datos procesados, que constituyen un mensaje
que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Existen
diversos enfoques para el estudio de la información:
 En biología, la información se considera como estímulo sensorial que afecta al
comportamiento de los individuos.
 En computación y teoría de la información, como una medida de la complejidad de un
conjunto de datos.

Diferencia entre datos e información


Por un lado tenemos al dato, que se define como una representación simbólica, la cual puede
ser fácilmente vista como números, letras, hechos, situaciones, entre otros.
Por otro lado tenemos a la información, que se refiere a un conjunto de datos que están
adecuadamente procesados y van proveer un mensaje al receptor, mensaje que va a contribuir
a tomar decisiones frente a determinados problemas y/o situaciones que se presenten en la
vida cotidiana.

Sistema
Un sistema es un conjunto de componentes que se relacionan con al menos algún otro
componente; puede ser material o conceptual. Todos los sistemas tienen composición,
estructura y entorno, pero solo los sistemas materiales tienen mecanismo, y solo algunos
sistemas materiales tienen figura ( forma ).

Algoritmo
En matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo es
un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite
llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba
hacer dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se
llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de
la algoritmia.

Partes de un algoritmo
Todo algoritmo debe obedecer a la estructura básica de un sistema, es decir: entrada, proceso
y salida.
Donde:

Entrada
Corresponde al insumo, a los datos necesarios que requiere el proceso para ofrecer los
resultados esperados.

Proceso
Pasos necesarios para obtener la solución del problema o la situación planteada.

Salida
Resultados arrojados por el proceso como solución.

Características de un algoritmo
Las características fundamentales que debe cumplir un algoritmo son:

Precisión
Indica el orden de realización de cada paso dentro del proceso.

Definición
Indica la exactitud y consistencia de los pasos descritos en el proceso si el algoritmo se prueba
dos veces, en estas dos pruebas, se debe obtener el mismo resultado.

Finitud
Indica el número razonable de pasos, los cuales deben conllevar a la finalización del proceso y
producir un resultado en un tiempo finito.

Flujograma
Un flujograma, también denominado diagrama de flujo, es una muestra visual de una línea de
pasos de acciones que implican un proceso determinado. Es decir, el flujograma consiste en
representar gráficamente, situaciones, hechos, movimientos y relaciones de todo tipo a partir
de símbolos.
Símbolos para representar flujograma

Operadores lógicos
En lógica, una conectividad lógica, o simplemente conectividad, (también llamado operador
lógico o conectores lógico) es un símbolo o palabra que se utiliza para conectar dos formulas
bien formadas o sentencias (atómicas o moleculares), de modo que el valor de verdad de la
fórmula compuesta depende del valor de verdad de las fórmulas componentes.
Los conectivos lógicos más comunes son los conectivos binarios (también llamados conectivos
diádicos) que unen dos frases, que pueden ser consideradas los operando de la función.
También es común considerar a la negación como un conectivo monódico.

Operadores booleanos

El tipo de dato lógico o booleano es en computación aquel que puede representar valores de
lógico binaria, esto es 2 valores, valores que normalmente representan falso o verdadero Se
utiliza normalmente en la programación, estadística, electrónica, matemática (algebra
booleana), etc.
Para generar un dato o valor lógico a partir de otros tipos de datos, típicamente, se emplean
los operadores relacionales (u operadores de relación), por ejemplo: 0 es igual a falso y 1 es
igual a verdadero.

También podría gustarte