Está en la página 1de 17

GENERAICON DE LOS COMPUTADORES

DUVAN CAMILO SALAMANCA ROSAS


11. C

EDWIN GUTIERREZ

INSTITUCION EDUCATIVA JOSE MARIA CORDOBA


TAURAMENA-CASANARE
TECNICA DE SISTEMAS
2017
El Padre de la Computación
CHARLES BABBAGE

Fue un matemático británico y


científico de la computación.
Diseñó y parcialmente implementó
una máquina para calcular, de
diferencias mecánicas para
calcular tablas de números.
También diseñó, pero nunca
construyó, la máquina analítica
para ejecutar programas de
tabulación o computación; por
estos inventos se le considera
como una de las primeras personas en concebir la idea de lo que hoy
llamaríamos una computadora, por lo que se le considera como «El
Padre de la Computación».
Babbage intentó encontrar un método por el cual se pudieran hacer
cálculos automáticamente por una máquina, eliminando errores
debidos a la fatiga o aburrimiento que sufrían las personas encargadas
de compilar las tablas matemáticas de la época.
Esta idea la tuvo en 1812. Tres diversos factores
parecían haberlo motivado: una aversión al
desorden, su conocimiento de tablas logarítmicas,
y los trabajos de máquinas calculadoras
realizadas por Blaise Pascal y Gottfried Leibniz.
En 1822, en una carta dirigida a sir Humphry
Davy en la aplicación de maquinaria al cálculo e
impresión de tablas matemáticas, discutió los
principios de una máquina calculadora. Además
diseñó un plano de computadoras.
PRIMERA GENERACION (1939 - 1958)
La primera generación de
computadoras abarca
desde el año 1946 hasta
el año 1958, época en
que la tecnología
electrónica era a base de
bulbos o tubos de vacío, y
la comunicación era en
términos de nivel más
bajo que puede existir,
que se conoce como
lenguaje de máquina el cual estaba compuesto por unos y ceros (1 0 1
0 0 0 1).

En 1947 la Primera computadora digital


electrónica de la historia se llamó ENIAC. No
fue un
modelo de
producción,
sino una
máquina

experimental. Tampoco era


programable en el sentido actual. Se
trataba de un enorme aparato que
ocupaba todo un sótano en la universidad. Construida con 18.000
bulbos consumía varios Kw de potencia eléctrica y pesaba algunas
toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue
hecha por un equipo de ingenieros y científicos encabezados por los
doctores John W. Mauchly y J. Prester Eckert en la universidad de
Pennsylvania, en los Estados Unidos.

En 1949 la Primera computadora programable


se llamó EDVAC. También fue un prototipo de
laboratorio,
pero ya incluía
en su diseño
las ideas
centrales que
conforman las computadoras
actuales. Incorporaba las ideas del
doctor Alex Quimis, la cual fue creada
por el Doctor John Williams Mauchly.

En 1951 Primera computadora comercial fue


UNIVAC 1. Los doctores Mauchly y Eckert
fundaron la compañía Universal Computer
(Univac), y su primer producto fue esta
máquina. El primer cliente fue la Oficina del
Censo de Estados Unidos.
En 1953 Fue creada la IBM 701. Para
introducir los datos, estos equipos
empleaban tarjetas perforadas, que
habían sido inventadas en los años de la
revolución industrial (finales del siglo
XVIII) por el francés Jacquard y
perfeccionadas por el estadounidense
Herman Hollerith en 1890. La IBM 701
fue la primera de una larga serie de computadoras de esta compañía,
que luego se convertiría en el número 1 por su volumen de ventas.

En 1954 - IBM continuó con otros modelos,


que incorporaban un mecanismo del año de
1960 almacenamiento masivo llamado tambor
magnético, que con los años evolucionaría y
se convertiría en el disco magnético.
Tubos al vacío

La era de la computación moderna empezó con una ráfaga de


desarrollo antes y durante la Segunda Guerra Mundial, como circuitos
electrónicos, relés, condensadores y tubos de vacío que reemplazaron
los equivalentes mecánicos y los cálculos digitales reemplazaron los
cálculos analógicos

SEGUNDA GENERACIÓN (1954 - 1964)


Esta generación abarca el periodo comprendido entre 1954 y 1964,
caracterizándose por la invención del transistor. En los años 50, los
transistores reemplazaron a las válvulas de vacío en los circuitos de
las computadoras. Las computadoras de la segunda generación ya no
eran válvulas de vacío, sino con transistores son más pequeñas y
consumen menos electricidad que las anteriores, la forma de
comunicación con estas nuevas computadoras es mediante lenguajes
más avanzados que el lenguaje de máquina, y que reciben el nombre
de “lenguajes de alto nivel” o lenguajes de programación

En 1951, Maurice Wilkes inventa la microprogramación, que simplifica


mucho el desarrollo de las CPU.

En 1956, IBM vendió su primer sistema de disco magnético, RAMAC


[Random Access Method of Accounting and Control]. Usaba 50 discos
de metal de 61cm, con 100 pistas por lado. Podía guardar 5
megabytes de datos y con un costo de $10.000 por megabyte.

•Utilización del transistor.


•Reducción del tamaño.
• Disminución del consumo y de
la producción del calor.
• Mayor rapidez a en los cálculos.
• Mejora de los dispositivos de
entrada y salida.
• Lenguajes de programación
más potentes.
En 1959, IBM envió la mainframe IBM 1401 basado en transistor, que
utilizaba tarjetas perforadas. Demostró ser una computadora de
propósito general y 12.000 unidades fueron vendidas, haciéndola la
máquina más exitosa en la historia de la computación. Tenía una
memoria de núcleo magnético de 4.000 caracteres (después se
extendió a 16.000 caracteres).
En 1960, IBM lanzó el mainframe IBM 1620 basada en transistores,
originalmente con solo una cinta de papel perforado, pero pronto se
actualizó a tarjetas perforadas.
En 1964, IBM anunció la serie S/360, que fue la primera familia de
computadoras que podía correr el mismo software en diferentes
combinaciones de velocidad, capacidad y precio. También abrió el uso
comercial de microprogramas, y un juego de instrucciones extendidas
para procesar muchos tipos de datos, no solo aritmética.
TERCERA GENERACIÓN (1965-1974)
A mediados de los años 60 se produjo la invención del circuito
integrado o microchip, por parte de Jack St. Claire Kilby y Robert
Noyce. Después llevó a Ted Hoff a la invención del microprocesador,
en Intel. A finales de 1960, investigadores como George Gamow notó
que las secuencias de nucleótidos en
el ADN formaban un código, otra forma
de codificar o programar.
A partir de esta fecha, empezaron a
empaquetarse varios transistores
diminutos y otros componentes
electrónicos en un solo chip o
encapsulado, que contenía en su
interior un circuito completo: un amplificador, un oscilador, o una
puerta lógica. Naturalmente, con estos chips (circuitos integrados) era
mucho más fácil montar aparatos complicados: receptores de radio o
televisión y computadoras.
OPTIMIZACIONES
Menor consumo de energía.
Apreciable reducción del espacio
Aumento de fiabilidad
Teleproceso
Multiprogramación
CUARTA GENERACIÓN (1971 - 1981)
Dos mejoras en la tecnología de las
computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias
con núcleos
magnéticos, por las
de chips de silicio y la
colocación de Muchos más componentes en un
Chip: producto de la micro miniaturización de
los circuitos electrónicos. El tamaño reducido
del microprocesador y de chips hizo posible la
creación de las computadoras personales (PC).

EL MICROPROCESADOR
Una, por no decir la más importante de las contribuciones de la cuarta
generación de computadoras es el microprocesador, la cual está
contenida en una pastilla de silicio o Chip y que no es otra cosa que la
microminiaturización de los circuitos electrónicos. El primer
microprocesador se inventó en 1.971.
QUINTA GENERACIÓN DE COMPUTADORES (1982 -
1989)
Fue un proyecto ambicioso lanzado por
Japón a finales de los 70. Su objetivo era
el desarrollo de una clase de
computadoras que utilizarían técnicas de
inteligencia artificial al nivel del lenguaje
de máquina y serían capaces de resolver
problemas complejos, como la traducción
automática de una lengua natural a otra
(del japonés al inglés, por ejemplo).
El proyecto duró diez años,
pero no obtuvo los resultados
esperados: las computadoras
actuales siguieron así, ya que
hay muchos casos en los
que, o bien es imposible
llevar a cabo una paralización
del mismo, o una vez llevado
a cabo ésta, no se aprecia
mejora alguna, o en el peor
de los casos, se produce una
pérdida de rendimiento y se desarrollaron las supercomputadoras.

SEXTA GENERACIÓN DE COMPUTADORES (1990 –


HASTA LA FECHA)
Como supuestamente la sexta generación de computadoras está en
marcha desde principios de los años noventa, debemos por lo menos,
trazar las características que deben tener las computadoras de esta
generación. También se mencionan algunos de los avances
tecnológicos de la última década del siglo XX y lo que se espera lograr
en el siglo XXI. Las computadoras de esta generación cuentan con
arquitecturas combinadas Paralelo / Vectorial, con cientos de
microprocesadores vectoriales trabajando al mismo tiempo; se han
creado computadoras capaces de realizar más de un millón de
millones de operaciones aritméticas de punto flotante por segundo
(teraflops); las redes de área mundial (Wide Area Network, WAN)
seguirán creciendo desorbitadamente utilizando medios de
comunicación a través de fibras ópticas y satélites, con anchos de
banda impresionantes. Las tecnologías de esta generación ya han
sido desarrolla das o están en ese proceso. Algunas de ellas son:
inteligencia / artificial distribuida; teoría del caos, sistemas difusos,
holografía, transistores ópticos, etcétera.
TECNOLOGÍAS DE SEXTA GENERACIÓN
INTELIGENCIA ARTIFICIAL
Son sistemas que pueden aprender a partir de la experiencia y que
son capaces de aplicar asta información en situaciones nuevas. Tuvo
sus inicios en los años 50 algunas aplicaciones se pueden encontrar
en:
Traductores de lenguajes
Robots con capacidad de movimiento
Juegos
Reconocimientos de formas tridimensionales
Entendimiento de relatos no triviales

Debe quedar claro que la inteligencia artificial no implica


computadoras inteligentes; implica más bien computadoras que
ejecutan programas diseñados para simular algunas de las reglas
mentales mediante las
cuales se puede
obtener conocimiento a
partir de hechos
específicos que ocurren,
o de entender frases
del lenguaje hablando, o
de aprender reglas para
ganar juegos de mesa.
Para desarrollar
este concepto se
pretendía cambiar la
forma en que las computadoras interactuaban con la información
cambiando su lenguaje base a un lenguaje de programación lógica.
El concepto de IA es aún demasiado difuso. Contextualizando, y
teniendo en cuenta un punto de vista científico, podríamos definir esta
ciencia como la encargada de imitar el cerebro, que no el cuerpo, de
una persona en todas sus funciones. Estas pueden ser las ya
existentes en el humano o bien otras novedosas e incorporadas en el
desarrollo de una máquina inteligente.
En relación a la conciencia y las emociones, y aunque por el momento
la mayoría de los investigadores en el ámbito de la Inteligencia
Artificial se centran sólo en el aspecto racional, hay expertos que
consideran seriamente la posibilidad de incorporar componentes
«emotivos» como indicadores de estado, a fin de aumentar la eficacia
de los sistemas inteligentes en determinadas situaciones.
A diferencia de los humanos, hay términos que la Inteligencia Artificial
no puede comprender o entender conceptos humanos como el amor,
el matrimonio, el sentido de la vida, el libre albedrio el cariño o las
emociones humanas

CRITICAS
Las principales críticas a la inteligencia artificial tienen que ver con su
capacidad de imitar por completo a un ser humano. Sin embargo, hay
expertos en el tema que indican que ningún humano individual tiene
capacidad para resolver todo tipo de problemas, y autores
como Howard Gardner han teorizado que existen inteligencias
múltiples. Un sistema de inteligencia artificial debería resolver
problemas por lo que es fundamental en su diseño la delimitación de
los tipos de problemas que resolverá y las estrategias y algoritmos que
utilizará para encontrar la solución.
Muchas personas consideran que el test
de Turing ha sido superado, citando
conversaciones en que al dialogar con un
programa de inteligencia artificial
para chat no saben que hablan con un
programa. Sin embargo, esta situación no
es equivalente a un test de Turing, que
requiere que el participante esté sobre
aviso de la posibilidad de hablar con una
máquina.
SISTEMAS EXPERTOS

Los Sistemas Expertos, rama de la Inteligencia Artificial, son sistemas


informáticos que simulan el proceso de aprendizaje, de memorización,
de razonamiento, de comunicación y de acción en consecuencia de un
experto humano en cualquier rama de la ciencia.

Estas características le permiten almacenar datos y conocimiento,


sacar conclusiones lógicas, tomar decisiones, aprender de la
experiencia y los datos existentes, comunicarse con expertos
humanos, explicar el porqué de las decisiones tomadas y realizar
acciones como consecuencia de todo lo anterior.

Técnicamente un sistema experto, contiene una base de


conocimientos que incluye la experiencia acumulada de expertos
humanos y un conjunto de reglas para aplicar ésta base de
conocimientos en una situación particular que se le indica al programa.
Cada vez el sistema se mejora con adiciones a la base de
conocimientos o al conjunto de reglas.

VENTAJAS

Permanencia: A diferencia de un experto humano un SE


(sistema experto) no envejece, y por tanto no sufre pérdida de
facultades con el paso del tiempo.
Replicación: Una vez programado un SE lo podemos replicar
infinidad de veces.
Rapidez: Un SE puede obtener información de una base de
datos y realizar cálculos numéricos mucho más rápido que
cualquier ser humano.
Bajo costo: A pesar de que el costo inicial pueda ser elevado,
gracias a la capacidad de duplicación el coste finalmente es
bajo.
Entornos peligrosos: Un SE puede trabajar en entornos
peligrosos o dañinos para el ser humano.
Fiabilidad: Los SE no se ven afectados por condiciones externas,
un humano sí (cansancio, presión, etc.).
Consolidar varios conocimientos.
Apoyo Académico.

LIMITACIONES

Sentido común: Para un Sistema Experto no hay nada obvio. Por


ejemplo, un sistema experto sobre medicina podría admitir que
un hombre lleva 40 meses embarazado, a no ser que se
especifique que esto no es posible ya que un hombre no puede
gestar hijos.
Lenguaje natural: Con un experto humano podemos mantener
una conversación informal mientras que con un SE no podemos.
Capacidad de aprendizaje: Cualquier persona aprende con
relativa facilidad de sus errores y de errores ajenos, que un SE
haga esto es muy complicado.
Perspectiva global: Un experto humano es capaz de distinguir
cuales son las cuestiones relevantes de un problema y
separarlas de cuestiones secundarias.
Capacidad sensorial: Un SE carece de sentidos.
Flexibilidad: Un humano es sumamente flexible a la hora de
aceptar datos para la resolución de un problema.
Conocimiento no estructurado: Un SE no es capaz de manejar
conocimiento poco estructurado.

También podría gustarte