Está en la página 1de 12

Que Es Estadística

La estadística es la ciencia que estudia cómo debe emplearse la información y


cómo dar una guía de acción en situaciones prácticas que entrañan
incertidumbre. (Gutiérrez, p.23)
La estadística es la ciencia de los datos, la cual implica su recolección,
clasificación, síntesis, organización, análisis e interpretación, para la toma de
decisiones frente a la incertidumbre (Ángel, p. 28)
La estadística es la rama del conocimiento humano que tiene como objeto el
estudio de ciertos métodos inductivos aplicables a fenómenos susceptibles de
expresión cuantitativa. (López, p.1)
La estadística es el arte de aprender a partir de los datos. Está relacionada con
la recopilación de datos, su descripción subsiguiente y su análisis, lo que nos lleva a extraer conclusiones. (Ross, p.3)
La estadística es una ciencia que facilita la toma de decisiones mediante la presentación ordenada de los datos observados
en tablas y gráficos estadísticos, reduciendo los datos observados a un pequeño número de medidas estadísticas que
permitirán la comparación entre diferentes series de datos y estimando la probabilidad de éxito que tiene cada una de las
decisiones posibles. (Fernández et.al, p.18)

Que Es Estadística Comercial


La estadística es útil para una amplia variedad de ciencias fácticas, desde
la física hasta las ciencias sociales, desde las ciencias de la salud hasta
el control de calidad. Además, se usa en áreas de negocios o
instituciones gubernamentales con el objetivo de describir el conjunto de
datos obtenidos para la toma de decisiones, o bien para realizar
generalizaciones sobre las características observadas.
En la actualidad, la estadística es una ciencia que permite estudiar una
determinada población a partir de
la recolección, recopilación e interpretación de datos. Del mismo modo,
también es considerada una ciencia especial apta para el estudio
cuantitativo de los fenómenos de masa o colectivo.

Que Es Estadística Inferencial


La estadística inferencial es una parte de
la estadística que comprende los métodos y procedimientos
que por medio de la inducción determina propiedades de
una población estadística, a partir de una parte de esta. Su
objetivo es obtener conclusiones útiles para hacer
deducciones sobre una totalidad, basándose en la
información numérica de la muestra.
Se dedica a la generación de los modelos, inferencias y
predicciones asociadas a los fenómenos en cuestión
teniendo en cuenta la aleatoriedad de las observaciones. Se
usa para modelar patrones en los datos y extraer inferencias
acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas sí/no (prueba
de hipótesis), estimaciones de unas características numéricas (estimación), pronósticos de futuras observaciones,
descripciones de asociación (correlación) o modelamiento de relaciones entre variables de Sam (análisis de
regresión). Otras técnicas de modelamiento incluyen análisis de varianza, series de tiempo y minería de datos.
Que Es Población
La población humana se refiere, tanto en geografía como en sociología,
al grupo de seres humanos o personas que viven en un área o espacio
geográfico determinado.
El término población procede del latín antiguo y clásico populus que
significa población o pueblo. Era muy frecuente encontrar este término en
las obras de infraestructura o monumentos tanto en la Roma Republicana
como en la Roma Imperial. Todas las inscripciones en dichas
construcciones llevaban la
inscripción SENATUSPOPULUSQVEROMANUS (SENATUS POPULUS
QUE ROMANUS), como puede observarse en el Arco de Tito del siglo I,
que significa Senado y pueblo romanos, la cual llegó a simplificarse en
muchísimos casos a SPQR cuya traducción al castellano actual sería El
Senado y la población que (son) romanos. Aunque en la inscripción señalada hace referencia a la época del Imperio
Romano, debe anotarse que dicha referencia aparece ya en la historia antigua de Roma, ya que la institución del senado
romano procedía de la historia primitiva de Roma (monarquía) y tuvo su gran apogeo durante el período republicano. En
el castellano antiguo, en algunos casos, la letra U se escribía como V y viceversa.
Para la demografía, centrada en el estudio estadístico de la población humana mundial, la población es un conjunto
renovado en el que entran nuevos individuos –por nacimiento o inmigración– y salen otros –por muerte o emigración–.3 La
población total de un territorio o localidad se determina por procedimientos estadísticos y mediante el censo de población.4
Que Es Variables
Derivada del término en latín variabilis, variable es una
palabra que representa a aquello que varía o que está sujeto
a algún tipo de cambio. Se trata de algo que se caracteriza
por ser inestable, inconstante y mudable. En otras palabras,
una variable es un símbolo que permite identificar a un
elemento no especificado dentro de un determinado grupo.
Este conjunto suele ser definido como el conjunto universal
de la variable (universo de la variable, en otras ocasiones), y
cada pieza incluida en él constituye un valor de la variable.
Por ejemplo: x es una variable del universo {1, 3, 5, 7}. Por lo
tanto, x puede ser igual a cualquiera de los recién
mencionados valores, con lo cual es posible reemplazar a x
por cualquier número impar que sea inferior a 8.
Como podrán advertir, las variables son elementos presentes en fórmulas, proposiciones y algoritmos, las cuales
pueden ser sustituidas o pueden adquirir sin dejar de pertenecer a un mismo universo, diversos valores. Cabe
mencionar que los valores de una variable pueden enmarcarse dentro de un rango o estar limitados por
situaciones de pertenencia.

Que Es Variables Cualitativas


Una variable, en el ámbito de la matemática, es un símbolo
que puede aparecer en una función, un algoritmo, una
proposición o una fórmula, adoptando distintos valores. Al
establecer vínculos con otras variables, pueden contribuir al
desarrollo de una teoría o de una hipótesis, adquiriendo la
denominación de constructos.
Es posible diferenciar entre distintas clases de variables según
el contexto. Las variables cualitativas son aquellas que
permiten la expresión de una característica, una categoría, un atributo o una cualidad.
Es interesante en este sentido conocer el origen etimológico de las dos palabras que componen el término que
nos ocupa. Así, podemos establecer la siguiente información:
-Variable procede del latín, concretamente de “variabilis” que es fruto de la suma de dos componentes: el verbo
“variare”, que puede traducirse como “cambiar de aspecto”, y el sufijo “-able”, que se utiliza para indicar
posibilidad.
-Cualitativa, por otro lado, también deriva del latín. En su caso de la palabra “qualitativus”, que se compone de
dos partes: el sustantivo “qualitas”, que significa “calidad”, y el sufijo “-tivo”. Este se usa para indicar una
relación pasiva o activa.

Que Es Variables Cuantitativas


El símbolo que aparece en proposiciones, algoritmos, fórmulas y funciones y que adopta distintos valores recibe el nombre
de variable. De acuerdo a sus características, se puede distinguir entre diferentes clases de variables. Las variables
cuantitativas son aquellas que adoptan valores numéricos (es decir, cifras). De este modo se diferencian de las variables
cualitativas, que expresan cualidades, atributos, categorías o
características. Es importante en este punto que procedamos a
conocer el origen etimológico de las dos palabras que dan forma al
término que nos ocupa:
-Variable procede del latín, en concreto deriva de “variabilis”, que
puede traducirse como “que puede cambiar de aspecto”. Es fruto de la
suma de dos componentes: el verbo “variare”, que es sinónimo de
“cambiar de aspecto”, y el sufijo “-able”, que se usa para indicar
posibilidad.
En el conjunto de las variables cuantitativas, también podemos
reconocer varios tipos de variables. Las variables cuantitativas
continuas pueden adoptar cualquier valor en el marco de un
determinado intervalo. De acuerdo a la precisión del instrumento que
realiza la medición, pueden existir otros valores en el medio de dos valores. La altura de una persona, por ejemplo, es una
variable cuantitativa continua (pueden ser valores como 1,70 metros; 1,71 metros; 1,72 metros, etc.).

¿Qué es la estadística descriptiva?


La estadística emplea métodos descriptivos y de inferencia estadística. Los primeros se ocupan de la
recolección, organización, tabulación, presentación y reducción de la información.

En el caso de la estadística descriptiva se sustituye o reduce el conjunto de datos obtenidos por un pequeño
número de valores descriptivos, como pueden ser: el promedio, la mediana, la media geométrica, la varianza, la
desviación típica, etc. Estas medidas descriptivas pueden ayudar a brindar las principales propiedades de los
datos observados, así como las características clave de los fenómenos bajo investigación.
Por lo general, la información proporcionada por la estadística descriptiva puede ser trasmitida con facilidad y
eficacia mediante una variedad de herramientas gráficas, como pueden ser:
Gráficos de tendencia: es un trazo de una característica de
interés sobre un periodo, para observar su comportamiento en el
tiempo.
Gráfico de dispersión: ayuda al análisis de la relación entre dos
variables, representado gráficamente sobre el eje x y el
correspondiente valor de la otra sobre el eje y.
Histograma: describe la distribución de los valores de una
característica de interés.
Una Unidad de Almacenamiento Principal suele tener al
momento de escribir esto, en una PC actual entre 500 GB
y 1 TB.
Memoria Usb
La memoria USB (Universal Serial Bus), denominada también lápiz
de memoria, lápiz USB, memoria externa, pen drive o pendrive es
un tipo de dispositivo de almacenamiento de datos que
utiliza memoria flash para guardar datos e información.
Las empresas Trek Technology e IBM comenzaron a vender las
primeras unidades de memoria USB en el año 2000. Trek vendió un modelo bajo el nombre comercial
de Thumbdrive e IBM vendió las primeras unidades en Norteamérica bajo la marca DiskOnKey, desarrolladas y
fabricadas por la empresa israelí M-Systems en capacidades de 8 MB, 16 MB, 32 MB y 64 MB. Estos fueron
promocionados como los «verdaderos reemplazos del disquete», y su diseño continuó hasta los 256 MB. Los
modelos anteriores de este dispositivo utilizaban copias de baterías, en vez de la alimentación de la PC.2
Dentro de esta generación de dispositivos existe conectividad con la norma USB 2.0. Sin embargo, no usan en su
totalidad la tasa de transferencia de 480 Megabit/s que soporta la especificación USB 2.0 Hi-Speed debido a las
limitaciones técnicas de las memorias flash basadas en NAND. Los dispositivos más rápidos de esta generación
usan un controlador de doble canal, aunque todavía están muy lejos de la tasa de transferencia posible de un disco
duro de la actual generación, o el máximo rendimiento de alta velocidad USB.
Las velocidades de transferencia de archivos varían considerablemente. Se afirma que las unidades rápidas típicas
pueden leer a velocidades de hasta 480 Megabit/s y escribir a cerca de la mitad de esa velocidad. Esto es
aproximadamente 20 veces más rápido que en los dispositivos USB 1.1, que poseen una velocidad máxima de
24 Megabit/s.

Memoria Cd
Un CD-ROM, también cederrón1 (sigla del inglés Compact Disc Read-Only Memory), es un disco compacto con el
que utilizan rayos láser para leer información en formato digital. El CD-ROM estándar fue establecido
en 1985 por Sony y Philips.2 Pertenece a un conjunto de libros de colores conocido como Rainbow Books, que
contiene las especificaciones técnicas para todos los formatos de discos compactos.
Algunas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada (CD-RW). Estas
unidades se llaman quemadores, ya que funcionan con un láser que «quema» la superficie del disco para grabar la
información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos
por unidades de DVD. Esto se debe principalmente a la mayor capacidad de almacenamiento de información, ya
que un DVD-ROM supera en capacidad a un CD-ROM.
El disco compacto fue creado por un holandés y un japonés en 1979. Al año siguiente, Sony y Philips, que habían
desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas
no tuvieron éxito por la depresión económica de aquella época.3 Entonces
decidieron abarcar el mercado de la música clásica, de mayor calidad.
Comenzaba el lanzamiento del nuevo y revolucionario formato de grabación
audio que posteriormente se extendería a otros sectores de la grabación de
datos.

Disco Óptico
Un Disco óptico es un medio de almacenamiento de
datos de tipo óptico, que consiste en un disco circular
en el cual la información se codifica, guarda y
almacena haciendo unos surcos microscópicos con
un láser sobre una de las caras planas que lo
componen.
Como todas las formas de los medios de almacenamiento,
los discos ópticos se basan en la tecnología digital.
Cualquier tipo o morfología de la información
(texto, imagen, audio, vídeo, etc.) puede ser codificada en
formato digital y almacenada en este tipo de soportes.1
Una unidad de disco óptico usa rayos láser en lugar de
imanes para leer y escribir la información en la superficie
del disco. Aunque no son tan rápidos como los discos duros, los discos ópticos tienen mucho espacio para
almacenar datos, son menos sensibles a las fluctuaciones ambientales y proporcionan mayor almacenamiento a un
costo menor. Su primera aplicación comercial masiva fue el CD de música, que data de comienzos de la década de
1980. Los discos ópticos varían su capacidad de almacenamiento, aunque hay de muchos tipos, los más habituales
son: CD de 700 MB, DVD de 4,7 GB y Blu-ray de 25 GB en una sola capa. Tanto los discos ópticos como las
unidades de discos ópticos, pueden ser de sólo lectura o de lectura y escritura.1
El disco óptico admite datos tanto de tipo analógico como digital. Los estándares de almacenamiento ópticos son
regulados por la Optical Storage Technology Association.

Nube
El almacenamiento en la nube, del inglés cloud storage,
es un modelo de almacenamiento de datos basado
en redes de computadoras, ideado en los años 1960,1
donde los datos están alojados en espacios de
almacenamiento virtualizados, por lo general aportados
por terceros.
Las compañías de alojamiento operan enormes centros
de procesamiento de datos. Los usuarios que requieren
estos servicios compran, alquilan o contratan la
capacidad de almacenamiento necesaria. Los operadores
de los centros de procesamiento de datos, a nivel servicio, virtualizan los recursos según los requerimientos del
cliente. Solo exhiben los entornos con los recursos requeridos. Los clientes administran el almacenamiento y el
funcionamiento de los archivos, datos o aplicaciones. Los recursos pueden estar repartidos en
múltiples servidores físicos.
A los servicios de almacenamiento en nube, se puede acceder por diferentes medios, como un servicio web (web
service), interfaz de programación de aplicaciones(API), interfaz de usuario (interfaz web) o alguna otra
seleccionada por el cliente.

HISTORIA DE LA COMPUTADORA
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las
antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en
varillas que a su vez están montadas en un marco rectangular.
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la
de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se
representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente
estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el
cuentakilómetros de un automóvil.
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la
Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno Británico lo apoyo para
crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. La
idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y propenso a errores. Las características de está maquina incluye una
memoría que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno. Las operaciones a ejecutar
por la unidad aritmética son almacenados en una tarjeta perforadora. Se estima que la maquina tardaría un
segundo en realizar una suma y un minuto en una multiplicación.La maquina de Hollerith. En la década de
1880 , la oficina del Censo de los Estados Unidos , deseaba agilizar el proceso del censo de 1890. Para llevar
a cabo esta labor , se contrato a Herman Hollerith, un experto en estadística para que diseñara alguna técnica
que pudiera acelerar el levantamiento y análisis de los datos obtenidos en el censo. Entre muchas cosas,
Hollerith propuso la utilización de tarjetas en las que se perforarían los datos , según un formato
preestablecido. una vez perforadas las tarjetas , estas serian tabuladas y clasificadas por maquinas especiales.
La idea de las tarjetas perforadas no fue original de Hollerith. Él se baso en el trabajo hecho en el telar
de Joseph Jacquard que ingenio un sistema donde la trama de un diseño de una tela así como la información
necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño
leyendo la información contenida en las tarjetas. De esta forma , se podían obtener varios diseños ,
cambiando solamente las tarjetas.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado
por Howard H. Aiken. Este computador tomaba seis segundos para efectuar una multiplicación y doce para
una división. Computadora basada en rieles (tenía aprox. 3000), con 800 kilómetros de cable, con
dimensiones de 17 metros de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicierón mejoras
sucesivas, obteniendo así elMark II, Mark III y Mark IV.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And


Calculator) que fue la primera computadora electrónica que funcionaba con tubos al vacío, el equipo de
diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Este computador superaba ampliamente
al Mark I, ya que llego hacer 1500 veces mas potente. En el diseño de este computador fueron incluidas
nuevas técnicas de la electrónica que permitían minimizar el uso de partes mecánicas. Esto trajo como
consecuencia un incremento significativo en la velocidad de procesamiento. Así , podía efectuar 5000 sumas
o 500 multiplicaciones en un segundo y permitía el uso de aplicaciones científicas en astronomía ,
meteorología, etc.Durante el desarrollo del proyecto Eniac , el matemático Von Neumann propuso unas
mejoras que ayudaron a llegar a los modelos actuales de computadoras:

1.- Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional.

2.- Hacer que las instrucciones de operación estén en la memoria , al igual que los datos. De esta forma ,
memoria y programa residirán en un mismo sitio.La EDVAC (Electronic Discrete Variable Automatic
Computer), construida en la Universidad de Manchester, en Connecticut (EE.UU), en 1949 fue el primer
equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser
intercambios o reconfigurados cada vez que se usaban. Tenía aproximadamente cuatro mil bulbos y usaba un
tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a
retardos. EDCAV pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.En realidad EDVAC
fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos
tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas. El UNIVAC fue la primera
computadora diseñada y construida para un próposito no militar. Desarrollada para la oficina de CENSO en
1951, por los ingenieros John Mauchly y John Presper Eckert, que empezaron a diseñarla y construirla en
1946.La computadora pesaba 7257 kg. aproximadamente, estaba compuesta por 5000 tubos de vacío, y podía
ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en serie. Podía
hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo.

Así Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación.

La Computación, tienen su origen en el cálculo, es decir, la preocupación del ser humano por encontrar
maneras de realizar operaciones matemáticas de forma más rápida y fácilmente dio motivo a que con
ayuda de aparatos y máquinas las operaciones pudieran realizarse de forma automática.

Se considera a los siguientes mecanismos como los antecesores de la computadora actual.


El Ábaco

Uno de los primeros dispositivos mecánicos para


contar.
Al desplazar las cuentas sobre varillas, sus
posiciones representan valores almacenados, y es
mediante dichas posiciones que este representa y
almacena datos.
La Pascalina

Es la primera máquina sumadora, fabricada en


1642 por Blaise Pascal
Con estas máquinas, los datos se representaban
mediante las posiciones de los engranajes, estaba
basada para calcular las distancias que recorrían
los carruajes.

La Máquina Analítica

Creada por Charles Babbage a quien se le


considera el padre de la computadora
Adelantó la situación del hardware computacional
al inventar la "máquina de diferencias", esta
maquina podía sumar, substraer, multiplicar y
dividir en secuencia automática a una velocidad
de 60 sumas por minuto.

GENERACIONES DE LA COMPUTADORA
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores
ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno
se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo
de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y
generaban más calor que los modelos contemporáneos.Eckert y Mauchly contribuyeron al desarrollo de
computadoras de la 1era Generación formando una compañía privada
y construyendo UNIVAC I, que el Comité del censo utilizó para
evaluar el censo de 1950. La IBM tenía el monopolio de los equipos
de procesamiento de datos a base de tarjetas perforadas y estaba
teniendo un gran auge en productos como rebanadores de carne,
básculas para comestibles, relojes y otros artículos; sin embargo no
había logrado el contrato para el Censo de 1950.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada


El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con
menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa
del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de
núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían
pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e intrucciones.

Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje)
desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas
grandes avances en cuanto a portabilidad de programas entre diferentes
computadoras; es decir, es uno de los primeros programas que se
pueden ejecutar en diversos equipos de computo después de un
sencillo procesamiento de compilación.

TERCERA GENERACIÓN (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor,


Multiprogramación, Minicomputadora.
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de
silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las
computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el
ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como
los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild
Semicon ductors, acerca de los circuitos integrados, dieron origen a la
tercera generación de computadoras.

La IBM 360 una de las primeras computadoras comerciales que usó


circuitos integrados, podía realizar tanto análisis numéricos
como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con
su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación
que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
CUARTA GENERACIÓN (1971 a 1981)
La cuarta generación de computadoras comprende desde 1971 hasta 1981
y la principal característica de esta generación es la creación del
microprocesador.
Un microprocesador es un conjunto de circuitos integrados en un solo
componente, capaz de realizar todas las funciones de una computadora. A
fines de la tercera generación de computadoras, nació un nuevo tipo de
computadoras: las micro-computadoras. Este tipo de ordenadores recibieron
el nombre de micro-computadoras porque utilizaban microprocesadores.
Durante la cuarta generación de computadoras, la primera computadora
personal comercial fue la Altair 8800, fabricada en 1975 por la empresa
MITS. No contaba con teclado ni monitor, sólo con luces LED y pequeños switches que facilitaban la
programación. La información se almacenaba en cassettes de radio grabadoras y era visualizada en dispositivos
de televisión.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)


Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances
y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran
que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-
1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos
puntualizar algunas fechas y características de lo que
podría ser la quinta generación de computadoras.
En 1983 Japón lanzó el proyecto “quinta generación de
computadoras” con el objetivo de desarrollar una clase de
computadoras que utilizarían técnicas de inteligencia
artificial al nivel del lenguaje de máquina y serían capaces
de resolver problemas complejos, como la traducción
automática de una lengua natural a otra.
A través de las generaciones de la computadora desde los
años 50, Japón había sido el país seguidor del adelanto y
construcción de las computadoras de los modelos que
desarrollaron Estados Unidos y Reino Unido, pero a
mediados de los 70 decidió “independizarse” y comenzar
a planear el futuro de la industria de la informática por sí sólo.
En 1979 el centro del desarrollo y proceso de la información de Japón fue el encargado de llevar a cabo un plan
para desarrollar el proyecto “quinta generación de computadoras”.
Los principales campos de investigación del proyecto “quinta generación de computadoras” eran:
1) Tecnologías para el proceso del conocimiento
2) Tecnologías para procesar bases de datos y bases de conocimiento masivo
3) Sitios de trabajo de alto rendimiento
4) Informáticas funcionales distribuidas
5) Supercomputadoras para el cálculo científico.

SEXTA GENERACIÓN 1990 HASTA LA FECHA

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas,
debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También
se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en
el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial,
con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces
de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las
redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de
comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta
generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial
distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
La sexta generación se podría llamar a la era de las computadoras inteligentes baseadas en redes
neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como
materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su
nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de
aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes.Todo esto
está en pleno desarrollo, por el momento las únicas
novedades han sido el uso de procesadores en paralelo, o
sea, la división de tareas en múltiples unidades de
procesamiento operando simultáneamente. Otra novedad es
la incorporación de chips de procesadores especializados en
las tareas de
vídeo y
sonido.Esta
manía de
enumerar las
generaciones de
computadoras parece que se ha perdido. Ya no suceden, como
ocurrió en las cuatro primeras generaciones, la sustitución de una
generación de computadoras por las siguientes. Muchas tecnologías
van a sobrevivir juntas, cada una en su sector de mercado.

E grafía
es.wikipedia.org/wiki/Generaciones_de_computadoras
www.monografias.com › Computacion › General
www.monografias.com › Computacion › General

www.cad.com.mx/generaciones_de_las_computadoras.htm

También podría gustarte