Está en la página 1de 11

Que Es Estadística

La estadística es la ciencia que estudia cómo debe emplearse la


información y cómo dar una guía de acción en situaciones prácticas que
entrañan incertidumbre. (Gutiérrez, p.23)
La estadística es la ciencia de los datos, la cual implica su recolección,
clasificación, síntesis, organización, análisis e interpretación, para la toma
de decisiones frente a la incertidumbre (Ángel, p. 28)
La estadística es la rama del conocimiento humano que tiene como objeto
el estudio de ciertos métodos inductivos aplicables a fenómenos
susceptibles de expresión cuantitativa. (López, p.1)
La estadística es el arte de aprender a partir de los datos. Está relacionada
con la recopilación de datos, su descripción subsiguiente y su análisis, lo
que nos lleva a extraer conclusiones. (Ross, p.3)
La estadística es una ciencia que facilita la toma de decisiones mediante la presentación ordenada de los datos observados
en tablas y gráficos estadísticos, reduciendo los datos observados a un pequeño número de medidas estadísticas que
permitirán la comparación entre diferentes series de datos y estimando la probabilidad de éxito que tiene cada una de las
decisiones posibles. (Fernández et.al, p.18)

Que Es Estadística Comercial


La estadística es útil para una amplia variedad de ciencias fácticas, desde
la física hasta las ciencias sociales, desde las ciencias de la salud hasta
el control de calidad. Además, se usa en áreas de negocios o
instituciones gubernamentales con el objetivo de describir el conjunto de
datos obtenidos para la toma de decisiones, o bien para realizar
generalizaciones sobre las características observadas.
En la actualidad, la estadística es una ciencia que permite estudiar una
determinada población a partir de
la recolección, recopilación e interpretación de datos. Del mismo modo,
también es considerada una ciencia especial apta para el estudio
cuantitativo de los fenómenos de masa o colectivo.

Que Es Estadística Inferencial


La estadística inferencial es una parte de
la estadística que comprende los métodos y procedimientos
que por medio de la inducción determina propiedades de
una población estadística, a partir de una parte de esta. Su
objetivo es obtener conclusiones útiles para hacer
deducciones sobre una totalidad, basándose en la
información numérica de la muestra.
Se dedica a la generación de los modelos, inferencias y
predicciones asociadas a los fenómenos en cuestión
teniendo en cuenta la aleatoriedad de las observaciones. Se
usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias
pueden tomar la forma de respuestas a preguntas sí/no (prueba de hipótesis), estimaciones de unas
características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación
(correlación) o modelamiento de relaciones entre variables de Sam (análisis de regresión). Otras técnicas de
modelamiento incluyen análisis de varianza, series de tiempo y minería de datos.

Que Es Población
La población humana se refiere, tanto en geografía como en sociología, al grupo de seres humanos o personas que viven
en un área o espacio geográfico determinado.
El término población procede del latín antiguo y clásico populus que significa población o pueblo. Era muy frecuente
encontrar este término en las obras de infraestructura o monumentos tanto en la Roma Republicana como en la Roma
Imperial. Todas las inscripciones en dichas construcciones llevaban la
inscripción SENATUSPOPULUSQVEROMANUS (SENATUS POPULUS QUE ROMANUS), como puede observarse en
el Arco de Tito del siglo I, que significa Senado y pueblo romanos, la cual llegó a simplificarse en muchísimos casos
a SPQR cuya traducción al castellano actual sería El Senado y la población que (son) romanos. Aunque en la inscripción
señalada hace referencia a la época del Imperio Romano, debe anotarse que dicha referencia aparece ya en la historia
antigua de Roma, ya que la institución del senado romano procedía de la historia primitiva de Roma (monarquía) y tuvo su
gran apogeo durante el período republicano. En el castellano antiguo, en algunos casos, la letra U se escribía como V y
viceversa.
Para la demografía, centrada en el estudio estadístico de la población humana mundial, la población es un conjunto
renovado en el que entran nuevos individuos –por nacimiento o inmigración– y salen otros –por muerte o emigración–.3 La
población total de un territorio o localidad se determina por procedimientos estadísticos y mediante el censo de población.4
Que Es Variables

Derivada del término en latín variabilis, variable es una palabra que representa a aquello que varía o que está
sujeto a algún tipo de cambio. Se trata de algo que se caracteriza por ser inestable, inconstante y mudable. En
otras palabras, una variable es un símbolo que permite identificar a un elemento no especificado dentro de un
determinado grupo. Este conjunto suele ser definido como el conjunto universal de la variable (universo de la
variable, en otras ocasiones), y cada pieza incluida en él
constituye un valor de la variable.
Por ejemplo: x es una variable del universo {1, 3, 5, 7}. Por lo
tanto, x puede ser igual a cualquiera de los recién
mencionados valores, con lo cual es posible reemplazar a x
por cualquier número impar que sea inferior a 8.
Como podrán advertir, las variables son elementos presentes
en fórmulas, proposiciones y algoritmos, las cuales pueden
ser sustituidas o pueden adquirir sin dejar de pertenecer a
un mismo universo, diversos valores. Cabe mencionar que
los valores de una variable pueden enmarcarse dentro de un
rango o estar limitados por situaciones de pertenencia.

Que Es Variables Cualitativas

Una variable, en el ámbito de la matemática, es un símbolo que puede aparecer en una función, un algoritmo,
una proposición o una fórmula, adoptando distintos valores. Al establecer vínculos con otras variables, pueden
contribuir al desarrollo de una teoría o de una hipótesis, adquiriendo la denominación de constructos.
Es posible diferenciar entre distintas clases de variables según
el contexto. Las variables cualitativas son aquellas que
permiten la expresión de una característica, una categoría, un
atributo o una cualidad.
Es interesante en este sentido conocer el origen etimológico
de las dos palabras que componen el término que nos ocupa.
Así, podemos establecer la siguiente información:
-Variable procede del latín, concretamente de “variabilis” que
es fruto de la suma de dos componentes: el verbo “variare”,
que puede traducirse como “cambiar de aspecto”, y el sufijo “-
able”, que se utiliza para indicar posibilidad.
-Cualitativa, por otro lado, también deriva del latín. En su caso de la palabra “qualitativus”, que se compone de
dos partes: el sustantivo “qualitas”, que significa “calidad”, y el sufijo “-tivo”. Este se usa para indicar una
relación pasiva o activa.

Que Es Variables Cuantitativas


El símbolo que aparece en proposiciones, algoritmos, fórmulas y funciones y que adopta distintos valores recibe el nombre
de variable. De acuerdo a sus características, se puede distinguir entre diferentes clases de variables. Las variables
cuantitativas son aquellas que adoptan valores numéricos (es decir, cifras). De este modo se diferencian de las variables
cualitativas, que expresan cualidades, atributos, categorías o características. Es importante en este punto que
procedamos a conocer el origen etimológico de las dos palabras que dan forma al término que nos ocupa:
-Variable procede del latín, en concreto deriva de “variabilis”, que puede traducirse como “que puede cambiar de
aspecto”. Es fruto de la suma de dos componentes: el verbo “variare”, que es sinónimo de “cambiar de aspecto”, y el sufijo
“-able”, que se usa para indicar posibilidad.
En el conjunto de las variables cuantitativas, también podemos reconocer varios tipos de variables. Las variables
cuantitativas continuas pueden adoptar cualquier valor en el marco de
un determinado intervalo. De acuerdo a la precisión del instrumento
que realiza la medición, pueden existir otros valores en el medio de dos
valores. La altura de una persona, por ejemplo, es una variable
cuantitativa continua (pueden ser valores como 1,70 metros; 1,71
metros; 1,72 metros, etc.).

Una Unidad de Almacenamiento Principal suele tener al


momento de escribir esto, en una PC actual entre 500 GB
y 1 TB.
Memoria Usb
La memoria USB (Universal Serial Bus), denominada también lápiz de memoria, lápiz USB, memoria
externa, pen drive o pendrive es un tipo de dispositivo de almacenamiento de datos que utiliza memoria
flash para guardar datos e información.
Las empresas Trek Technology e IBM comenzaron a vender las primeras unidades de memoria USB en el año
2000. Trek vendió un modelo bajo el nombre comercial de Thumbdrive e IBM vendió las primeras unidades en
Norteamérica bajo la marca DiskOnKey, desarrolladas y fabricadas por la empresa israelí M-Systems en
capacidades de 8 MB, 16 MB, 32 MB y 64 MB. Estos fueron promocionados como los «verdaderos reemplazos
del disquete», y su diseño continuó hasta los 256 MB. Los modelos anteriores de este dispositivo utilizaban copias
de baterías, en vez de la alimentación de la PC.2
Dentro de esta generación de dispositivos existe conectividad con la norma USB 2.0. Sin embargo, no usan en su
totalidad la tasa de transferencia de 480 Megabit/s que soporta la especificación USB 2.0 Hi-Speed debido a las
limitaciones técnicas de las memorias flash basadas en NAND. Los dispositivos más rápidos de esta generación
usan un controlador de doble canal, aunque todavía están muy lejos de la tasa
de transferencia posible de un disco duro de la actual generación, o el máximo
rendimiento de alta velocidad USB.
Las velocidades de transferencia de archivos varían considerablemente. Se
afirma que las unidades rápidas típicas pueden leer a velocidades de hasta
480 Megabit/s y escribir a cerca de la mitad de esa velocidad. Esto es
aproximadamente 20 veces más rápido que en los dispositivos USB 1.1, que
poseen una velocidad máxima de 24 Megabit/s.

Memoria Cd
Un CD-ROM, también cederrón1 (sigla
del inglés Compact Disc Read-Only Memory), es un disco
compacto con el que utilizan rayos láser para leer información en
formato digital. El CD-ROM estándar fue establecido
en 1985 por Sony y Philips.2 Pertenece a un conjunto de libros de
colores conocido como Rainbow Books, que contiene las
especificaciones técnicas para todos los formatos de discos
compactos.
Algunas unidades leen CD-ROM y graban sobre los discos compactos
de una sola grabada (CD-RW). Estas unidades se llaman
quemadores, ya que funcionan con un láser que «quema» la
superficie del disco para grabar la información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos
por unidades de DVD. Esto se debe principalmente a la mayor capacidad de almacenamiento de información, ya
que un DVD-ROM supera en capacidad a un CD-ROM.
El disco compacto fue creado por un holandés y un japonés en 1979. Al año siguiente, Sony y Philips, que habían
desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas
no tuvieron éxito por la depresión económica de aquella época.3 Entonces decidieron abarcar el mercado de la
música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y revolucionario formato de grabación
audio que posteriormente se extendería a otros sectores de la grabación de datos.

Disco Óptico
Un Disco óptico es un medio de almacenamiento de
datos de tipo óptico, que consiste en un disco
circular en el cual la información se codifica, guarda y
almacena haciendo unos surcos microscópicos con
un láser sobre una de las caras planas que lo
componen.
Como todas las formas de los medios de
almacenamiento, los discos ópticos se basan en
la tecnología digital. Cualquier tipo o morfología de la
información (texto, imagen, audio, vídeo, etc.) puede
ser codificada en formato digital y almacenada en este
tipo de soportes.1
Una unidad de disco óptico usa rayos láser en lugar de imanes para leer y escribir la información en la superficie
del disco. Aunque no son tan rápidos como los discos duros, los discos ópticos tienen mucho espacio para
almacenar datos, son menos sensibles a las fluctuaciones ambientales y proporcionan mayor almacenamiento a un
costo menor. Su primera aplicación comercial masiva fue el CD de música, que data de comienzos de la década de
1980. Los discos ópticos varían su capacidad de almacenamiento, aunque hay de muchos tipos, los más habituales
son: CD de 700 MB, DVD de 4,7 GB y Blu-ray de 25 GB en una sola capa. Tanto los discos ópticos como las
unidades de discos ópticos, pueden ser de sólo lectura o de lectura y escritura.1
El disco óptico admite datos tanto de tipo analógico como digital. Los estándares de almacenamiento ópticos son
regulados por la Optical Storage Technology Association.

Nube
El almacenamiento en la nube, del inglés cloud storage, es un modelo de almacenamiento de datos basado
en redes de computadoras, ideado en los años 1960,1 donde los datos están alojados en espacios de
almacenamiento virtualizados, por lo general aportados por terceros.
Las compañías de alojamiento operan enormes centros de procesamiento de datos. Los usuarios que requieren
estos servicios compran, alquilan o contratan la capacidad de almacenamiento necesaria. Los operadores de
los centros de procesamiento de datos, a nivel servicio, virtualizan los recursos según los requerimientos del
cliente. Solo exhiben los entornos con
los recursos requeridos. Los clientes administran el
almacenamiento y el funcionamiento de los archivos, datos
o aplicaciones. Los recursos pueden estar repartidos en
múltiples servidores físicos.
A los servicios de almacenamiento en nube, se puede
acceder por diferentes medios, como un servicio web (web
service), interfaz de programación de
aplicaciones(API), interfaz de usuario (interfaz web) o
alguna otra seleccionada por el cliente.

HISTORIA DE LA COMPUTADORA
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las
antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en
varillas que a su vez están montadas en un marco rectangular.
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la
de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se
representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente
estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el
cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la
Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno Británico lo apoyo para
crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. La
idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y propenso a errores. Las características de está maquina incluye una
memoría que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno. Las operaciones a ejecutar
por la unidad aritmética son almacenados en una tarjeta perforadora. Se estima que la maquina tardaría un
segundo en realizar una suma y un minuto en una multiplicación.La maquina de Hollerith. En la década de
1880 , la oficina del Censo de los Estados Unidos , deseaba agilizar el proceso del censo de 1890. Para llevar
a cabo esta labor , se contrato a Herman Hollerith, un experto en estadística para que diseñara alguna técnica
que pudiera acelerar el levantamiento y análisis de los datos obtenidos en el censo. Entre muchas cosas,
Hollerith propuso la utilización de tarjetas en las que se perforarían los datos , según un formato
preestablecido. una vez perforadas las tarjetas , estas serian tabuladas y clasificadas por maquinas especiales.
La idea de las tarjetas perforadas no fue original de Hollerith. Él se baso en el trabajo hecho en el telar
de Joseph Jacquard que ingenio un sistema donde la trama de un diseño de una tela así como la información
necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño
leyendo la información contenida en las tarjetas. De esta forma , se podían obtener varios diseños ,
cambiando solamente las tarjetas.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado
por Howard H. Aiken. Este computador tomaba seis segundos para efectuar una multiplicación y doce para
una división. Computadora basada en rieles (tenía aprox. 3000), con 800 kilómetros de cable, con
dimensiones de 17 metros de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicierón mejoras
sucesivas, obteniendo así elMark II, Mark III y Mark IV.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And


Calculator) que fue la primera computadora electrónica que funcionaba con tubos al vacío, el equipo de
diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Este computador superaba ampliamente
al Mark I, ya que llego hacer 1500 veces mas potente. En el diseño de este computador fueron incluidas
nuevas técnicas de la electrónica que permitían minimizar el uso de partes mecánicas. Esto trajo como
consecuencia un incremento significativo en la velocidad de procesamiento. Así , podía efectuar 5000 sumas
o 500 multiplicaciones en un segundo y permitía el uso de aplicaciones científicas en astronomía ,
meteorología, etc.Durante el desarrollo del proyecto Eniac , el matemático Von Neumann propuso unas
mejoras que ayudaron a llegar a los modelos actuales de computadoras:

1.- Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional.

2.- Hacer que las instrucciones de operación estén en la memoria , al igual que los datos. De esta forma ,
memoria y programa residirán en un mismo sitio.La EDVAC (Electronic Discrete Variable Automatic
Computer), construida en la Universidad de Manchester, en Connecticut (EE.UU), en 1949 fue el primer
equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser
intercambios o reconfigurados cada vez que se usaban. Tenía aproximadamente cuatro mil bulbos y usaba un
tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a
retardos. EDCAV pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.En realidad EDVAC
fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos
tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas. El UNIVAC fue la primera
computadora diseñada y construida para un próposito no militar. Desarrollada para la oficina de CENSO en
1951, por los ingenieros John Mauchly y John Presper Eckert, que empezaron a diseñarla y construirla en
1946.La computadora pesaba 7257 kg. aproximadamente, estaba compuesta por 5000 tubos de vacío, y podía
ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en serie. Podía
hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo.

Así Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación.

La Computación, tienen su origen en el cálculo, es decir, la preocupación del ser humano por encontrar
maneras de realizar operaciones matemáticas de forma más rápida y fácilmente dio motivo a que con
ayuda de aparatos y máquinas las operaciones pudieran realizarse de forma automática.

Se considera a los siguientes mecanismos como los antecesores de la computadora actual.


El Ábaco

Uno de los primeros dispositivos mecánicos para


contar.
Al desplazar las cuentas sobre varillas, sus
posiciones representan valores almacenados, y es
mediante dichas posiciones que este representa y
almacena datos.
La Pascalina

Es la primera máquina sumadora, fabricada en


1642 por Blaise Pascal
Con estas máquinas, los datos se representaban
mediante las posiciones de los engranajes, estaba
basada para calcular las distancias que recorrían
los carruajes.
La Máquina Analítica

Creada por Charles Babbage a quien se le


considera el padre de la computadora
Adelantó la situación del hardware computacional
al inventar la "máquina de diferencias", esta
maquina podía sumar, substraer, multiplicar y
dividir en secuencia automática a una velocidad
de 60 sumas por minuto.

GENERACIONES DE LA COMPUTADORA
PRIMERA GENERACIÓN (1951 a 1958)

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores
ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno
se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo
de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y
generaban más calor que los modelos contemporáneos.Eckert y Mauchly contribuyeron al desarrollo de
computadoras de la 1era Generación formando una compañía privada
y construyendo UNIVAC I, que el Comité del censo utilizó para
evaluar el censo de 1950. La IBM tenía el monopolio de los equipos
de procesamiento de datos a base de tarjetas perforadas y estaba
teniendo un gran auge en productos como rebanadores de carne,
básculas para comestibles, relojes y otros artículos; sin embargo no
había logrado el contrato para el Censo de 1950.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada


El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con
menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa
del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de
núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían
pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e intrucciones.

Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje)
desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas
grandes avances en cuanto a portabilidad de programas entre diferentes
computadoras; es decir, es uno de los primeros programas que se
pueden ejecutar en diversos equipos de computo después de un
sencillo procesamiento de compilación.

TERCERA GENERACIÓN (1964-1971)


Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de
silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las
computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el
ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como
los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild
Semicon ductors, acerca de los circuitos integrados, dieron origen a la
tercera generación de computadoras.

La IBM 360 una de las primeras computadoras comerciales que usó


circuitos integrados, podía realizar tanto análisis numéricos
como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con
su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación
que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.

CUARTA GENERACIÓN (1971 a 1981)


La cuarta generación de computadoras comprende desde 1971 hasta 1981
y la principal característica de esta generación es la creación del
microprocesador.
Un microprocesador es un conjunto de circuitos integrados en un solo
componente, capaz de realizar todas las funciones de una computadora. A
fines de la tercera generación de computadoras, nació un nuevo tipo de
computadoras: las micro-computadoras. Este tipo de ordenadores recibieron
el nombre de micro-computadoras porque utilizaban microprocesadores.
Durante la cuarta generación de computadoras, la primera computadora
personal comercial fue la Altair 8800, fabricada en 1975 por la empresa
MITS. No contaba con teclado ni monitor, sólo con luces LED y pequeños switches que facilitaban la
programación. La información se almacenaba en cassettes de radio grabadoras y era visualizada en dispositivos
de televisión.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)


Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances
y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran
que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-
1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos
puntualizar algunas fechas y características de lo que
podría ser la quinta generación de computadoras.
En 1983 Japón lanzó el proyecto “quinta generación de
computadoras” con el objetivo de desarrollar una clase de
computadoras que utilizarían técnicas de inteligencia
artificial al nivel del lenguaje de máquina y serían capaces
de resolver problemas complejos, como la traducción
automática de una lengua natural a otra.
A través de las generaciones de la computadora desde los
años 50, Japón había sido el país seguidor del adelanto y
construcción de las computadoras de los modelos que
desarrollaron Estados Unidos y Reino Unido, pero a
mediados de los 70 decidió “independizarse” y comenzar a planear el futuro de la industria de la informática por
sí sólo.
En 1979 el centro del desarrollo y proceso de la información de Japón fue el encargado de llevar a cabo un plan
para desarrollar el proyecto “quinta generación de computadoras”.
Los principales campos de investigación del proyecto “quinta generación de computadoras” eran:
1) Tecnologías para el proceso del conocimiento
2) Tecnologías para procesar bases de datos y bases de conocimiento masivo
3) Sitios de trabajo de alto rendimiento
4) Informáticas funcionales distribuidas
5) Supercomputadoras para el cálculo científico.

SEXTA GENERACIÓN 1990 HASTA LA FECHA

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas,
debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También
se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en
el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial,
con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces
de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las
redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de
comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta
generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial
distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
La sexta generación se podría llamar a la era de las computadoras inteligentes baseadas en redes
neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como
materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su
nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de
aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes.Todo esto
está en pleno desarrollo, por el momento las únicas
novedades han sido el uso de procesadores en paralelo, o
sea, la división de tareas en múltiples unidades de
procesamiento operando simultáneamente. Otra novedad es
la incorporación de chips de procesadores especializados en
las tareas de
vídeo y
sonido.Esta
manía de
enumerar las
generaciones de
computadoras parece que se ha perdido. Ya no suceden, como
ocurrió en las cuatro primeras generaciones, la sustitución de una
generación de computadoras por las siguientes. Muchas tecnologías
van a sobrevivir juntas, cada una en su sector de mercado.

E grafía
es.wikipedia.org/wiki/Generaciones_de_computadoras
www.monografias.com › Computacion › General
www.monografias.com › Computacion › General

www.cad.com.mx/generaciones_de_las_computadoras.htm

También podría gustarte