Está en la página 1de 21

La primera generación de computadoras abarca desde el año 1940 hasta el año 1952, aunque

realmente estas fechas son de las máquinas comerciales que se podrían llamar la primera
generación de computadora.

Características:

 Estaban construidas con electrónica de válvulas de vacío.

 Se programaban en lenguaje máquina.1

Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el


lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina
(porque el programa debe escribirse mediante algún conjunto de códigos binarios).

La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los


principales modelos de que constó:

 1938 el Z1 primera totalmente máquina electro-mecánica, los componentes mecánicos


daban bastantes problemas. Las Z fueron fabricadas por el alemán Konrad Zuse, cuyo
trabajo fue menospreciado por haberse producido en Alemania durante la Segunda
Guerra Mundial.2

 1939 el Z2, para mejorar usó por primera vez relés, fue una máquina intermedia entre la
Z1 y la Z3.

 1941 el Z3, primera máquina completamente operativa usando relés.

 1944 ENIAC. Considerada hasta hace unos años como la primera computadora digital
electrónica en la historia.3 No fue un modelo de producción, sino una máquina
experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme
aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de
vacío, consumía varios kW de potencia eléctrica y pesaba algunas toneladas. Era capaz de
efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos
encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de
Pensilvania, en los Estados Unidos.

 1945 el Z4 fue completado, rediseñado completamente tras perderse los planos y piezas
de las anteriores Z durante los bombardeos aliados de Berlín. Fue la primera máquina en
ser vendida comercialmente en 1950.

 1949 EDVAC. Segunda computadora programable. También fue un prototipo de


laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las
computadoras actuales.

 1951 UNIVAC I. Considerada la primera computadora comercial en ser vendida, aunque se


le adelantó la británica Feranti Mark I por unos meses, y nunca se tuvo en cuenta la Z4 que
se adelantó casi un año. Los doctores Mauchly y Eckertfundaron la compañía Universal
Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina
del Censo de Estados Unidos.

 1953 brainiak. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que
habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el
francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman
Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta
compañía, que luego se convertiría en la número uno, por su volumen de ventas.

 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de


almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se
convertiría en el disco magnético.

 1955 - Zuse Z22. La primera computadora de Konrad Zuse aprovechando los tubos de
vacío.

La válvula de vacío y las computadoras[editar]

Artículo principal: Válvula termoiónica

La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante
la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de
vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los
cálculos analógicos.

Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera


generación" de computadoras. La primera generación de computadoras eran usualmente
construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo
usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para
la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El
almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la
propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los
tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos).

A lo largo de 1943, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría


de las otras formas de almacenamiento temporal, y dominó en este campo a mediados de la
década de 1970.

En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen
memoria (inicialmente limitada) y programabilidad. Las Zuses puramente mecánicas, pero ya
binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas con la
precisión de partes. En 1937, Claude Shannon hizo su tesis de máster en MIT que implementó
álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada
"Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A Symbolic Analysis of Relay and
Switching Circuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales
prácticos.

La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de
teléfono y trabajó satisfactoriamente. Así, la Z3 fue la primera computadora funcional controlada
mediante programas. En muchas de sus características era bastante similar a las máquinas
modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de
coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el primer diseño
de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen
más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese
momento.

Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin
embargo, aunque la mayoría de las máquinas de propósito general de la actualidad continúan
ejecutando instrucciones binarias, la aritmética decimal es aún esencial para aplicaciones
comerciales, financieras, científicas y de entretenimiento, y el hardware de coma flotante decimal
está siendo agregado en los dispositivos actuales (el sistema binario continúa siendo usado para
direccionamiento en casi todas las máquinas) como un apoyo al hardware binario.

Se hicieron programas para las Z3 en cintas perforadas. Los saltos condicionales eran extraños,
pero desde los 1990s los puristas teóricos decían que la Z3 era aún una computadora universal
(ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de
1937, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en
el mismo tipo de almacenamiento utilizado por los datos –la clave de la visión que fue conocida
como la arquitectura de von Neumann y fue la primera implementada en el diseño
Británico EDSAC (1949) más tarde–.

Zuse también diseño el primer lenguaje de programación de alto nivel Plankalkül en 1945, aunque
nunca se publicó formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la
Universidad de Berlín, cinco años después de la muerte de Zuse.

Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial
cuando los bombarderos británicos o estadounidenses destruyeron sus primeras máquinas. Al
parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino Unido y de
los Estados Unidos. Aun así, IBM era consciente de esto y financió su compañía a inicios de la post-
guerra en 1946, para obtener derechos sobre las patentes de Zuse.

En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética
compleja basada en relés. Fue la primera máquina que siempre se usó remotamente encima de
una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad del
Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito
especial para resolver sistemas de ecuaciones lineales, y que emplearon condensadores montados
mecánicamente en un tambor rotatorio para memoria. La máquina ABC no era programable,
aunque se considera una computadora en el sentido moderno en varios otros aspectos.
Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley
Park para descifrar las comunicaciones militares alemanas. El sistema cypher alemán (Enigma), fue
atacado con la ayuda con la finalidad de construir bombas (diseñadas después de las bombas
electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de
otras técnicas tenían estrechadas bajo las posibilidades. Los alemanes también desarrollaron una
serie de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los
alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el
profesor Max Newman y sus colegas (incluyendo Alan Turing) construyeron el Colossus. El Mk I
Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office Research
Station en Dollis Hill en Londres y enviada a Bletchley Park.

El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo
tubos de vacío y no tenía relés. Tenía entrada para cinta de papel (paper-tape) y fue capaz de
hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una
Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron
en secreto hasta los años 1970. Se dice que Winston Churchill había emitido personalmente una
orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este
secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida
de una de las máquinas Colossus esta ahora expuesta en Bletchley Park.

El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación


teórica, y después de la guerra, diseñó, construyó y programó algunas de las
primeras computadoras en el Laboratorio Nacional de Física y en la Universidad de Mánchester. Su
trabajo de 1936 incluyó una reformulación de los resultados de Kurt Gödel en 1931 así como una
descripción de la que ahora es conocida como la máquina de Turing, un dispositivo puramente
teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal,
más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-
integrada (capacidad de ejecución de algoritmo equivalente a una máquina de Turing universal),
salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una
capacidad umbral separando las computadoras de propósito general de sus predecesores de
propósito especial.

George Stibitz y sus colegas en los Laboratorios Bell de la ciudad de Nueva York produjeron
algunas computadoras basadas en relés a finales de los años 1930 y a principios de los años 1940,
pero se preocuparon más de los problemas de control del sistema de teléfono, no en
computación. Sus esfuerzos, sin embargo, fueron un claro antecedente para otra máquina
electromecánica americana.

La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una
computadora electro-mecánica de propósito general construida con financiación de IBM y con
asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard.
Su diseño fue influenciado por la Máquina Analítica. Fue una máquina decimal que utilizó ruedas
de almacenamiento e interruptores rotatorios además de los relés electromagnéticos.
Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en
paralelo. Más adelante los modelos contendrían varios lectores de cintas de papel y la máquina
podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la
máquina Turing-integrada. El desarrollo empezó en 1939 en los laboratorios de Endicottde IBM; la
Mark I se llevó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.

ENIAC[editar]

El ENIAC (Electronic Numerical Integrator and Computer) construido en los Estados Unidos, a
menudo llamada la primera computadora electrónica de propósito general, públicamente validó el
uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el desarrollo
de la computación moderna, inicialmente debido a la ventaja de su gran velocidad, pero
últimamente debido al potencial para la miniaturización.

Construida bajo la dirección de John Mauchly y J. Presper Eckert, era mil veces más rápida que sus
contemporáneas. El desarrollo y construcción de la ENIAC comenzó en 1941 siendo
completamente operativa hacia finales de 1945. Cuando su diseño fue propuesto, muchos
investigadores creyeron que las miles de válvulas delicadas (tubos de vacío) se quemarían a
menudo, lo que implicaría que la ENIAC estuviese muy frecuentemente en reparación. Era, sin
embargo, capaz de hacer más de 100.000 cálculos simples por segundo y eso durante unas horas
que era el tiempo entre fallos de las válvulas.

Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni
siquiera se puede calificar como programación, pues cualquier tipo de reconstrucción de una
computadora se debería considerar como programación. Varios años después, sin embargo, fue
posible ejecutar programas almacenados en la memoria de la tabla de función.

A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-
Mauchly: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así
los programas no pudieron ser manipulados como datos.

La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale Experimental Machine,


construida en la Universidad de Mánchester en 1948; esta fue seguida en 1949 por la
computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de
William para memoria, y también introdujo registros de índices. El otro contendiente para el título
"primera computadora digital de programa almacenado" fue EDSAC, diseñada y construida en
la Universidad de Cambridge.

Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver
problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la
ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A
diferencia la ENIAC, que utilizó procesamiento paralelo, la EDVAC usó una sola unidad de
procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada onda
teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark
I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su
arquitectura.

La primera computadora programable en la Europa continental fue creada por un equipo de


científicos bajo la dirección de Segrey Alekseevich Lebedev del Institute of Electrotechnology en
Kiev, Unión Soviética (ahora Ucrania). La computadoraMESM (Small Electronic Calculating
Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6000 tubos de vacío y
consumía 25 kW. Podía realizar aproximadamente 3000 operaciones por segundo.

La máquina de la Universidad de Mánchester se convirtió en el prototipo para la Ferranti Mark I.


La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo
menos otras nueve se vendieron entre 1951 y 1957.

UNIVAC I[editar]

En junio de 1951, la UNIVAC I [Universal Automatic Computer] se entregó a la Oficina del Censo
estadounidense. Aunque fabricada por la Remington Rand, la máquina era erróneamente llamada
la "IBM UNIVAC". La Remington Rand eventualmente vendió 46 máquinas a más de un millón de
dólares cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las
predecesoras habían sido "una fuera de" las unidades. Usaba 5200 tubos de vacío y consumía
125 kW. Utilizó una línea de retraso de mercurio capaz de almacenar 1000 palabras de 11 dígitos
decimales más la señal (72-bit de palabras) para memoria. En contraste con las primeras máquinas
no usó un sistema de tarjetas perforadas, sino una entrada de cinta de metal.

LEO[editar]

En noviembre de 1952, la compañía J. Lyons and Co. (relacionada con la industria de los alimentos)
desarrolló la primera computadora de Inglaterra la LEO (Lyons Electronic Office), esta también fue
la primera computadora en resolver problemas del negocio ..
La segunda generación de las computadoras reemplazó las válvulas de vacío por los transistores.
Por eso las computadoras de la segunda generación son más pequeñas y consumen menos
electricidad que las de la anterior. La comunicación con estas nuevas computadoras es mediante
lenguajes más avanzados que el lenguaje de máquina, los cuales reciben el nombre de “lenguajes
de alto nivel".

Las características más relevantes de las computadoras de la segunda generación son:

 Se programaban con lenguajes de alto nivel.

 1959: Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de


las CPU

 1964: IBM vendió por un valor de 1 230 000 dólares su primer sistema de disco magnético,
el RAMAC (Random Access Method of Accounting and Control). Usaba 50 discos de metal
de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de
10 000 USD por megabyte.
 1959: IBM envió el mainframe IBM 1401 basado en transistores, que utilizaba tarjetas
perforadas. Demostró ser una computadora de propósito general y 12 000 unidades
fueron vendidas, haciéndola la máquina más exitosa hasta ese momento. Tenía
una memoria de núcleo magnético de 4000 caracteres (después se extendió a 16 000
caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar
el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios
de la década de 1970.

 1960: IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo
una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser
una computadora científica popular y se vendieron aproximadamente 2000 unidades.
Utilizaba una memoria de núcleo magnético de más de 60 000 dígitos decimales.

 1962: Se desarrolla el primer juego de ordenador, llamado Spacewar!.12

 DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en
laboratorios y para la investigación.

 1964: IBM anunció la serie 360, que fue la primera familia de computadoras que podía
correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio.
También abrió el uso comercial de microprogramas, y un juego de instrucciones
extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la
línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una
línea de productos “comerciales” y una línea “científica”. El software proporcionado con el
System/350 también incluyó mayores avances, incluyendo multiprogramación disponible
comercialmente, nuevos lenguajes de programación, e independencia de programas de
dispositivos de entrada/salida. Más de 14 000 unidades del System/360 habían sido
entregadas en 1968.

Tercera generación de computadoras

Ir a la navegaciónIr a la búsqueda

Este artículo o sección necesita ser wikificado, por favor, edítalo para que las
cumpla con las convenciones de estilo.
Este aviso fue puesto el 7 de abril de 2015.

Este artículo tiene referencias, pero necesita más para complementar


su verificabilidad.
Puedes colaborar agregando referencias a fuentes fiables como se indica aquí. El
material sin fuentes fiables podría ser cuestionado y eliminado.
Este aviso fue puesto el 22 de septiembre de 2016.
A finales de la década de 1950 se produjo la invención del circuito integrado o chip, por parte
de Jack S. Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador,
en Intel. A finales de 1960, investigadores como George Gamow en el ADN formaban un código,
otra forma de codificar o programar.12

A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros


componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito
completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips
(circuitos integrados) era mucho más fácil montar aparatos complicados: receptores
de radio o televisión y computadoras.

En 1964, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que
recibió el nombre de serie Edgar.

Estas computadoras de tercera generación sustituyeron totalmente a los de segunda,


introduciendo una nueva forma de programar que aún se mantiene en las grandes computadoras
actuales.

Esto es lo que ocurrió en (1964-1971) que comprende de la tercera generación de computadoras.

 Menor consumo de energía eléctrica

 Apreciable reducción del espacio que ocupaba el aparato

 Aumento de fiabilidad y flexibilidad

 Teleproceso

 Multiprogramación

 Renovación de periféricos

 Se calculó π (número Pi) con 500 mil decimales.

 Se empezaron a utilizar los circuitos integrados y los chips.

Máquinas relevantes

 IBM 360: esta empresa marcó el comienzo de esta generación el 7 de abril de 1964, con el
lanzamiento del IBM 360, con la tecnología SLT integrada. Causó tal impacto que se
fabricaron más de 30.000 unidades.

 CDC 6600: también en 1964 la empresa Control Data Corporation, presentó el CDC 6600,
que se consideró el computador más poderoso de la época, ya que podía ejecutar unos
3.000.000 de instrucciones por segundo.
 Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de
las más populares fueron la PDP-8 y la PDP-11.

Cuarta generación de computadoras

Ir a la navegaciónIr a la búsqueda

Este artículo tiene referencias, pero necesita más para complementar


su verificabilidad.
Puedes colaborar agregando referencias a fuentes fiables como se indica aquí. El
material sin fuentes fiables podría ser cuestionado y eliminado.
Este aviso fue puesto el 4 de noviembre de 2013.

La denominada Cuarta Generación es el producto del microprocesador de los circuitos


electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las
computadoras personales (PC). Hoy en día las tecnologías LSI (integración a gran escala) y VLSI
(integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se
almacenen en un microchip. Usando VLs, un fabricante puede hacer que una computadora
pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto
completo. Hicieron su gran debut las microcomputadoras.

Hizo que sea una computadora ideal para uso “personal”, de ahí que el término “PC” se
estandarizara y los clones que sacaron posteriormente otras empresas fueron llamados “PC y
compatibles”, usando procesadores del mismo tipo que las IBM , pero a un costo menor y
pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como
la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman
también “PC”, por ser de uso personal. El primer microprocesador fue el Intel 4004, producido en
1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época.
Contenía 2300 transistores en un microprocesador de 4 bits que sólo podía realizar 60 000
operaciones por segundo.

Microprocesadores[editar]

Microprocesador Intel 8008.


El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en
terminales informáticos.1 El Intel 8008 contenía 3300 transistores. El primer microprocesador
realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que
contenía 4500 transistores y podía ejecutar 200 000 instrucciones por segundo. Los
microprocesadores modernos tienen una capacidad y velocidad mucho mayores.

Entre ellos figuran el Intel [ibm, con 5,5 millones de transistores; el UltraSparc-II, de Sun
Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado
conjuntamente por Apple, IBM y Motorola, con siete millones de transistores, y el Alpha 21164A,
de Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un
circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando
el control de las operaciones de cálculo.

RORO y sus microprocesadores también se utilizan en otros sistemas informáticos avanzados,


como impresoras, automóviles o aviones. En 1995 se produjeron unos 4000 millones de
microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente
integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos
electrónicos complejos formados por componentes extremadamente pequeños formados en una
única pieza plana de poco espesor de un material conocido como semiconductor.lm

Los microprocesadores modernos incorporan hasta 10 millones del transistores (que actúan como
amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros
componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie
comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes.

Los más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria
especializada denominadas memoria caché, modernos funcionan con una anchura de bus de 64
bits: esto significa que pueden transmitirse simultáneamente 64 bits de datos. Un cristal oscilante
situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar
todas las actividades del microprocesador.

Quinta generación de computadoras

Ir a la navegaciónIr a la búsqueda

La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth
Generation Computer Systems), fue un proyecto hecho por Japón que comenzó en 1982. Su
objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y
tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el
lenguaje PROLOG234 al nivel del lenguaje de máquina y serían capaces de resolver problemas
complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por
ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se
empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución
de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de
arquitecturas VLSI (Very Large Scale Integration).

El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales
siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo
una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el
peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar
un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan
ser ejecutadas por separado en distintos procesadores. Además las demás generaciones casi ya no
se usan, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir
numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero
sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la
mejora del rendimiento de la tarea después de paralelizarla.

Antecedentes y diseño[editar]

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos
del adelanto y construcción de las computadoras basadas en los modelos desarrollados en
los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e
Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la
década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática.
El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado de llevar a
cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para
realizar estudios más profundos con la participación conjunta de empresas de la industria
dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante
este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Inicio[editar]

En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro
Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar
oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto
para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la
dirección de Fuchi,5 a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y
con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de
hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.6

Los campos principales para la investigación de este proyecto inicialmente eran:

 Tecnologías para el proceso del conocimiento.

 Tecnologías para procesar bases de datos y bases de conocimiento masivo.

 Sitios de trabajo del alto rendimiento.


 Informáticas funcionales distribuidas.

 Supercomputadoras para el cálculo científico.

Impacto institucional e internacional[editar]

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los
artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el
área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación
entre los otros países.7

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and
Computer Technology Corporation8 y la Strategic Computing Initiative; por parte europea, en Reino
Unido fue ALVEY,8 y en el resto de Europa su reacción fue conocida como ESPRIT (European
Strategic Programme for Research in Information Technology, en español Programa Estratégico
Europeo en Investigación de la Tecnología de la Información).9

Popularidad internacional[editar]

Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido
en Occidente gracias a la aparición de libros en los que se hablaba del proyecto de manera más o
menos directa o era citado10 pero principalmente por artículos aparecidos en revistas dedicadas a
los aficionados a la informática;11 así por ejemplo, en el número de agosto de 1984 de la
estadounidense Creative Computing se publicó un artículo que trataba ampliamente el tema, "The
fifth generation: Japan's computer challenge to the world"12 (traducido, La Quinta Generación: El
desafío informático japonés al mundo). En el ámbito de habla hispana se puede citar por ejemplo a
la revista MicroHobby, que en julio de 1985 publicó13 una entrevista a Juan Pazos Sierra,
Doctorado en Informática y vinculado en aquella época a la Facultad de Informática de
la Universidad de Madrid, en la que describía someramente el proyecto como:

...un proyecto japonés que tiene unas características curiosas y especiales; en primer lugar, la
pretensión es construir un computador basado en tecnología VLSI, con una arquitectura no Von
Neumann y que llevaría como núcleo de software la programación lógica, el lenguaje PROLOG,
para construir finalmente sobre todo esto Sistemas Expertos.

Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de
lo augurado por los propios promotores del proyecto. Así, ante la pregunta de si se había obtenido
algún resultado en el mismo, respondía:

De momento, nada. Se va a desarrollar muchísimo lo que ya existe, aparecerán nuevas


tecnologías, nuevos Sistemas Expertos y la investigación se verá enormemente potenciada por la
tremenda inyección de dinero que el proyecto quinta generación ha supuesto para la Inteligencia
Artificial.

Por su parte, Román Gubern, en su ensayo El simio informatizado de 1987, consideraba que:
...el ordenador de quinta generación es un verdadero intento de duplicación tecnológica del
intelecto del Homo sapiens.14

Principales eventos y finalización del proyecto[editar]

 1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y


métodos del proyecto.

 1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores
de la industria y por parte del gobierno.

 1985: se concluye el primer hardware desarrollado por el proyecto, conocido


como Personal Sequential Inference machine (PSI) y la primera versión del sistema
operativo Sequential Inference Machine Programming Operating System(SIMPOS). SIMPOS
fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog15 con
extensiones para la programación orientada a objetos, el metalenguaje ESP. Poco después
de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-
performance Inference machine).

 1986: se ultima la máquina Delta, basada en bases de datos relacionales.

 1987: se construye un primer prototipo del hardware llamado Parallel Inference


Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe
subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje
propuesto, Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite
Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación
paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel
Inference Machine Operating System, o PIMOS.

 1991: concluyen los trabajos en torno a las máquinas PIM.

 1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este
año.

 1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien


para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración
prevista, llamado FGCS Folow-on Project.16 El código fuente del sistema operativo PIMOS
es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando
como resultado el KLIC (KL1 to C compiler).

 1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.

Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia
Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k y PIM/c, teniendo como una de sus
características principales 256 elementos de Procesamiento Acoplados en red. El proyecto
también produjo herramientas que se podían utilizar con estos sistemas tales como el sistema de
gestión de bases de datos en paralelo Kappa, el sistema de razonamiento legal HELIC-II, el
lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y
lenguaje de programación lógico17 y el demostrador automático de teoremas MGTP.

Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos
invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin
haber cumplido sus objetivos. William Zachman criticó el proyecto un año antes de su término,
argumentando:

Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya
mecanismos de inferencia potentes. Ya hay un montón de aplicaciones de tipo IA, y estoy
esperando la llegada del motor de inferencia potente, por eso las computadora de quinta
generación son un error.18

El hardware propuesto y sus desarrollos de software no tenían cabida en el mercado informático,


que había evolucionado desde el momento en el que se lanzara el proyecto, y en el que sistemas
de propósito general ahora podían hacerse cargo de la mayoría de las tareas propuestas como
objetivos iniciales de las máquinas de quinta generación, de manera semejante a como había
pasado en el caso del mercado potencial de las máquinas Lisp, en el que sistemas para la creación
de Sistemas Expertos basados en reglas como CLIPS, implementados sobre computadoras
comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.19

Por otra parte, dentro de las disputas entre las diferentes ramas de la inteligencia artificial, el
proyecto japonés partía del paradigma basado en la programación lógica y la programación
declarativa, dominante tras la publicación en 1969 por Marvin Minsky y Seymour Papert del
libro Perceptrons, que pasaría progresivamente a un segundo plano en favor de la programación
de Redes Neuronales Artificiales (RNA) tras la publicación en 1986 por parte de McClelland y
Rumelhart del libro Parallel Distributed Processing, lo que junto a sus escasos resultados
contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.

El Institute for New Generation Computer Technology (ICOT) fue renombrado en el año 1995
a Research Institute for Advanced Information Technology (AITEC), centro que fue clausurado en
2003, pasando todos sus recursos al Advanced IT Research Group (AITRG), dependiente del
Departamento de Investigación del JIPDEC.

Hardware[editar]

Primera etapa[editar]

Máquinas secuenciales PSI (Personal Sequential Inference machine) y CHI (Co-operative High-
performance Inference machine):

 PSI-I: 30 KLIPS (Logical Inference Per Second)

 PSI-II: PSI-I + CPU VLSI


 CHI-I: 285 KLIPS

Máquinas en paralelo PIM (Parallel Inference Machine):

 PIM-D

 PIM-R

Máquina de base de datos relacional:

 DELTA

Segunda etapa[editar]

Máquinas secuenciales:

 PSI-III

 CHI-II: 490 KLIPS

Máquinas en paralelo:

 Multi-PSI

Tercera etapa[editar]

Máquinas en paralelo:

 PIM/p: 512 microprocesadores RISC, 256 MB de memoria

 PIM/m: 256 microprocesadores CISC, 80 MB de memoria

 PIM/c: 256 microprocesadores CISC, 160 MB de memoria

 PIM/k: 16 microprocesadores RISC, 1 GB de memoria

 PIM/i: 16 microprocesadores RISC (tipo LIW), 320 MB de memoria

También podría gustarte