Está en la página 1de 51

UNIVERSIDAD NACIONAL DE SAN CRISTOBAL DE HUAMANGA

FACULTAD DE INGENIERIA DE MINAS GEOLOGIA Y CIVIL

ESCUELA DE FORMACION PROFESIONAL DE INGENIERIA CIVIL

DEPARTAMENTO ACADEMICO DE MATEMATICA Y FISICA

TRABAJO Nº 01

HISTORIA Y EVOLUCIÓN DE LA INFORMÁTICA

ASIGNATURA : COMPUTACIÓN

SIGLA : CC – 143

PROFESOR : Ing. SILVA LÓPEZ, Elisa.

ALUMNO : QUISPE ORÉ, Virgilio

CÓDIGO : 16941545

AYACUCHO – PERU

2013
HISTORIA Y EVOLUCIÓN DE LA INFORMÁTICA

Resumen
En este trabajo se va a hacer un repaso a todo lo que ha sido la historia de la
informática, desde sus orígenes más remotos (ayudas para simplificar tareas en el
cálculo) hasta la actualidad, donde los ordenadores desempeñan un papel muy
importante tanto en el desarrollo de la ciencia y de la técnica, como en la sociedad.
1. Introducción
Aunque tal y como hoy conocemos la informática se puede considerar una ciencia
relativamente moderna, esto no es así. Tenemos que tener muy claro que los
computadores no han nacido en los últimos años, sino que sus orígenes se remontan a
tiempos pretéritos.
El ser humano siempre ha necesitado encontrar métodos rápidos y efectivos para
resolver sus cálculos, y con ayuda de su gran inventiva ha conseguido a través de los
siglos desarrollar las computadoras. Hoy en día ya estamos acostumbrados a vivir con
ellas, o casi, y no nos percatamos de que su aparición ha tenido una gran influencia en
diversos aspectos de nuestra vida diaria, mejorándola y abriendo puertas que antes eran
desconocidas para la humanidad.
El objetivo de este trabajo es mentalizar a los individuos de dos cosas:
1. La informática tiene una historia y unos orígenes, como todo; los ordenadores
no aparecieron en el siglo XX de la noche a la mañana, sino que tienen siglos y
siglos de trabajo.
2. Los computadores no son el virus del siglo XX como muchos dicen, ya que nos
ayudan tanto en la ciencia (acelerando su desarrollo) como en la sociedad
(educación, comunicación, etc.).
Como primera parte del trabajo estudiaremos las primeras ayudas, instrumentos y
máquinas que utilizaron nuestros antepasados para resolver cálculos, y como éstos
fueron evolucionando a medida que el tiempo y los medios avanzaban; hasta llegar al
siglo XX donde aparecen los primeros ordenadores, que eran máquinas que se
empezaban a asemejar a los actuales. Tras la aparición del primer ordenador electrónico,
iremos generación a generación viendo como éste fue mejorando poco a poco,
adentrándonos en los procesadores que fueron surgiendo.
Para terminar haremos un pequeño resumen de lo que es la informática hoy en día,
destacando que no es una ciencia independiente e inútil, sino que el resto de ciencias la
necesitan tanto como a sí mismas para avanzar y facilitar sus investigaciones. También,
aunque no debamos, nos meteremos un poco en internet, ya que consideramos
indispensable hablar de él si comentamos como afecta la informática en la educación.
2. Orígenes y desarrollo
[Laredo00]
En sus orígenes, bastantes años antes de Cristo, el cálculo tenía bastantes problemas
para poder desarrollarse. Uno de ellos era que no existía un mecanismo fácil para
escribir el enunciado de los problemas y para anotar los resultados intermedios,
dificultando así el trabajo de las personas que buscaban la solución de un cálculo. Dado
este problema y la necesidad de obtener resultados rápidos y exactos procedente de los
campos del comercio, impuestos, calendarios, organización militar, etc., en la historia
de la humanidad se han ido construyendo distintos instrumentos y maquinas que
simplificaran notablemente los cálculos humanos.
Destaquemos que una vez solventado el problema del mecanismo de escritura, se siguió
igualmente avanzando en la construcción de instrumentos cada vez más complejos,
intentando siempre superar y mejorar lo que ya existía.

2.1. Visión general de las primeras ayudas de cálculo


2.1.1. Cálculo con los dedos
[Infso00]
Los dedos se ha usado de tres formas distintas como ayuda al cálculo, éstas son:
1. Para contar con ellos.
2. Para representar números mediante posiciones complejas, y así guardar
resultados intermedios durante la ejecución de cálculos mentales.
3. Para realizar operaciones de multiplicación.

2.1.2. El Ábaco
[Infso00]
Desde épocas tempranas se han manipulado piedras sobre el polvo o usado un palo o el
propio dedo sobre tablas de polvo (como sustitución del papel y la tinta) para hacer
operaciones. Por eso se cree que la palabra semítica abaq (polvo) es la raíz de nuestra
palabra moderna ábaco; y que fue adoptada por los griegos que utilizaban la
palabra abax para nombrar la superficie plana en la que dibujaban sus líneas de cálculo.
Como gran parte de la aritmética se realizaba en el ábaco, llegó un momento en el que
ambas palabras se utilizaban indistintamente, considerándose sinónimos.
Su origen no está muy claro, y probablemente comenzó simplemente como piedras que
se movían en líneas dibujadas sobre polvo. Pero lo que sí es seguro es que por el 1000
a.C. en la civilización china el ábaco era una herramienta indispensable para efectuar
todas las transacciones comerciales en las que era necesario realizar operaciones rápidas
y eficaces.
El ábaco no era otra cosa que un rudimentario marco o tablilla de madera dotada de una
serie de varillas verticales que dividían la tabla en varias columnas, en las cuales habían
una serie de bolas o anillos a modo de cuentas. La columna situada más a la derecha
representaba las unidades, la anterior a las decenas y así sucesivamente. En la parte
inferior de cada columna existían cinco cuentas elementales y, situadas en la parte
superior otras dos de distinto color que representaban cinco unidades. Así,
representando un número en el ábaco mediante las cuentas situadas en las columnas
correspondientes, las sumas se realizaban añadiendo las cuentas necesarias a cada
columna dígito a dígito, de forma que si en este proceso se completaba alguna columna
con diez cuentas, éstas eran eliminadas y se sumaba una cuenta en la columna
inmediatamente a su izquierda.
El ábaco se ha usado en muchas culturas, incluso en la europea; pero al disponerse de
papel y lápiz su uso era limitado. Como muestra de ello hay varias variantes de ábaco:
 Ábaco ruso: Es decimal, dispone de diez anillos de madera en cada columna.
 Ábaco europeo: Era una mesa de conteo en al que se dibujaban unas líneas con
tiza o tinta. La línea de la parte inferior representaba las unidades y en cada salto
de línea se multiplicaba por diez el valor anterior. El valor entre líneas
representaba cinco veces el valor anterior.
 Ábaco chino: Consistía en un marco con dos zonas y 17 barras con siete cuentas
en cada una, cinco en la sección inferior (tierra) de valor unidad, y dos en la
superior (cielo) de valor cinco (véase Figura 1). Con lo que en cada barra se
podía representar un número del 1 al 15.

Figura 1: El ábaco chino.


 - Ábaco japonés (soroban): Se diferencia del chino en que en el cielo sólo pone
una cuenta y en tierra sólo cuatro. Se puede considerar el último desarrollo del
ábaco, en el que además las cuentas se han modificado en su perfil para facilitar
el manejo por los dedos del operador; consiguiéndose una gran velocidad a la
hora de realizar sumas o restas con acarreo.
Como nota característica diremos que el 12-11-1946 compitieron el soldado Wood del
ejército de EE.UU., que era el operador de máquinas eléctricas de calcular más experto;
y Kiyoshi Matsuzaki, un japonés muy entrenado en el uso delSoroban. Y que en cuatro
de las cinco pruebas ganó el ábaco con diferencia, perdiendo solo en la prueba de la
multiplicación.
Con esto queda demostrado que el ábaco no era un juguete de niños como muchos
afirman, sino que si se sabe utilizar es muy potente.

2.1.3. Las Tablas de Neper


[Marmaneu99]
Tras el ábaco hubo un vacío en el que no apareció nada que revolucionase el cálculo,
hasta que en 1614 Jonh Napier(1550-1617) (véase Figura 2) anunciara el
descubrimiento de los logaritmos. Éstos eran funciones matemáticas que permitían que
los resultados de complicadas multiplicaciones y divisiones se redujeran a un proceso
de simples sumas y restas, respectivamente.

Figura 2: Jonh Neper.


Inventó un dispositivo consistente en unos palillos con números impresos que merced a
un ingenioso mecanismo le permitía realizar operaciones de multiplicar y dividir. A este
dispositivo se le conoce como Tablas de Neper (véase Figura 3).
Figura 3: Las Tablas de Neper.
Funcionamiento: Para entender cómo funcionaban las tablas, haremos la
multiplicación de 592 por 321 (véase Figura 4). Cada celda se divide en dos partes, la
de arriba indica las decenas, y la de abajo las unidades; estos dígitos se obtienen, en el
caso de la primera celda, al multiplicar 5 por 3 (1 decena y 5 unidades = 15). En la
siguiente celda multiplicariamos 9 por 3 y así con todas.

Figura 4: Funcionamiento de las Tablas.


Una vez hechas las operaciones anteriores, sólo hay que sumar lsa diagonales indicadas
en la figura:
 Unidades: Obtenidas al sumar 2=2.
 Decenas: Obtenidas al sumar 4+0+9=13 (nos llevamos una para sumar al
número siguiente).
 Centenas: Obtenidas al sumar 6+0+8+0+5+1=20 (el acarreo es dos).
 Unidades de Millar: Obtenidas al sumar 0+7+1+0+0+2=10 (con acarreo igual a
1).
 Decenas de Millar: Obtenidas de sumar 2+5+1+1=9.
 Centenas de Millar: Obtenidas de sumar 1=1.
 El orden de lectura de este resultado es de arriba hacia abajo. El resultado
es 190032.
Aunque Neper no llegó a construir ninguna máquina de cálculo basada en sus tablas,
puso la base para algunos autores que si desarrollaron máquinas basadas en ellas.
Gaspar Schott, Atanasio Kircher, Wilhelm Schickard y Blaise Pascal fueron algunos de
los que tuvieron muy en cuenta estas Tablas para realizar sus máquinas.
En fin, el uso de las Tablas de Neper se extendió muy rápido debido a su gran utilidad,
e incluso se fueron desarrollando varias adaptaciones a lo largo del tiempo. A finales del
siglo XIX se puso punto y final a la evolución de las Tablas de Neper, cuando Henri
Genaille resolvió un problema que planteó Eduardo Lucas, desarrollando un nuevo
juego de tablas de Neper en el proceso de solución. En ellas se elimina el problema de
acarrear dígitos de una columna a la siguiente en la lectura de los productos parciales.
También se creó un conjunto de reglas para la división.
2.1.4. Herramientas analógicas
[Infso00]
En la época de Neper (s. XVI-XVII) los problemas de cálculo más importantes eran los
de astronomía, navegación y cálculo de horóscopos; con lo que aparecieron una serie de
herramientas que facilitaban éstos :
 Cuadrante: Tenía bastantes funciones relacionadas con la trigonometría de la
época.
 Compas: Entre sus funciones destacaban, la reducción y ampliación de dibujos
a escala, dividir un círculo en x partes iguales y la determinación de raíces
cuadradas y cúbicas.
 Sector: Útil y potente para cálculos trigonométricos.
 Astrolabio: Servía para realizar diferentes observaciones y cálculos
astronómicos (más de mil se decía).
 Regla de cálculo: Hacia 1622 William Oughtred utilizó los recién inventados
logaritmos para fabricar un dispositivo que simplificaría la multiplicación y la
división. Consistía en dos regla graduadas unidas que se deslizaban una sobre la
otra.
2.2. El preludio de los computadores: las primeras máquinas de cálculo
[Salcedo98]
El afán por reducir al máximo el trabajo al realizar las funciones aritméticas, y quizá
una pequeña mejora en la disponibilidad de instrumentos, provocan que a partir del
siglo XVII empiecen a aparecer en plan masivo máquinas o proyectos de las mismas.
En muchos de los casos los autores no llegaron a construir la maquina en su totalidad, o
no llegó a ser operativa); pero esto no se debía a que los creadores no fueran lo
suficientemente inteligentes, o a que no tuviesen las ideas muy claras, sino que la
tecnología de la época era bastante limitada y se quedaba muy atrás en comparación con
las exigencias del matemático, que veía como sus proyectos se paralizaban.
En este punto estudiaremos a los autores más importantes hasta llegar al siglo XX.
Algunos crearon algún dispositivo de cálculo, y otros sólo hicieron planos de lo que iba
a ser la máquina; pero tanto unos como otros fueron muy importantes por las teorías y
proyectos que tenían en mente, y porque siempre abrieron alguna puerta a las
generaciones posteriores.
2.2.1. Wilhelm Schickard (1592-1635)
[Infso00]
Tras personajes como Gaspar Schoot y Atanasio Kircher, Schickard fue el próximo en
diseñar una máquina basada en las Tablas de Neper, la cual sumaba, multiplicaba y
dividía semiautomáticamente. Erróneamente se piensa que Blaise Pascal fue el primero
en inventar una máquina de sumar con mecanismo de acarreo; pero en realidad es
a Schickard al que le corresponde el honor.
Del trabajo de Schickard solo disponemos de los planos de la máquina, los cuales
fueron suficientes para que Bruno Von Fretag reconstruyera la máquina siguiendo los
dibujos detallados que había de ella (véase Figura 5).

Figura 5: Reconstrucción de la calculadora de Schickard.


La máquina se dividía en dos partes:
1. Parte inferior: servía para anotar resultados intermedios, sin necesidad de
utilizar papel y lápiz, rodando una serie de ruedas.
2. Parte superior: era con la que se multiplicaba. Consistía en una serie de Tablas
de Neper las cuales estaban escritas sobre unos cilindros con lo que se podía
seleccionar una tabla en particular solo con girar un dial.
La máquina era bastante simple y fiable, pero tenía algunos fallos. El problema más
significativo que tuvo, fue el del acarreo múltiple, ya que era muy costosa la
propagación de izquierda a derecha de todo el acumulador (ej: 999999 + 1) por eso sólo
diseño máquinas de seis dígitos.
En fin, la calculadora de Schickard inauguró una nueva etapa del cálculo a la vez que
acababa con la superioridad del ábaco.
2.2.2. Blaise Pascal (1623-1662)
Pascal no fue el primero; pero eso no le quita mérito a su trabajo, entre otras cosas
porque no conoció la calculadora de Schickard, eliminando así cualquier posibilidad de
copia.

Figura 6: Blaise Pascal


Creo su calculadora en 1642, veinticinco años después que Neper publicase una
memoria describiendo su dispositivo ('Tablas de Neper'). A los dieciocho
años Pascal deseaba dar con la forma de reducir el trabajo de cálculo de su padre, y en
general evitar a los hombres realizar cálculos repetitivos. Por ello Blaise se preparó
como mecánico y con sólo diecinueve años creo su máquina, la cual tenía el tamaño de
un cartón de tabaco. Su principio de funcionamiento era semejante al ábaco, es decir,
utilizaba el sistema de numeración decimal; pero las primitivas varillas habían sido
sustituidas por un número determinado de ruedas dentadas (véase Figura 7) que al rodar
diez dientes de la primera rueda avanzaba un diente de la segunda, lo mismo con la 2ª y
3ª, y así sucesivamente. Las ruedas estaban marcadas con números de 0 al 9, habiendo
dos para los decimales y seis para los enteros, con lo que se podía manejar números
entre 000000 01 y 999999 99.
Figura 7: Visión de las ruedas dentadas.
Más adelante diseño un nuevo mecanismo (véase Figura 8) completamente nuevo
basado en la caída de contrapesos en vez de la propagación en una cadena larga de
engranajes (como inicialmente era el diseño, y como la máquina de Schickard). Este
nuevo mecanismo de acarreo puso punto y final al problema del acarreo múltiple de
Schickard; pero trajo consigo otro. Éste era que las ruedas sólo podían girar en una
dirección con lo que sólo se podía sumar y no restar. Este problema se resolvió
mediante la suma del complemento a nueve (Ca9) del resultado, lo que hizo bastante
engorroso su uso.

Figura 8: Calculadora de Pascal.


La utilización de la máquina llegó a ser farragosa y sujeta a muchos inconvenientes,
haciendo que su uso quedara limitado a ciertas personas. Incluso a veces era más fácil y
rápido hacer el cálculo a mano que con la máquina. Pero la contribución de Pascal no
fue importante por la utilidad de la máquina, sino por el concepto de máquina
calculadora que, con perspectivas de futuro, supo entrever en su complicado artefacto.
Por ello, en su honor se llama uno de los lenguajes de programación que más impacto
ha causado en los últimos años.
2.2.3. Gottfried Wilhelm Leibnitz (1646-1716)
La célebre calculadora inteligente del alemán Leibnitz fue uno de los primeros
autómatas de las historia; pero sobre todo la informática le debe la genial idea de utilizar
el sistema binario -0 y 1- como método de cálculo.
Su gran curiosidad científica le llevó a estudiar los campos de la lógica, matemática,
física, biología, ingeniería, historia, política, filosofía, jurisprudencia, metafísica y
teología. Esta relación de ciencias podrían hacer creer que su labor fue muy dispersa y
no hizo nada en concreto; pero no es así.
Se esforzó por lograr una síntesis intelectual a la vez que propuso el establecimiento de
un lenguaje universal, científico y formal. Relacionaba este proyecto lingüístico con su
plan de reforma científica basada en un cálculo matemático de índole lógico-
matemática.
En fin, la brillante constelación intelectual de teorías y trabajos de Leibnitz afecta de
forma esencial a la computación y entrar en su historia por tres grandes logros:
 La estructuración de procesos de resolución de problemas.
 El formidable uso del sistema de numeración binario. Base de numeración
empleada por los modernos ordenadores actuales.
 La calculadora mecánica: En un principio estudió a Pascal y diseñó un añadido
para que pudiera hacer multiplicaciones; pero abandonó este proyecto
posiblemente porque ambas partes no se llegaron a adaptar y a acoplar
correctamente.
La máquina (véase Figura 9)que le ha dado tanta fama apareció en 1672, y se
diferenciaba en la de Pascal en varios aspectos, tres de los cuales era que podía
multiplicar, dividir y sacar raíces cuadradas. Constaba de dos secciones, una
superior que contenía el mecanismo de inicialización y el registro de resultados.
Y otra inferior donde se encuentra el mecanismo básico, el tambor en escalera.

Figura 9: Calculadora de Leibnitz.


Uno de los muchos problemas que tuvieron las máquinas de entonces era el
acarreo de un dígito al siguiente, al pasar el primero de 9 a 0. Leibnitz casi
resolvió este problema, ocasionando otro, y es que en el mecanismo que diseño
un acarreo podía ocasionar otro acarreo en el dígito siguiente.
Tanto Pascal como Leibnitz se vieron afectados por la época ya que sus máquinas eran
demasiado complejas para realizarlas a mano, y por ello sus máquinas no llegaron a ser
tan perfectas como hubiesen podido ser.

2.2.4. Samuel Morland (1625-1695)


Fabricó instrumentos de diversos tipos, entre ellos:

 Una máquina sencilla de sumar:consisitía en un juego de ruedas que se


giraban con un pequeño punzón. No había mecanismo de acarreo, sino que
incorporaba unos diales auxiliares que avanzaban una posición cuando el dial
principal pasaba de 9 a 0. Al finalizar la suma indicaban cuantos acarreos
quedaban por hacer.
 Un juego sencillo de Tablas de Neper: esta segunda máquina servía como
ayuda a la multiplicación y a la división usando Tablas de Neper. Poseía un
conjunto de discos que eran una versión circular de la Tablas, para trabajar
mejor con ellas.
Ambas máquinas formaban un buen conjunto, ya que además de complementarse se
necesitaban, ya que era preciso sumar al multiplicar con las Tablas de Neper.

2.2.5. Joseph Jacquard (1752 - 1834)


[Giles_] [Alvarez98]
Utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los
hilos de las telas controlados por una máquina de tejer. Jacquard fue el primero en
emplear tarjetas perforadas para almacenar información y además programarla
máquina.
En 1801 creó el Telar de Tejido (véase figura 10), para elaborar la trama del diseño de
una tela. La información necesaria para realizar su confección era almacenada en
tarjetas perforadas. El telar realizaba el diseño leyendo la información contenida en las
tarjetas.De esta forma,se podían obtener varios diseños,cambiando solamente las
tarjetas.Se dice que Jacquard programó un diseño en 24 000 tarjetas,para tejer su propio
autorretrato.

Figura 10: Máquina de Jacquard.

2.2.6. Charles Babbage (1792 - 1871)


[Garzon99] [Martinez99]
Matemático inglés, posiblemente el más importante de los autores vistos hasta el
momento (véase Figura 11).

Figura 11: Chrales Babbage.


En 1812 vio que las tablas trigonométricas estaban plagadas de errores al haber sido
calculadas a mano, y que estos fallos podían ocasionar desde grandes desviaciones en
las trayectorias navales hasta la pérdida de los documentos de los pagos anuales del
Gobierno. Él estaba seguro que una máquina realizaría esas tablas mucho mejor y sin
errores. Así pues en la década de 1820 diseño la MÁQUINA DIFERENCIAL.
Era una máquina automática para el cálculo, lo que fue una revolución en la historia de
la computación. Podía realizar cálculos matemáticos sin necesidad de realizar
operaciones de multiplicar y dividir. Calculaba tablas de funciones, es decir, calculaba
el valor numérico de una función polinómica sobre una progresión aritmética, dado que
las funciones se pueden aproximar a polinomios. Además de realizar estos cálculos,
hubiese impreso las tablas en papel o metal, a pesar de la dificultad de la época para
llevar a cabo una impresión.
Las tablas matemáticas que generaría la máquina eran calculadas mediante el método de
las diferencias, el cual es casi tan fácil como calcular una suma, y tiene la ventaja de que
el resultado depende de un valor previo.
Las diferencias podían ser simples (1er. orden) o derivadas (2º orden o más),
dependiendo de la función.
Ejemplo: f(x) = 5x + 9.
Tabla1:
Diferencias Constantes.

X Y Diferencia
0 9
1 14 14-9=5
2 19 19-14=5
3 24 24-19=5
Sig – 24=5

Aunque la funciones polinómicas tienen diferencias constantes, otras como las


trigonométricas son más complejas .Babbage puso la solución de subdividir las
funciones complejas en partes que puedan ser resueltas con polinomios. Destaquemos
que él siempre afirmó que las diferencias constantes aunque derivadas eran mejores para
automatizar el cálculo.
Hacia 1822 había creado un modelo de máquina que podía manipular diferencias de
segundo orden. Esta máquina se utilizó para el cálculo de tablas de navegación y
artillería, lo que le permitió conseguir una subvención recomendada por la Sociedad
Real, para respaldarle en la creación de una máquina de escala completa. Aquí es donde
empezaron los problemas, ya que la complejidad de la máquina puso en evidencia la
capacidad ingeniera de la época.
Babbage intentó repasar el proceso de construcción y realizó nuevos diseños; pero la
construcción avanzaba muy lentamente, terminándose el plazo de tiempo sin la máquina
acabada.
Fue acusado de desperdiciar el dinero del Gobierno en sus intereses; a pesar de todo el
Gobierno le proporcionó más dinero y prosiguió con su trabajo, hasta que tuvo una
disputa con el principal de sus mecánicos (1834), que hizo que el proyecto se aplazara.
Sin embargo había diseñado un modelo que calculaba diferencias de hasta tercer orden
y había desarrollado un ingenioso método para trabajar redondeando errores. Si la
última máquina diferencial hubiese sido construida habría calculado diferencias de hasta
sexto orden, y sería capaz de trabajar con números de hasta dieciocho dígitos.
En el Museo de la Ciencia está el modelo más completo (véase Figura 12), el cual si
hubiese sido acabado sería enorme, alrededor de 25000 piezas y una masa de varias
toneladas.
Figura 12: Máquina de diferencias.
En 1991 el Museo de la Ciencia creó con éxito un diseño de la máquina siguiendo los
pasos de Babbage, que ofrecía una visión de lo que hubiese sido la original.
Se puede considerar la máquina de diferencias como la precursora de las calculadoras
modernas.
MÁQUINA ANALÍTICA: En 1834 cuando estaba trabajando en la máquina
diferencial Babbage concibió la idea de una máquina analítica (véase Figura 13). Era
una máquina de propósitos generales, podía sumar, restar, multiplicar y dividir en
secuencia automática a una velocidad de sesenta sumas por minuto.

Figura 13: Esquema de la Máquina Analítica.


El problema de esta máquina era que el diseño requería miles de engranajes y
mecanismos que cubrirían el área de un campo de fútbol, con lo que su tamaño sería
como el de una pequeña locomotora. Para hacernos una idea, sería como los
ordenadores de los años sesenta, que eran enormes y ocupaban una habitación entera.
El diseño básico de la máquina era como el de los computadores modernos. Tenía
cuatro componentes básicos:
1. Un almacenamiento (memoria) con capacidad para guardar 50000 dígitos
decimales, que se usaba para guardar estados intermedios, variables y resultados.
2. Una unidad de cómputo, que podía recibir órdenes para hacer las cuatro
operaciones básicas y podía almacenar en la memoria.
3. Una unidad de entrada, mediante tarjetas perforadas que almacenaban el
conjunto de órdenes que se deseaba ejecutar.
4. Una unidad de salida, mediante tarjetas perforadas o salida impresa.
Funcionamiento: los datos e instrucciones eran introducidos mediante tarjetas
perforadas, luego un molino -unidad de proceso- operaría con los datos y resultados que
serían enviados al almacén para ser impresos o mecanografiados.
Características:
 Podía almacenar números.
 Era una máquina decimal que podía realizar los cuatro tipos de funciones
aritméticas.
 Podía manejar también multiplicaciones y divisiones de precisión ilimitada
gracias a un ingenioso sistema mecánico.
 Babbage también adelantó el diseño del acarreo anticipado, el cual permitía
una incorporación exitosa del acarreo para el cálculo.
 Generaría su propia librería de funciones, las cuales podrían ser usadas en
cualquier proceso analítico.
 Podía alterar su secuencia de operaciones en base al resultado de operaciones
anteriores (algo fundamental en los ordenadores actuales).
 Al almacén sólo se podía acceder por su localización, no existía el concepto de
direcciones variables. Dos direcciones especificarían las operaciones, y la
tercera sería donde se colocaría el resultado (funcionamiento semejante a los
primeros computadores electrónicos).
Al igual que la máquina diferencial, no pudo ser construida, ya que la tecnología de la
época no era capaz de trasladar a la práctica sus acertados conceptos.
La máquina analítica hubiese sido una auténtica computadora programable. Babbage,
sin duda, hubiese acelerado el desarrollo de los computadores si él y su mente inventiva
hubieran nacido cien años después. Lo curioso es que fue ignorado y sus grandes
proyectos olvidados hasta hace poco; posiblemente porque no llegó a construir ninguna
máquina y porque muy poca gente podía entenderle, y es ahora cuando nos damos
cuenta de que ya adelantó parte de lo que iba a ser el futuro de los computadores.

2.2.7. Ada Augusta Byron (1815 - 1851)


Se considera la primera programadora de la historia, es decir, la primera persona capaz
de entender el lenguaje de computadora y el lenguaje de programación, ya que publicó
una serie de programas para resolver ecuaciones trascendentes e integrales definidas con
la máquina de Babbage. Destaquemos que en dichos programas se hacía uso de
bifurcaciones hacia delante y hacia atrás, y de bucles.
Figura 14: Ada Augusta Byron.
Su relación con Charles Babbage comenzó cuando ella visitaba su taller a temprana
edad. Babbage estaba muy impresionado con la manera en que ella entendía su
computadora. Luego él pasó a ser su tutor y más tarde trabajaron juntos.
La primera publicación de Ada fue una traducción y análisis de un ensayo, escrito por
un matemático italiano, sobre la máquina de Babbage.
En sus notas personales sobre sus habilidades con las computadoras decía que la
máquina sólo podía dar información disponible, es decir, vio claramente que no podía
originar conocimiento. También detectó que el motor podía generar música; en fin, que
entendía a la perfección cada una de las operaciones de la máquina.
El que Ada entendiese a Babbage no es una simple anécdota, ya que además de
confirmarla como la primera programadora, nos demuestra que al menos alguien
entendió a Babbage, y que si sus máquinas no llegaron a ser construidas no es porque el
quisiera crear algo imposible, sino porque en su época no hubo un acuerdo entre la
técnica y sus proyectos.

2.2.8. George Boole (1815 - 1864)


Sería un error olvidarnos de George Boole (ver Figura 15), si se habla de la historia de
la informática ya que su trabajo fue muy importante e influyó de pleno en los
computadores.

Figura 15: George Boole.


Boole recluyó la lógica a una álgebra simple. También trabajó ecuaciones diferenciales,
el cálculo de diferencias finitas y métodos generales en probabilidad.
Publicó una aplicación de métodos algebraicos para la solución de ecuaciones
diferenciales, y por este trabajo obtuvo la medalla de la Real Sociedad; a partir de aquí
empezó su fama. En 1854 publicó también una investigación de leyes del pensamiento
sobre las cuales son basadas las teorías matemáticas de lógica y probabilidad.
Boole aproximó la lógica en una nueva dirección reduciéndola a una álgebra simple,
incorporando así la lógica a las matemáticas. Agudizó la analogía entre los símbolos
algebraicos y aquellos que representan formas lógicas. Comenzaba elÁlgebra
Booleana también llamada Álgebra de Boole, la cual fue un paso fundamental en la
revolución de los computadores de hoy en día. Entre sus muchas aplicaciones está la
construcción de computadores y circuitos eléctricos.

2.3. Hacia la primera generación de ordenadores


En este punto veremos a los últimos autores antes de la 1ª generación de ordenadores;
para situarnos, la época en la que estamos es finales del siglo XIX y principios del XX
hasta 1945 que es cuando aparecen los ordenadores electrónicos. Empezaremos
hablando de Herman Hollerith y terminaremos introduciendo a John Mauchly que
posteriormente crearía una de la primera máquinas electrónicas (ENIAC).
2.3.1. Herman Hollerith (1860 - 1929)
[Garzon99]
Fue la primera persona que construyó una máquina basada en el tratamiento automático
de la información.

Figura 16: Herman Hollerith.


En la década de 1880 se realizó un concurso, promovido por la oficina del Censo de
EE.UU., en el que se proponía la invención de una máquina que facilitara la realización
del censo. En dicho concurso quedaron tres finalistas: William C. Hunt que ideó un
sistema de tarjetas coloreadas, Charles P. Pidgin con un sistema de fichas codificadas
también coloreadas, y Herman Hollerith con un sistema de tarjetas perforadas que
resultó ser dos veces más rápido que el de sus competidores. Dichas fichas eran leídas
por una máquina tabuladora, llamada máquina de censos (véase Figura 17). Éstas
corrían por unos cepillos y cuando la máquina detectaba mediante un baño de mercurio
(Hg) un orificio (eran características de la población), se cerraba un circuito eléctrico
haciendo que aumentara en una unidad el contador de dicha característica de población.
Finalmente los datos se registraban en una tabuladora.
Figura 17: Máquina de Censos de Herman.
Su invento era muy útil a la hora de realizar cálculos estadísticos, y se convertiría más
adelante en un descubrimiento de gran importancia para el mundo de informática.
Gracias a él, el censo de 1890 se terminó en menos de tres años, siendo todo un éxito ya
que el de 1880 se acabó en 1888, y además se produjo un ahorro de cinco millones de
dólares.
Destaquemos que Herman no tomó la idea de la tarjetas perforadas del invento
de Jacquard, sino de la fotografía de perforación. Vio que algunas líneas ferroviarias de
la época expedían boletos con descripciones físicas del pasajero; los conductores hacían
agujeros en los boletos que describían el color de pelo, de ojos, forma de la nariz, etc. de
los pasajeros; y esto le dio la idea para hacer fotografía perforada de cada persona que
iba a tabular.
En 1896 abandonó la oficina del Censo para crear su propia empresa, la Tabulating
Machine Company, con la que vendió sus productos por todo el mundo. La demanda
de sus máquinas se extendió incluso hasta Rusia. En 1900 había desarrollado un
máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una
máquina de cómputo semiautomática. En 1911 la Tabulating Machine Company al
unirse con otras dos formó la Computing-Tabulating-Recording-Company. En 1919
se anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera
en la que la compañías realizaban sus operaciones. En 1924, para reflejar mejor el
alcance de sus intereses comerciales, la compañía pasó a llamarse International
Bussines Machines Corporation, la mundialmente conocida IBM.

2.3.2. El analizador diferencial


También en la década de los 20, retoma vigor el desarrollo de máquinas para realizar
cálculos. Hattree construyó un analizador diferencial que usaba como principio básico
un disco rotando en contacto con otro.
Ya en 1930, en el MIT (EE.UU.), Vannevar Bush construyó otro analizador
diferencial. Éste era un dispositivo electromecánico que podía usarse para integrar
ecuaciones diferenciales. La precisión de esta máquina no era alta (5 en 10000) y
tomaba entre diez y veinte minutos integrar una ecuación promedio. A pesar de esto,
integrar una ecuación promedio puede constar aproximadamente de 750
multiplicaciones, lo que hubiera supuesto a un ser humano unas siete horas de trabajo.
En fin, la máquina no era una maravilla; pero era bastante más rápida que un humano.

2.3.3. Konrad Zuse (1910 - 1995)


[Garzon99]
Posee un lugar especial en la historia de la informática, porque fue el primero en
construir ordenadores electromecánicos, y el primero en diseñar y construir un
ordenador calculador controlado automáticamente; destaquemos que Herman
Hollerithya construyó una máquina basada en el tratamiento automático de la
información. Su ordenador no era electrónico ni tenía ningún programa residente en
memoria; pero era capaz de ser controlado por un lector externo que tomaba
instrucciones desde una cinta perforada.

Figura 18: Konrad Zuse.


Zuse construyó un verdadero calculador automático que sólo tenía tres unidades
básicas: una de control, una de memoria y otra aritmética para calcular.
No estaba familiarizado con los detalles del diseño de calculadoras mecánicas; lo que
debió ser una ventaja ya que no intentó producir una calculadora basada en las cosas
que ya se sabían sobre esto, sino que tuvo que ingeniar bases sobre las que crear sus
propios principios para construir sus ordenadores.

El Z-1
Decidió que cualquier unidad de memoria debía estar basada en un sistema binario,
mejor que los sistemas usados en las anteriores máquinas que funcionaban con la ruedas
o engranajes de diez posiciones. Su sistema era muy simple, el cual se basaba en una
pequeña clavija apoyada en una abertura que a su vez estaba apoyada sobre una cinta de
metal; dicha clavija debía ser puesta a un lado de la abertura o al otro según fuera 0 o 1
lo que se quisiera representar. El movimiento de la clavija provocaba que el mecanismo
de lectura se moviera de un lado a otro dependiendo en que lado de la abertura se
encontrase.
Con la ayuda de unos amigos construyó un pequeño estudio en la sala de estar de la casa
de sus padres y empezó a construir su modelo de memoria mecánica. Por 1936 había
progresado de tal manera que podía aplicar una patente a su idea.
Más tarde abandonó su trabajo en la Henschel Aircraft Company, y para la
consternación de sus padres decidió continuar su trabajo en la sala de estar. En 1937
había creado un modelo de memoria mecánica capaz de almacenar dieciséis números en
código binario, cada uno de ellos de 24 bits. Un año después ya había acabado la
construcción de su primera máquina, llamada originariamente V-1 (Versuchsmodell-1);
pero después de la guerra lo cambió por Z-1, para evitar confusiones con los misiles
llamados igual.
El Z-1 fue una máquina completamente mecánica. Sus componentes básicos eran una
especie de ingeniosas puertas construidas con una serie de placas deslizantes conectadas
entre ellas por unos rodillos. La unidad aritmética construida con estos mecanismos, fue
diseñada para trabajar con números en coma flotante, y con una unidad adicional
controlada que convertía los números binarios en coma flotante a decimal para facilitar
la entrada y salida de datos.
El control del Z-1 se llevaba a cabo por medio de una cinta, con las instrucciones
perforadas en ella. Mientras la mayoría de la gente usaba dichas cintas que conseguían
en los lugares que proporcionaban material a las centrales de telex, Zuseusaba una cinta
de vídeo de 35mm, que él mismo perforaba con un punzón manual. La idea de usar esto
se la dio su colega Helmut Schreyer que había trabajado como proyeccionista de cine.
La ventaja de ésta cinta residía en su mayor resistencia y en que podía utilizar un
proyector de cine para hacer que la película se moviera a pequeños pasos por dentro de
la máquina automáticamente.
La entrada de datos se basaba en un simple teclado de cuatro posiciones decimales
mientras que el de salida era un sistema con cuatro impulsos eléctricos que eran
mostrados mediante una lámpara.
La máquina funcionó, la memoria trabajaba bien y las bases de las unidades de memoria
fueron usadas en otras máquinas incluso; pero el diseño de la unidad aritmética presentó
graves problemas, muchos de los cuales fueron causados por la complejidad de las
rutinas de las señales enviadas de un lado a otro. El movimiento de las señales en una
máquina eléctrica se basa en un simple problema de llevar un cable de un punto a otro,
pero cuando las señales se representan por planchas deslizantes es muy difícil hacer que
estas señales circulen por las esquinas.
El Z-2
Después de que el Z-1 fuera acabado, Zuse empezó a diseñar una unidad aritmética
basada en relés para evitar los problemas del encauzamiento de la señal; su amigo
Schreyer paralelamente a su trabajo empezó a construir una parte de su máquina
mediante tubos de vacío. Este pequeño modelo se mostró en The Technical University
en Berlín en 1938, pero debido que en aquellos tiempos de preguerra en Alemania era
imposible obtener los 1000 tubos de vacío necesarios para fabricar la maquina Zuse
tuvo que abandonar esta línea de trabajo y volver a dedicarse a su máquina de relés Z-2.
El Z-2 fue diseñado para funcionar con la memoria mecánica del Z1 mientras que el
resto de la máquina iba a funcionar mediante relés. Los relés normales eran demasiado
caros para la cantidad que él necesitaba, que era de unos cuantos cientos de ellos; por
eso se hizo con unos cuantos de segunda mano que él y sus amigos reconstruyeron para
usar en el Z-2.
Schreyer diseñó un sistema de memoria que funcionaba con pequeñas lámparas de neón
controladas por una serie de tubos de vacío. El prototipo podía manejar números de más
de 10 bits de longitud y su construcción requirió 100 tubos de vacío; pero
desafortunadamente el modelo fue destruido en un ataque aéreo.
Más adelante Zuse abandonó a Schreyer y se dedicó él solo, durante sus fines de
semana libres, a intentar acabar el Z-2.
Cuando acabó la unidad aritmética basada en relés y tuvo la unidad de control
funcionando, le añadió la memoria mecánica y preparó una demostración para el
Deutsche Versuchsanstalt fur Luftahrt (Instituto de Investigación Aeronáutica Alemán).
La maquina funcionó a las mil maravillas, pero la construcción de la máquina no
resultaba rentable para su uso práctico; pero la utilización de los relés convenció a los
del DVL y aceptaron financiar a Zuse para la construcción de una máquina más
ambiciosa, que sería llamada Z-3 .
El Z-3
El Z-3 fue una maquina muy al estilo del Z1 y Z2, seguía funcionando con la cinta de
vídeo, y seguía teniendo los mismos dispositivos de entrada/salida. Toda la máquina se
basaba en la tecnología de relés, alrededor de unos 2.600 de éstos eran requeridos: 1400
para la memoria, 600 para la unidad aritmética y el resto para los circuitos de control;
que se colocaron en 3 estantes, 2 para la memoria y otro para la unidad aritmética y la
de control. Y cada uno tendría alrededor de 6 pies de altura por 3 de ancho.
Uno de los principales inconvenientes del uso de los relés es que la corriente pasa a
través de ellos y esto provoca chispas que se producen cada vez que se produce el
contacto entre las dos partes de los relés. Estas chispas son las que provocan el desgaste
entre las partes que producen el contacto y es la principal causa del fallo de los
relés. Zuse solucionó éste problema poniendo un tambor rotatorio. Este tambor contenía
varias capas de metal en su superficie y cepillos de carbón que realizaban el contacto
con el tambor cada vez que éste giraba. Todas las señales que pasaban a través de los
relés, primero debían ser sacadas a través del tambor de tal manera que un pequeño
retraso pudiera asegurar que el relé había cerrado sus contactos antes de que cualquier
corriente hubiera pasado por él. Esto hacía que no se pudieran producir descargas ni
chispas en éstos.
La memoria de 64 palabras fue, como en sus predecesores, binaria en coma flotante;
pero esta vez tenía una longitud de 22 bits: 14 para la mantisa , 7 para el exponente y
uno para el signo. Todos los números en coma flotante solían ser almacenados de una
manera normalizada, en la cual la mantisa era trasladada a la izquierda hasta que el
número de más a la izquierda fuera 1, el exponente se ajustaba de acuerdo a
esto. Zuse se dio cuenta de que esto no era realmente necesario si tenías presente que en
todos los números, la mantisa se desplazaba siempre hacia la izquierda y la unidad
aritmética le añadía el uno perdido, en todos los casos excepto en el 0. Esta técnica se
usa aún hoy en día y data de 1941.
Al igual que sus anteriores máquinas, la unidad aritmética consistía en dos piezas
separadas, una para el exponente y otra para la mantisa, pudiendo operar en paralelo.
Esta unidad no sólo tenía la circuitería para realizar las 4 operaciones esenciales, sino
que incluía también ayudas para calcular raíces cuadradas y una serie de instrucciones
en la misma máquina para realizar multiplicaciones por -1;0.1;0.5;2 o 10.
El Z-3 superaba en velocidad al Harvard Mark I (del cual hablaremos en la primera
generación) aunque este último fue terminado alrededor de dos años y medio después.
El Z-3 podía hacer 3 o 4 sumas y multiplicar 2 números al mismo tiempo en 4 o 5
segundos.
Lo que le da más mérito es el hecho de que Zuse lo hiciera todo desde sus propios
principios e ideas, porque la guerra que se llevaba a cabo en esos momentos, impidió
que pudiera conocer cualquier tipo de estudio anterior al suyo o que conociera incluso
las ideas de Babbage. Y de esta forma consiguió construir la primera máquina
calculadora con total control de sus operaciones, el Z-3.
El Z-4
El DVL siempre había considerado al Z-3 como un mero prototipo, entonces, cuando
éste fue completado Zuse comenzó a trabajar con el Z-4 . Básicamente era la misma
máquina que el Z-3 pero con una longitud de palabra de 32 bits.
Estaba casi terminado cuando volvieron a empezar los ataques aéreos, entonces fue
trasladado a Göttingen donde se instaló en un laboratorio de la Aerodynamische
Versuchsanstalt. Esto fue durante poco tiempo porque hubo que volver a trasladarlo esta
vez a Babaria, donde Zuse escondió el Z-4 en una pequeña casa de Hinterstein, justo
antes de que fuera capturado por las tropas norteafricanas de la armada francesa.
El equipo de 12 personas que trabajaba con Zuse fue disuelto. Zuse y su colaborador
Wernher von Braun fueron capturados en el escondite por las tropas americanas y
fueron llevados para ser interrogados por un ejecutivo de la British Tabulating Machine
Co. Ninguno de los dos hablaban bien otra lengua que no fuera la suya. Entonces Zuse
convenció al hombre de que no estaba haciendo nada importante, y el hombre no les
consideró una amenaza.
Se sacó la máquina de su escondite y fue trasladada a Suiza donde se montó en el
Federal Polytechnical Institute en 1950 en Zurich, añadiéndole más posibilidades de
control, entre ellas una instrucción de salto condicional. Cuando fue expuesta en el ETH
la máquina todavía retenía su memoria mecánica, y podía almacenar 1000 palabras en
un mecanismo de menos de un metro cúbico. En 1953 éste era el único ordenador que
seguía funcionando en Europa y uno de los pocos de todo el mundo. Fue usado por el
Institute of Applied Mathematics y en el ETH hasta el 55, cuando fue movido hasta el
French Aerodynamic Research Institution, donde continuó hasta 1960.
Para terminar, destaquemos que el controlador de la cinta siempre leía dos pasos por
delante de la instrucción que se estaba ejecutando en dicho momento, lo que permitió
que a la máquina se le implementaran técnicas para aumentar la velocidad como éstas:
 Ésas dos instrucciones siguientes se podían ejecutar en orden inverso, siempre
que ello no afectara al cálculo, lo cual podía aumentar la velocidad de la
máquina, porque esto hacía posible la lectura de los resultados intermedios.
 Dos operaciones de memoria se podían ejecutar antes de tiempo de manera que
la menor velocidad de la memoria mecánica no disminuyera el rendimiento de la
máquina.
 Se hizo posible que la unidad de control guardase un número que luego podría
ser requerido por alguna de esas siguientes dos instrucciones.

2.3.4. Jonh Vincent Atanasoff (1903 - 1995)


Era un físico estadounidense, que daba clases en la universidad del estado de Iowa,
donde empezó haciendo un sencillo sistema de cálculo por medio de tubos de vacío.

Figura 19: John Vincent Atanasoff.


Aficionado a la electrónica y conocedor de la máquina de Pascal y de las teorías
de Babbage, empezó a considerar la posibilidad de construir una calculadora digital.
Decidió que la máquina operaría en sistema binario, haciendo los cálculos de modo
distinto a como los realizaban las calculadoras mecánicas; e incluso concibió un
dispositivo de memoria mediante almacenamiento de carga eléctrica.
Solicitó ayuda económica al Consejo de Investigación de Iowa, y tras ser concedida
contrató la colaboración de Clifford Berry, para crear el llamado Atanasoff Berry
Computer (ABC) (véase Figura 20).

Figura 20: La Atanasoff Berry Computer.


Se podría decir que es el primer ordenador electrónico digital. Podía realizar ecuaciones
lineales y funcionaba mediante 45 válvulas de vacío; pero nunca fue totalmente
operativo debido a que Atanasoff fue llamado por el ejército para ingresar en la Naval
Ordenance Laboratory en Washington, ya que estaban en la 2ª Guerra Mundial.
Atanasoff conoció a John Mauchly (del cual hablaremos más detalladamente en
la primera generación) en la AAAS (American Association for the Advancement of
Science), y tuvieron un intercambio de ideas que mucho después desembocaría en una
disputa sobre la paternidad del ordenador digital. Ambos se habían encontrado con los
mismos problemas en cuanto a velocidad de cálculo y estaban seguros que había una
forma de acelerar el cálculo por medios electrónicos.

3. Los ordenadores electrónicos digitales


[Menendez98][Giles_][Laredo00][Salcedo98]
En este punto vamos a ver, generación tras generación, cómo fueron evolucionando los
ordenadores electrónicos, hasta llegar a los PC actuales. Quizá los cambios más bruscos
que se hicieron fue en el paso de la primera a la segunda, y en el de la segunda a la
tercera con la aparición de los circuitos integrados; a partir de aquí ya no hay un cambio
brusco en la tecnología, sino que se van mejorando y perfeccionando lo componentes
del ordenador. Con esto no quito importancia a la cuarta y a la quinta generación, ya que
fueron tan importantes como el resto de la historia de la informática, llegándose a un
punto impensable un siglo atrás.
Tabla 2: Características de cada generación.
GENERACIONES Características
1ra Generación Tubos al Vacio 1,000 Calculaciones por segundo
2nd Generación Transistores 10,000 Calculaciones por segundo
3ra Generación Circuitos Integrados 1,000,000 Calculaciones por segundo
4ta Generación Microprocesadores (chips) 10,000,000 Calculaciones por segundo
5ta Generación Pentium Microprocesador 112,000,000 Calculaciones por segundo
Fuente: Historia de las Computadoras
http://coqui.metro.inter.edu/cedu6320/yvazquez/histweb2.htm

3.1. Primera Generación: Válvulas de vacío (1945-1955)


[Desc_a]
La sustitución de los relés por Tubos de vacío (véase Figura 21) dio lugar a la primera
generación de ordenadores electrónicos.

Figura 21: Tubos de vacío.


El principal estímulo para desarrollar computadoras electrónicas estuvo en la segunda
guerra mundial. Los submarinos alemanes, que destruían a la flota inglesa, se
comunicaban por radio con sus almirantes en Berlín. Los británicos podían captar las
señales de radio, pero los mensajes estaban encriptados usando un dispositivo llamado
ENIGMA. La inteligencia británica había podido obtener una máquina ENIGMA
robada a los alemanes, pero para quebrar los códigos era necesaria una gran cantidad de
cálculo, que debía hacerse a alta velocidad.
Para descodificar estos mensajes, el gobierno británico construyó un laboratorio para
construir una computadora, llamada COLOSSUS. Alan Turing, T. Flowers y M.
Newman construyeron esta computadora (1943), que fue la primera computadora
electrónica de la historia. .Realizaba una amplia gama de cálculos y procesos de datos y
supuso el comienzo del cálculo electrónico Estaba construida con válvulas de vacío y no
tenía dispositivos electromecánicos. A pesar de ello, al ser un secreto militar, su
construcción no tuvo ninguna influencia posterior.
En EE.UU., simultáneamente, había interés de la armada para obtener tablas que
pudieran usarse para mejorar la precisión en los disparos de artillería pesada (en
particular para armas antiaéreas), ya que hacerlos manualmente era tedioso y
frecuentemente con errores.
En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P.
Eckert obtienen un subsidio de la armada para construir una computadora electrónica,
que llamaron Electronic Numerical Integrator and Computer (ENIAC), primera
computadora electrónica.
John Mauchly propuso construir una computadora electrónica digital para reemplazar
al analizador diferencial, dando dos ventajas principales: la velocidad de la electrónica,
y la precisión del principio digital. Se construyó en la Universidad de Pensilvania con el
propósito de calcular tablas de artillería. La computadora consistía de 18000 válvulas de
vacío y 1500 relés. Consumía 140 KW/h y pesaba 30 toneladas. Tenía que ser
programada manualmente mediante clavijas.
Su hardware electrónico era 10 veces más rápidos que los del analizador diferencial y
100 veces más rápido que un calculista humano: podía hacer 5000 sumas por segundo.
La computadora era programada por completo usando una técnica similar a los tableros
de enchufes de las antiguas máquinas de calcular (encendiendo y apagando llaves y
enchufando y desenchufando cables). Esta computadora no era binaria, sino decimal:
los números se representaban en forma decimal, y la aritmética se hacía en el sistema
decimal. Tenía 20 registros que podían usarse como un acumulador, cada uno de los
cuales almacenaba números decimales de 10 dígitos.
Después de que la ENIAC estuviese operativa, se vio que tomaba tiempo considerable
en preparar un programa e incorporarlo en el cableado; con lo que máquina se modificó,
de tal forma que una secuencia de instrucciones pudiera leerse como una secuencia de
números de dos dígitos que se ponían en una tabla de funciones. Para mantener la lógica
simple, un solo registro quedó de acumulador, y los demás fueron usados como
memoria.
El profesor Howard H. Aiken, de la Universidad de Harvard, trabajó en IBM para
construir la Mark I (véase Fifuran 22- [Alvarez98]), también llamada calculadora
automática de secuencia controlada, que entró en funcionamiento en 1944. Los cálculos
se controlaban por cinta de papel perforada, con una serie de interruptores accionados
manualmente y por paneles de control con conexiones especiales.

Figura 22: La Mark I.


En 1944 también, prácticamente todas las máquinas de Zuse fueron destruidas por el
bombardeo de los aliados a Berlín. La computadora Z-4, que entró en operación en
1945, sobrevivió al bombardeo y ayudó al desarrollo de posguerra de computadoras
científicas en Alemania.
En este mismo año, John Von Neumann (véase Figura 23) introduce el concepto de
programa almacenado. Una de las cosas que le molestaba de las computadoras era que
su programación con llaves y cables era lenta, tediosa e inflexible. Propuso que los
programas se almacenaran de forma digital en la memoria de la computadora, junto con
los datos. Por otro lado, se dio cuenta que la aritmética decimal usada por
la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una prendida
y 9 apagadas -) podía reemplazarse usando aritmética binaria. Este diseño, conocido
como Arquitectura de Von Neumann, ha sido la base para casi todas las
computadoras digitales.

Figura 23: John Von Neumann.


En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC,
llamada EDVAC (Electronic Discrete Variable Automatic Computer). También en este
año, Aiken comienza a construir la Mark II. En el mismo año, trabajando con un
prototipo de la Mark II, Grace Murray Hopper encuentra el primer "bug": una polilla
que provocó un fallo en un relé.
En 1946, la ENIAC (véase Figura 24) estaba operativa, funcionando en la Universidad
de Pennsylvania. A pesar de que no pudo ser usada para su propósito original de
cálculos de balística, la finalización de la ENIAC provocó una explosión de interés del
desarrollo de computadoras electrónicas.

Figura 24: La ENIAC.


Luego que la guerra terminó, comenzó una nueva era para la computación científica.
Los recursos dedicados a la guerra fueron liberados y dedicados a la ciencia básica. En
particular, el departamento de Marina y la Comisión de Energía Atómica de los EE.UU.
decidieron continuar soportando el desarrollo de computadoras. Las principales
aplicaciones eran la predicción numérica del tiempo, la mecánica de fluidos, la aviónica,
el estudio de resistencia de los barcos a las olas, el estudio de partículas, la energía
nuclear, el modelado de automóviles, etc.
En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el
tambor magnético, un dispositivo de acceso aleatorio que puede usarse como
almacenamiento para computadoras. En este mismo año William Shockley, John
Bardeen y Walter Brattain, de los laboratorios Bell, inventaron la resistencia de
transferencia (transfer resistor), comúnmente conocida como Transistor. El concepto
estuvo basado en el hecho de que el flujo de electricidad a través de un sólido (como el
silicio) puede controlarse agregándose impurezas con las configuraciones electrónicas
adecuadas. Lasválvulas de vacío requieren cables, platos de metal, una cápsula de
vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.
En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En
el mismo año, entra en operación laManchester Mark I, la primera computadora de
programa almacenado. Fue diseñada por F. C. Williams y T. Kilburn en la Universidad
de Manchester, y era un modelo experimental para probar una memoria basada en
válvulas de vacío.
En 1949, Jay Forrester construye la computadora Whirlwind en el MIT. Contenía 5000
válvulas, palabras de 16 bits, y estaba específicamente diseñada para controlar
dispositivos en tiempo real.
En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo
operativa en Cambridge. Era una computadora de programa almacenado, que fue
diseñada por Maurice Wilkes. Esta fue propuesta especialmente para resolver problemas
reales, y pudo resolver variedad de cálculos. Su primer programa (una tabla de raíces
cuadradas) lo ejecutó el 6 de Mayo de 1949, y siguió operando hasta 1958. La EDSAC
tenía 512 palabras de 17 bits. Su diseño era bastante útil para el usuario. Un botón de
inicio activaba un uniselector que cargaba un programa que estaba cableado a la
Memoria, y este programa cargaba programas que estaban escritos en cinta de papel en
la memoria, y se comenzaba a ejecutar. En esta época los cálculos se hacían bit por bit.
En 1949, el laboratorio de Los Alamos, se empieza a construir la
computadora MANIAC I, que se terminó en Marzo de 1952. Esta computadora tenía un
tambor auxiliar de 10.000 palabras de 40 bits en paralelo, y la unidad de entrada/salida
tenía una cinta de papel de 5 canales, un drive de cinta de un solo canal, y también una
impresora de línea.
Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que
sería el primer lenguaje de programación de alto nivel.
En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se
transformaría más adelante en la Unisys Corporation) compra la Eckert-Mauchly
Computer Corporation.
En 1951, Jay Forrester presenta, dentro del proyecto Whirlwind, una memoria no
volátil: la memoria de núcleos, que sería ampliamente difundida.
La primera UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento
en la Oficina de Censos. Esta computadora pasó a ser la número uno en el mercado
comercial. La UNIVAC I (véase Figura 25) fue diseñada y construida en Filadelfia por
Eckerd and Mauchly Computer Company, fundada por los creadores de la ENIAC. Esta
computadora utilizaba tubos de vacío.

Figura 25: La UIVAC I.


En el mismo año, Grace Murray Hopper construye el primer compilador, llamado A-0.
También en este año, Maurice Wilkes origina el concepto de microprogramación, una
técnica que provee una aproximación ordenada para diseñar la unidad de control de una
computadora.
En 1952, Von Neumann , junto con Herman Goldstine, terminan de construir, en el
Instituto de Estudios Avanzados de Princeton (IAS - Institute of Advanced Studies) la
computadora IAS. Esta computadora también fue construida con el concepto de
programa almacenado, y tenía otras características importantes. Por un lado, el diseño
general de la máquina era el siguiente:
 Tenía un almacenamiento, la memoria. La memoria almacena datos e
instrucciones, y consistía de 4096 palabras de 40 bits. Cada palabra contenía dos
instrucciones de 20 bits, o un entero con 39 bits y signo. Las instrucciones
usaban 8 bits para el tipo de instrucciones, y 12 bits para especificar direcciones
de memoria
 Una Unidad Aritmético/Lógica, que ejecutaba las operaciones básicas, y
contenía un registro acumulador de 40 bits (que también se usaba para
entrada/salida). Las operaciones se hacían sobre datos binarios, y las hacía
usando lógica bit-paralel.
 Una Unidad de Control de Programas, que interpretaba las instrucciones en
memoria, y hacía que se ejecutasen, es decir, siguía el flujo del programa y
finalmente hacía que se ejecute.
 El equipamiento de Entrada/Salida, operado por la Unidad de Control. La
salida de datos se hacía a través del registro acumulador
En 1952 también, se pone operativa la EDVAC, así como la ILLIAC I (de la
Universidad de Illinois) y la ORDVAC (construida por la armada): Todas usan la
arquitectura de Von Neumann. La ILLIAC (una copia mejorada de la ORDVAC) tenía
1024 palabras de 40 bits. En estas máquinas una suma tardaba nos 72 microsegundos,
mientras que las multiplicaciones de punto fijo tenían un promedio de unos 700
microsegundos.
Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía
que producía perforadoras de tarjetas y ordenadoras mecánicas de tarjetas. IBM no se
interesó en producir computadoras, hasta que en 1952 produjo la IBM 701. Esta
computadora tenía 2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la
primera de una serie de computadoras científicas que dominaron la industria en la
década siguiente. En 1953, la IBM 650 sale a la venta, y fue la primera computadora
fabricada en serie. En 1955 apareció la IBM 704, que tenía 4K de memoria y hardware
de punto flotante.

3.2. Segunda Generación: Transistores (1955-1965)


El invento del transistor (véase Figura 26) hizo posible una nueva generación de
computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. El
transistor requería menos energía que las válvulas termiónicas y además era mucho más
seguro y fiable .

Figura 26: Transistores.


La primera computadora puramente basada en transistores fue la TX-0 (Transitorized
experimental computer 0), en el MIT. Esta fue un dispositivo usado para probar la TX-
2. Uno de los ingenieros trabajando en este laboratorio, Kenneth Olsen, abandonó el
laboratorio para formar la compañía DEC (Digital Equipment Company).
En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer
computadora comercial UNIVAC 2puramente basada en transistores.
En 1957 la EDSAC 2 estuvo operativa. Era una computadora con 1024 palabras de 40
bits, con dos órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba
núcleos de ferrita. La ALU era bit-sliced. Se incluyeron operaciones de punto flotante
para hacer los cálculos más simples, que usaba una fracción de 32 bits y un exponente
de 8 bits. La computadora era microprogramada, con una ROM 768 palabras. La ROM
permitía que diversas subrutinas útiles (seno, coseno, logaritmos, exponenciales)
estuvieran siempre disponibles. La memoria fija incluía un ensamblador y un conjunto
de subrutinas de impresión que permitían hacer entrada/salida.
Los microprogramas permitieron que las órdenes pudieran ser diseñadas
cuidadosamente, menos dependientes de accidentes del hardware. La computadora
ejecutaba una instrucción simple en unos 20 microsegundos, y una multiplicación
precisaba 250 microsegundos. La lectora de papel leía 1000 caracteres por segundo, y la
perforadora perforaba 300 caracteres por segundo. La salida se seguía imprimiendo en
una telelimpresora.
En el mismo año, la computadora ERMETH se construyó en el ETH en Zurich. Tenía
palabras de 16 dígitos decimales, cada uno de los cuales contenía dos instrucciones y un
número de punto fijo de 14 dígitos o un número de punto flotante con una mantisa de 11
dígitos. Una suma de punto flotante tomaba 4 milisegundos; una multiplicación, 18
milisegundos. Tenía un tambor magnético que podía almacenar 1000 palabras. La
máquina tenía unos 1900 válvulas de vacío y unos 7000 diodos de germanio.
También en 1957, John Backus y sus colegas en IBM produjeron el primer
compilador FORTRAN (FORmula TRANslator). En 1958 se funda la compañía
Digital, como fue mencionado principalmente. Inicialmente la DEC sólo vendía
plaquetas con pequeños circuitos. En el mismo año, se producen los primeros circuitos
integrados basados en semiconductores (en las compañías Fairchild y Texas
Instruments), y también el proyecto Whirlwind se extiende para producir un sistema de
control de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos
(CODASYL - Commitee On Data Systems Language) para crear el lenguaje COBOL
(Common Business Oriented Language), y John Mc. Carthy desarrolla el Lisp (List
Processing) para aplicaciones de inteligencia artificial.
El ordenador PDP-1 (véase Figura 27) de Digital Equipment Corporation, basado en el
transistor, se presentó en Estados Unidos en 1960. Esta computadora fue diseñada
tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía
un tiempo de ciclo del procesador de aproximadamente 5 microsegundos. Fue la
primera máquina con monitor y teclado, dando paso a lo que conocemos como
minicomputadoras.

Figura 27: El PDP-1.


En 1961, Fernando Corbató en el MIT desarrolla una forma que múltiples usuarios
puedan compartir el tiempo del procesador. También se patenta el primer robot
industrial. En 1962, Steve Russell del M.I.T. crea el Spacewar (el primer vídeo juego).
En 1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se pudieron
lograr muchos avances en la industria de la computadora.
En 1964, aparece el primer modelo de la computadora IBM 360. IBM había construido
una versión con transistores de la 709, llamada IBM 7090, y posteriormente la 7094.
Esta tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas
computadoras dominaron la computación científica en los '60s. IBM también vendía
una computadora orientada a negocios llamada IBM 1401. Esta podía leer cintas
magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de
longitud fija. Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un carácter de 6
bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de
movimiento de memoria a memoria movía datos de la fuente al destino hasta que
encontraba el bit de fin de palabra prendido.
Un problema importante que surgió era la incompatibilidad de las computadoras; era
imposible compartir el software, y de hecho era necesario tener dos centros de cómputos
separados con personal especializado. Este problema termina con la aparición de
la IBM System/360 (véase Figura 28) que era una familia de computadoras con el
mismo lenguaje de máquina, y con mayor potencia.

Figura 28: IBM System 360.


El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el
único problema era que, al aportar un programa de una versión poderosa a una versión
anterior, el programa podía no caber en memoria). Todas las IBM system 360 tenían
soporte para multiprogramación. También existían emuladores de otras computadoras,
para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados.
Tenía un espacio de direcciones de 16 megabytes.
En este año se pone en operaciones la computadora CDC 6600 de la Control Data
Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una
velocidad de 9 Mflops. (es decir, un orden de magnitud más que la IBM 7094), y es la
primer supercomputadora comercial. El secreto de su velocidad es que era una
computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas,
otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en
paralelo (podía haber hasta 10 instrucciones ejecutando a la vez). En este mismo año,
Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el
lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code).
En 1965, la DEC fabrica la PDP-8, que fue la primer minicomputadora con transistores
en módulos de circuitos integrados. Esta tenía un único bus (o sea, un conjunto de
cables paralelos para conectar los componentes de la computadora, en lugar de las líneas
multiplexadas de las computadoras de Von Neumann tradicionales).
3.3. Tercera Generación: Circuitos Integrados (1964-1980)
[Desc_a]
La tercera generación de computadoras emergió con el desarrollo de circuitos
integrados (véase figura 29) (pastillas de silicio) en las que se colocan miles de
componentes electrónicos en una integración en miniatura. Las computadoras
nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran
energéticamente más eficientes.

Figura 29: Circuitos integrados.


La invención del circuito integrado reveló el potencial para extender el coste y los
beneficios de operación de los transistores a todos los circuitos producidos en masa. La
invención del circuito integrado permitió que docenas de transistores se pusieran en el
mismo chip.
Este empaquetamiento permitió construir computadoras más pequeñas, rápidas y baratas
que sus predecesores con transistores. Las primeras versiones de la IBM 360 eran
transistorizadas, pero las versiones posteriores no solo eran más rápidas y poderosas,
sino que fueron construidas en base a circuitos integrados. El ordenador IBM-
360 dominó las ventas de la tercera generación de ordenadores desde su presentación en
1965.
En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito
integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de
semiconductores. Dijo que los fabricantes habían duplicado la densidad de los
componentes por circuito integrado a intervalos regulares (un año), y que seguirían
haciéndolo mientras el ojo humano pudiera ver.
En 1967, Fairchild introduce un chip que contenía una ALU de 8 bits: el 3800. En 1968,
Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un
principio se dedica a fabricar chips de memoria. En este mismo año, la computadora
CDC 7600 logra la velocidad de 40 Mflops..
En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con
el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos
(en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar
RS-232C para facilitar el intercambio entre computadoras y periféricos.
En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a
usarse la tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados
más pequeños y baratos. En 1971, Intel lanza el microprocesador de 4 bits 4004 (véase
Figura 30), el primer microprocesador en un solo chip. Tenía una potencia similar al
ENIAC, con un coste bajo (200 dólares) y ocupa muy poco (12 mm2).
Figura 30: El Microprocesador 4004.
Ya en 1972, Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado
por el 8080, debido al límite de memoria de 16k impuesto por los pins en el chip).
En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration)
permiten poner 10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año,
John Metcalfe propone el protocolo Ethernet para comunicación en redes locales. En
1975, la primer computadora personal, la Altair 8800, aparece en la revista Popular
Electronics, explicando cómo construirla. También en ese año, IBM introduce la
primera impresora láser.
En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que
consiste principalmente de un tablero de circuitos. IBM introduce las impresoras a
chorro de tinta en ese mismo año, y Cray Research introduce la Cray 1, una
supercomputadora con una arquitectura vectorial. También Intel produce el 8085, un
8080 modificado con algunas características extra de entrada/salida. Poco más tarde,
Motorola introduce el procesador 6800, que era una computadora de 8 bits comparable
al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el
6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits.
En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es
anunciada públicamente. En 1978, Intel desarrolla el 8088 y el 8086, con la posibilidad
de multiplicar y dividir. Son prácticamente iguales, pero el bus del 8088 es de 8 bits,
mientras que el del 8086 es de 16 bits. En este año DEC introduce la VAX 11/780, una
computadora de 32 bits que se hizo popular para aplicaciones técnicas y científicas. En
1979, Motorola introduce el procesador 68000 que sería más adelante el soporte para las
computadoras Macintosh, Atari, Amiga y otras computadoras populares. Este
procesador no era compatible con el 6800 o el 6809. Es un híbrido entre arquitecturas de
16 y 32 bits, y puede direccionar 16 Mb de memoria. De aquí en más los procesadores
680x0 siguen siendo muy similares desde el punto de vista del programador, con pocas
instrucciones agregadas en cada versión nueva. También en este año aparecen los
videodiscos digitales.
3.4. Cuarta generación de computadoras (1980-1990)
En 1980 se produce la primera computadora portable: la Osborne 1. David Patterson,
en la UC. Berkeley, introduce el concepto de RISC, y junto con John Hennessy, de
Stanford, desarrollan el concepto.
En 1981 se lanza la computadora de arquitectura abierta IBM-PC (véase figura 31), y
un año más tarde se produce el primer "clon" de esta computadora.

Figura 31: El IMB-PC.


Un joven americano obtuvo como resultado de grandes trabajos un sistema operativo
compatible con el de IBM. Lo llamó DOS, siglas de Disk Operative System, porque
además, entraba en un solo disquette.
Ese joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo
de software, y marca el rumbo al mercado informático; se llama Bill Gates y su
empresa, Microsoft. Las computadoras fabricadas por terceros, es decir, no por IBM, se
extendieron rápidamente, su costo era hasta tres veces menores que la original del
gigante azul, y por supuesto, el sistema operativo era el DOS de Bill Gates.
En la jerga, se comenzó a llamar a los PC'S, clones, o sea copias. IBM perdió el control
muy pronto. El rumbo de la tecnología era marcado ahora por la empresa INTEL, que
fabricaba los microprocesadores, lanzando uno nuevo aproximadamente cada año. De
inmediato Bill Gates con su flamante empresa Microsoft, desarrollaba programas para
aprovechar al máximo las capacidades de éste.
Los microprocesadores de una o varias pastillas fueron incorporados rápidamente en
varios dispositivos: instrumentos científicos de medida, balanzas, equipos de alta
fidelidad, cajas registradoras y electrónica aeronáutica. Muchas familias comenzaron a
tener computadoras en sus casas, como por ejemplo las Texas Instrument
99/4ª, Commodore 64 y 128,Spectrum.

3.5. Quinta Generación (1990-2000)


Microsoft pasó a desarrollar software que exigía demasiado a los procesadores de
INTEL, por lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos
modelos. Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan
quebrar el liderazgo INTEL-Microsoft, y lanzan el Power PC, un procesador que
prometía hacer estragos, pero solo lo utilizan APPLE en sus computadoras personales e
IBM en su línea de servidores AS400.
Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas
circunstancias impulsaron a INTEL a crear un procesador distinto. Los anteriores eran
continuas mejoras al 286 más poderoso (386,486); así, en 1992, Intel anunció que la
quinta generación de su línea de procesadores compatibles (cuyo código interno era el
P5) llevaría el nombre Pentiumen vez de 80586.
Este microprocesador se presentó en 1993 con velocidades iniciales de 60 y 66 MHz,
3.100.000 transistores (fabricado con el proceso BICMOS, de 0,8 micrones), caché
interno de 8 KB para datos y 8 KB para instrucciones, verificación interna de paridad
para asegurar la ejecución correcta de las instrucciones, una unidad de punto flotante
mejorada, bus de datos de 64 bit para una comunicación más rápida con la memoria
externa y, lo más importante, permite la ejecución de dos instrucciones
simultáneamente. El chip se empaqueta en formato PGA (Pin Grid Array) de 273 pines.
En el Pentium, la unidad de punto flotante es una prioridad para Intel, ya que debe
competir en el mercado de Windows NT con los procesadores RISC tales como el chip
Alpha 21064 de Digital Equipment Corporation y el MIPS R4000 de Silicon Graphics.
Tiene un gran aumento en el consumo de energía, lo que hace que el chip se caliente
demasiado y los fabricantes de tarjetas madres (motherboards) tengan que agregar
complicados sistemas de refrigeración.
Intel puso en el mercado en 1994 la segunda generación de procesadores Pentium (90 y
100 MHz con tecnología de 0,6 micrones y, posteriormente se agregaron las versiones
de 120, 133, 150, 166 y 200 MHz con tecnología de 0,35 micrones). Esto redujo
drásticamente el consumo de electricidad.
En octubre de 1994, un matemático reportó en Internet que la Pentium tenía un error
que se presentaba cuando se usaba la unidad de punto flotante para hacer divisiones
(instrucción FDIV) con determinadas combinaciones de números. Por ejemplo:
 962 306 957 033 / 11 010 046 = 87 402,6282027341 (respuesta correcta)
 962 306 957 033 / 11 010 046 = 87 399,5805831329 (Pentium fallada)
El defecto se propagó rápidamente y al poco tiempo el problema era conocido por gente
que ni siquiera tenía computadora, problema que posteriormente, los Pentium con
velocidades más elevadas, no poseían este problema.
En 1997 apareció una tercera generación de Pentium, que incorpora lo que Intel llama
tecnología MMX (MultiMedia eXtensions). Digamos que, por culpa de Internet, INTEL
creó el MMX. En realidad es un Pentium con mejoras que optimizan la ejecución de
vídeo y sonido multimedia en la PC.
Finalmente nacen los modelos Pentium Pro, Pentium II y Pentium III, llegando de esta
forma a la actualidad. Hoy en día encontramos a la venta el Pentium III a unos 700
MHz; pero ya existen procesadores a más de 1000 Mhz.

Figura 32: Ejemplo de un PC actual.

4. Descripción de los procesadores


[Avila00]
En este punto haremos un comentario sobre las características de los procesadores.
Empezaremos con INTEL, quizá la marca más famosa, desde el 8086 hasta el Pentium
III; y luego veremos otros fabriacantes, no menos importantes, como puedan
ser AMD o Cyrix.

4. 1.Características a tener en cuenta en un procesador


Velocidad de reloj: Se mide en MHz. Mide los "ticks" de sincronía por segundo.
Ancho de palabra: Cantidad de bits que se procesan simultáneamente.
Coprocesador: Procesador especializado en determinadas tareas. Muchas veces se
utiliza un procesador matemático.
Caché: Memoria de rápido acceso para aumentar el rendimiento. Guarda las posiciones
accedidas recientemente con la esperanza de que se vuelvan a utilizar en poco tiempo.
Pipeline: Técnica de ejecución de las instrucciones consistente en dividirlas en distintas
fases, de manera similar a las cadenas de fabricación en serie.
Predicción de salto: Técnica para mantener la "pipeline" llena intentando averiguar
"qué viene después".
Ejecución desordenada: Técnica por la que se ejecutan las instrucciones en un orden
que permita obtener mayor velocidad y que no siempre coincide con el orden en que
fueron escritas.
Ejecución especulativa: Técnica que se emplea para ejecutar instrucciones aunque no
se tenga la seguridad de que su resultado sea útil.

4.2. Los procesadores INTEL


4.2.1. INICIOS, EL 8086/8088
Los procesadores 8088 y 8086 fueron los primeros empleados en los PC.
Sus principales características son:
 Palabra de 16 bits.
 Espacio de direcciones de 1Mb.
 Sin facilidades para multitarea ni gestión de memoria virtual.
 Velocidad de reloj de hasta 10MHz (el 8086). Las típicas eran de 4'77 y 8 MHz.
 Poseía el 8087 como procesador matemático.
 29.000 transistores.
 Eran diez veces más potentes que el 8080.

4.2.2. EL 80286
La siguiente generación fue la del 80286, empleado en el AT.
Sus principales características son:
 Palabra de 16 bits.
 Espacio de direcciones de 16 Mb físicos/1 Gb virtuales.
 Permite multitarea.
 Velocidad de reloj de 8 a 12 MHz.
 Poseía el 80287 como procesador matemático.
 134.000 transistores.

4.2.3. EL 80386
Supone un gran avance.
Características:
 Palabra de 32 bits.
 Espacio de direcciones de 4Gb físicos/64 Tb virtuales.
 Más apoyo a la multitarea que en el 80286. Permite tener varias "sesiones"
virtuales 8086.
 Mejores modos de acceso a memoria.
 Velocidad de reloj de 16 a 33 MHz.
 Dos versiones: DX y SX (más económica, aunque peor).
 Poseía el 80387 como procesador matemático.
 275.000 transistores.

4.2.4. EL 80486
Características
 Integra en un chip un 80386, un 80387 y una caché de primer nivel (caché L1).
 Utiliza una pipeline para aumentar el rendimiento.
 Velocidad de reloj de 25 a 50 MHz.
 Versiones:
o SX: sin el coprocesador.
o DX2: internamente duplican la velocidad de reloj.
o DX4: internamente triplican la velocidad de reloj.
 1'2 millones de transistores.
Si esto se compara a la arquitectura del 80386, no se observan diferencias. La diferencia
más notable entre el 80386 y el 80486, es que casi la mitad de las instrucciones del
80486 se ejecutarán en la mitad de periodos de reloj que el 80386 requiere para
ejecutarlas.
Al igual que el 80386, el 80486 contiene 8 registros de 32 bits para los propósitos
generales.
Además de los registros de propósito general, el 80486 también contiene los mismos
registros de segmentos que el 80386. Cada uno tiene 16 bits de ancho, como en todas
las versiones anteriores de la familia.
El 80486 también contiene los registros para la tabla de descriptores globales, locales y
de interrupciones y una unidad de manejo de memoria como el 80386.
 Sistema de Memoria del 80486: es idéntico al del microprocesador 80386. El
80486 contiene 4Gbytes de memoria, comenzando en la localidad 00000000H y
terminando en la localidad FFFFFFFFH. El cambio principal es interno: de
modo que en el 80486 se acelera la ejecución de las instrucciones y la
adquisición de información. Otra adición es el verificador / generador de paridad
incluido en el 80486.
 Verificador / generador de paridad: la paridad se usa para determinar si la
información se leyó correctamente en una localidad de la memoria. En el 80486
la paridad se genera durante cada ciclo de escritura. En la lectura, el
microprocesador revisa la paridad y genera un error de revisión de paridad, si
esto ocurre, en la terminal PCHK. Un error de paridad no causa ningún cambio
en el procesamiento a menos que el usuario aplique la señal PCHK a una entrada
de interrupción. Las interrupciones son usadas frecuentemente para señalar un
error de paridad en los sistemas de computadora que usan DOS.
 Administrador de memoria del 80486: contiene el mismo sistema de
administración de memoria que el 80386. Los tipos de descriptores también son
los mismos. En realidad, la única diferencia entre el sistema administrador de
memoria del 80386 y el del 80486 es la paginación. El sistema de paginación del
80486 puede deshabilitar el uso de memoria caché para selecciones de páginas
de memoria transformadas, mientras que el 80386 no.
 Unidad de caché: estos procesadores tienen un caché interno que almacena
8KB de instrucciones y datos, excepto el DX4 y el Write-back enhanced DX4
que tienen 16KB de caché interno. El caché aumenta el rendimiento del sistema
ya que las lecturas se realizan más rápido desde el caché que desde la memoria
externa. Esto también reduce el uso del bus externo por parte del procesador.
Éste es un caché de primer nivel (también llamado L1). Además, el procesador
80486 también puede usar un caché de segundo nivel (también llamado L2)
fuera del chip para aumentar aún más el rendimiento general del sistema. Si se
conoce el funcionamiento de las caché se puede llegar a optimizar el software.
El caché está disponible en todos los modos de funcionamiento del procesador:
modo real, modo protegido y modo de manejo del sistema.
Funcionamiento
El caché es una memoria especial, llamada memoria asociativa. Esta memoria tiene,
asociado a cada unidad de memoria, un tag, que almacena la dirección de memoria que
contiene los datos que están en la unidad de memoria. Para leer una posición de
memoria mediante esta memoria se comparan todos los tags con esta dirección. Si algún
tag tiene esta dirección, se dice que hubo un acierto, con lo que se puede leer la
información asociada a ese tag. En caso contrario hay un fallo, con lo que hay que
perder un ciclo de bus para leer el dato que está en memoria externa.
En el caso del 80486, cada unidad de memoria son 16 bytes. Esta cantidad es una línea
del caché. Las líneas pueden ser válidas (cuando contienen datos de la memoria
principal) o inválidas (cuando la línea no contiene información útil). Se debe tratar de
no leer posiciones de memoria aleatorias, ya que el caché se llena por líneas completas
(comenzando por direcciones múltiplos de 16),y si se llegan a leer bytes en posiciones
alejadas unas de otras, el procesador usará cuatro ciclos de bus para leer 16 bytes (para
llenar una línea) por cada byte que deseamos leer. Esto no supone un problema para el
código o la pila, ya que éstos se acceden generalmente de manera secuencial.
Hay dos clases de cachés: write-through y write-back (retroescritura) (implementado
solamente en los modelos write-back enhanced DX2 y write-back enhanced DX4). La
diferencia entre las dos radica en el momento de escritura. Las primeras siempre
escriben en la memoria principal, mientras que las otras sólo escriben cuando se llena el
caché y hay que desocupar una línea. Esto último aumenta el rendimiento del sistema.
Hay dos nuevos bits del registro de control que controlan el funcionamiento del caché:
CD (Cache Disable, bit 30) y NW (Not write-through, bit 29). Cuando CD = 1, el 80486
no leerá memoria externa si hay una copia en el caché, si NW = 1, el 80486 no escribirá
en la memoria externa si hay datos en el caché (sólo se escribirá en el caché). Lo
normal, cuando el caché está habilitado, es CD = NW = 0. Es interesante saber que si
CD = NW = 1 se puede utilizar el caché como una RAM rápida (no hay ciclos externos
de bus ni para lectura ni para escritura si hay acierto en el caché). Para deshabilitar
completamente el caché se deberá poner CD = NW = 1 y luego ejecutar una de las
instrucciones para vaciar el caché.
Existen dos instrucciones para vaciar el caché: INVD y WBINVD.
Versiones del 80486
1. 80486 DX:Fue presentado por Intel en abril de 1989. Poseía un total de
1.200.000 transistores, el doble de la velocidad del 80386 y 100% de
compatibilidad con los microprocesadores anteriores. El consumo máximo del
486DX de 50 MHz es de 5 watt.
2. 80486 SX: Apareció en abril de 1991. Era un producto de menor coste que el
anterior. Pero éste no poseía el coprocesador matemático que posee el 80486
DX. Y el número de transistores se reducía 1.185.000.
3. 80486 DX2: Apareció en marzo de 1992. Posee un duplicador de frecuencia
interno, con lo que las distintas funciones en el interior del chip se ejecutan al
doble de velocidad, manteniendo constante el tiempo de acceso a memoria. Esto
permite casi duplicar el rendimiento del microprocesador.
4. 80486 SL: Apareció en el mismo año que el anterior, con unas características
especiales de ahorro de energía.
5. 80486 DX4: Salió en 1994 y triplica la frecuencia de reloj y aumenta el tamaño
del caché interno a 16 Kbytes. La principal diferencia entre el 486DX4 y el
486DX2 es que el primero es 1'5 veces más rápido que el 486DX2.
El chip se empaqueta en el formato PGA (Pin Grid Array) de 168 pines en todas las
versiones. En el caso del SX, también existe el formato PQFP (Plastic Quad Flat Pack)
de 196 pines. Las frecuencias más utilizadas en estos microprocesadores son: SX: 25 y
33 MHz, DX: 33 y 50 MHz, DX2: 25/50 MHz y 33/66 MHz y DX4: 25/75 y 33/100
MHz. En los dos últimos modelos, la primera cifra indica la frecuencia del bus externo
y la segunda la del bus interno.
Respecto las nuevas instrucciones del 80486 tan sólo nombraremos las más interesantes:
BSWAP reg32 (Byte Swap), CMPXCHG dest src (Compare and Exchange), INVD
(Invalidate Cache), INVLPG (Invalidate Translation Look-Aside Buffer Entry),
WBINVD (Write Before Invalidate Data Cache), XADD dest, src (Exchange and Add).
Además de las citadas, todos los modelos, excepto el SX incluyen todas las
instrucciones del coprocesador matemático 80387.

4.2.5. EL PENTIUM
Características
 Introduce gran cantidad de mejoras, conservando la compatibilidad con los
modelos anteriores.
 Puede utilizar un bus de 64 bits para mejorar el acceso a memoria.
 Utiliza dos líneas en la pipeline. En el caso ideal puede ejecutar dos
instrucciones por ciclo de procesador.
 Duplica la caché del procesador y la separa en 8k para datos y 8k para
instrucciones.
 Utiliza técnicas de predicción de salto para mantener alimentada la pipeline.
 3'1 millones de transistores.
Vías de acceso múltiples
El los procesadores 386 y 486 se empezó a utilizar una técnica de vías de acceso
múltiples. Esto se ve mejorado en el Pentium, ya que éste posee doble vía de dicho
acceso. El objetivo es el de procesar múltiples instrucciones simultáneamente, en varios
estados de ejecución.
El resultado final de la estructura doble vía de acceso es un diseño capaz de ejecutar
más de una instrucción en un ciclo de reloj.
El Pentium, al igual que el 486, ejecuta instrucciones simples con enteros en un ciclo de
reloj. Sin embargo, aquellas instrucciones estaban en la etapa de ejecución de la vía de
acceso durante un ciclo de reloj. Siempre se requieren ciclos adicionales de reloj para
buscar, decodificar la instrucción y otros procesos vitales. La secuencia de
funcionamiento de la vía de datos es la siguiente: prebúsqueda, decodificación 1,
decodificación 2, ejecución y retroescritura.
En el caso óptimo, las instrucciones estarían alineadas en la vía de acceso de forma que,
en general, ésta ejecutará aproximadamente una instrucción por ciclo de reloj.
Los aspectos superescalares del Pentium dependen de su vía de acceso doble. Los
procesadores superescalares permiten que se ejecute más de una instrucción por vez. El
procesador tiene dos vías de acceso de enteros, una en forma de U y otra en forma de V,
y automáticamente aparea las instrucciones para incrementar la proporción de
instrucciones por ciclo de reloj para que sea mayor que 1. Si el tener múltiples
instrucciones pasando por dos vías no es ni mucho menos un problema, ya que hay
reglas y restricciones que evitan las colisiones y los retrasos.
Por ejemplo, los conflictos principales que tienen que ver con generar y ejecutar más de
una instrucción al mismo tiempo incluyen dependencias de información (la información
de salida de una instrucción se necesita como entrada de otra), dependencias de recursos
(instrucciones que fueron emitidas al mismo tiempo compiten por el mismo recurso del
microprocesador) o saltos en el código (llamadas dependencias de procedimiento).
Si se detectara una dependencia, el procesador reconoce que las instrucciones deben
fluir en orden y asegura que la primera instrucción termine su ejecución antes de
generar la segunda instrucción.
El orden en que viajan las instrucciones por las vías dobles del Pentium es el mismo que
el de las instrucciones en el programa que se ejecuta.
Las instrucciones de punto flotante pasan las vías de entero y son manipuladas desde la
vía de punto flotante en la etapa de ejecución. En definitiva, las vías de enteros y el de
punto flotante operan independiente y simultáneamente.
Ejecución de punto flotante en el Pentium
Se ha reconstruido por completo la unidad de punto flotante (FPU), a partir de la de los
386 y 486 y ahora tiene algunas de las características de los RISC. Hay ocho etapas de
vía y las cinco primeras se comparten con la unidad de enteros. La unidad cumple con la
norma IEEE-754, usa algoritmos más rápidos y aprovecha la arquitectura con vías para
lograr mejoras de rendimiento de entre 4 y 10 veces, dependiendo de la optimización
del compilador.
Ahorro de energía
El Pentium usa un modo de administración de sistema (SMM) similar al que usa el 486
SL, que permite que los ingenieros diseñen un sistema con bajo consumo. La
interrupción de administración del sistema activa el SMM por debajo del nivel del
sistema operativo o de la aplicación. Se guarda toda la información sobre el estado de
los registros para después restaurarla, y se ejecuta el código manejador de SMM desde
un espacio de direcciones totalmente separado, llamado RAM de administración del
sistema (SMRAM). Se sale del SMM ejecutando una instrucción especial (RSM). Esto
lleva al CPU de nuevo al mismo punto en que estaba cuando se llamó al SMM.
Algunos procesadores (100 MHz o más lentos) presentan problemas en este modo.
Respecto a las nuevas instrucciones introducidas en el microprocesador Pentium cabe
citar las siguientes: CMPXCHG8B reg, mem64 (Compare and Exchange 8 Bytes),
CPUID (CPU Identification), RDMSR (Read from Model-Specific Register), RDTSC
(Read from Time Stamp Counter), RSM (Resume from System Management Mode),
WRMSR (Write to Model-Specific Register).

4.2.6. EL PENTIUM PRO


Se concentra en el rendimiento de las aplicaciones de 32bits, llegando a ejecutar más
lentamente que el Pentium normal las de 16 bits. Algunas características son:
 Integra caché de segundo nivel en el propio chip. Tiene 256 o 512 Kb, según el
modelo, y va a la misma velocidad que el procesador.
 Velocidades de reloj de 150 a 200MHz.
 Permite la ejecución desordenada y especulativa de instrucciones.
 5'5 millones de transistores.

4.2.7. Los procesadores MMX


Surgió porque las aplicaciones actuales requieren el manejo de muchos gráficos a gran
velocidad, y además el manejo del sonido es cada vez más normal. En ambos casos se
procesa información en unidades de uno o dos bytes; pero el Pentium sólo puede
manejar hasta 64 bits.
La solución propuesta por Intel consiste en incorporar 57 nuevas instrucciones que
permitan manejar varios bytes al mismo tiempo.
Además, estos procesadores tienen otras características adicionales:
 Sus pines son compatibles con los normales.
 Aumentan la caché de primer a nivel a 32 K.
 Mejoran la predicción de saltos y la descodificación de instrucciones.
Hay varios tipos de procesadores MMX, de los cuales citaremos sólo dos:
 PERFORMANCE MMX:
Con una mayor cantidad de colores, imágenes mas nítidas, sonido estereofónico,
comunicaciones múltiples, sesiones más rápidas, etc.

PENTIUM MMX Y PENTIUM MMX OVERDRIVE


El procesador Pentium MMX posee una versión OverDrive para computadoras
cuyas tarjetas madres soportan un zócalo para el procesador tipo ZIF. Con ello
se pueden cambiar procesadores antiguos por procesadores MMX, obteniendo
una aceleración de hasta unas 1'6 veces más rápidos.

4.2.8. EL PENTIUM II
Características
 Conceptualmente es un Pentium Pro con la caché de nivel 2 fuera del chip y
con MMX.. Con el procesador Pentium II, se obtienen varios avances en la
familia de microprocesadores de Intel. La potencia del procesador Pentium Pro
más la riqueza en capacidad de la tecnología mejorada de medios MMX. El
procesador Pentium II trata bastante de facilitar las tareas a nivel de medios,
comunicaciones e Internet en el ámbito empresarial.
 Para mejorar el rendimiento, hay un bus directo desde el procesador a la caché
que va más rápido (a la mitad de velocidad del bus del procesador ) que el bus
general (tecnología DIB -dual independent bus-). Esto está empaquetado en un
cartucho, el SECC (simgle edge contact cartridge), que necesita un zócalo
especial (propiedad de Intel).
 Soporta altas velocidades (desde 266 hasta 450 MHz).
 Permite velocidades de bus de hasta 100 MHz.
 Tiene 7'5 millones de transistores.
 Opera a 233 MHz y 266 MHz para desktops y servidores y a 300 MHz para
estaciones de trabajo, el procesador utiliza la tecnología de alto desempeño Dual
Independent Bus (Bus Dual Independiente) para entregar un amplio ancho de
banda adecuado para su elevado poder de procesamiento. El diseño del cartucho
Single Edge Contact (S.E.C) [Contacto de un Solo Canto] incluye 512KB de
cache dedicada de nivel dos (L2). El procesador Pentium II también incluye
32KB de cache L1 (16K para datos, 16K para instrucciones), el doble de la del
Pentium Pro.
Características Técnicas
 Arquitectura Dual Independent Bus (Bus Dual Independiente): al igual que el
procesador Pentium Pro, el procesador Pentium II también usa la arquitectura
D.I.B. Ésta tecnología de alto desempeño combina ambos, un bus cache L2
dedicado de alta velocidad más un bus del sistema con anticipación que hace
posible múltiples transacciones simultáneas.
 La tecnología MMX de Intel permite al procesador Pentium II ofrecer un alto
rendimiento para aplicaciones de medios y comunicaciones.
 Ejecución dinámica: el procesador Pentium II usa esta combinación única de
técnicas de procesamiento, utilizadas por primera vez en el procesador Pentium
Pro, para acelerar el desempeño del software.
 Cartucho Single Edge Contact (S.E.C) [Contacto de un Solo Canto]: el nuevo e
innovador diseño de empaquetamiento de Intel para éste y los procesadores
futuros, el cartucho S.E.C. permite que todas las tecnologías de alto desempeño
de los procesadores Pentium II sean entregadas en los sistemas dominantes de
hoy en día.
El Procesador Pentium II trabajando
Las empresas pequeñas tanto como las grandes pueden beneficiarse del procesador
Pentium II. Éste entrega un gran desempeño disponible para las aplicaciones que se
ejecutan en sistemas operacionales avanzados tales como Windows 95, Windows NT y
UNIX.
Sobre su poder como procesador Pentium Pro, el procesador Pentium II aprovecha el
software diseñado para la tecnología MMX de Intel para desbordar la pantalla plena,
vídeo de movimiento total, colores más vivos, gráficas más rápidas y otras mejoras en
los medios. Con el tiempo, muchas aplicaciones para empresas se beneficiarán del
desempeño de la tecnología MMX. Éstas incluyen:
 Suites para oficina
 Lectura óptica de documentos
 Manejo de imágenes
 Video conferencia
 Edición y ejecución de vídeo
La tecnología MMX mejora la compresión/descompresión de vídeo, manipulación de
imágenes, criptografía y el procesamiento I/O ("Entrada/Salida").
Rendimiento en DOS
El Pentium II no es muy bueno en las aplicaciones del DOS con resoluciones bajas, sin
embargo el Pentium MMX tiene un mejor desempeño, y aunque el Pentium Pro no es
un procesador optimizado para aplicaciones de 16 bits también resulta mejor.
Pero actualmente es muy difícil encontrar programas que trabajen en dichas
resoluciones del DOS, la mayoría de software está disponible para 32 bits, es decir
Windows 95 y sistemas operativos superiores.
Rendimiento en WINDOWS 95.
Este procesador tiene un desempeño importante en todo lo que se refiere a operación
gráfica y multimedial, particularmente con código de 32 bits, sin embargo su
rendimiento no es destacable con código de 16 bits, contra su más directo opositor, el
Pentium MMX. Un punto a favor del Pentium II es su rendimiento de operación interna.
Rendimiento en WINDOWS NT.
Windows NT siempre ha sido del dominio del Pentium Pro. Parece que por un buen
tiempo más, el Pentium Pro no tendrá rivales en aplicaciones puras y nativas de 32 bits.
Rendimiento MMX
El Pentium II en aplicaciones usa intensivamente el conjunto de instrucciones MMX.
En puntos específicos como puede ser la velocidad de vídeo, el procesamiento de
imágenes, gráficos tridimensionales y audio el Pentium II está claramente mejorado. Es
importante destacar el rendimiento del Pentium MMX, que sigue demostrando una
capacidad mejorada gracias a la tecnología MMX. Desde ese punto de vista, ambos
procesadores son relativamente similares, no tanto en estructura, ya que el Pentium II se
asemeja estructuralmente más al Pentium Pro, pero si en el tamaño de los cachés y en el
rendimiento. Sin embargo, el Pentium II, en definitiva, debe ser mejor que el Pentium
MMX por su nueva estructura interna.
4.2.9. LOS CELERON
Intel ante la competencia del AMD K6 debido a su menor precio decidió sacar una
versión "reducida" del Pentium II: el Celeron.
Inicialmente, el Celeron era un Pentium II sin la caché de nivel 2, esto rebaja el precio,
pero también las prestaciones. Las velocidades del Celeron son de 266 y 300 MHz.
Sin embargo los nuevos Celeron tienes una caché de nivel 2, aunque más reducida que
la del Pentium II (128 Kb). Como ventaja, la caché trabaja a la misma velocidad que el
procesador (está integrada).
Los últimos modelos llegan a los 466 MHz.
4.2.10. LA GAMA XEON
Los Xeon son la gama alta de la familia Pentium (lo que antes era Pro).
Están destinados a servidores y estaciones de trabajo de altas prestaciones.
Características:
 Se pueden conectar hasta ocho en la misma placa.
 La caché de nivel 2 tiene la misma velocidad que el procesador y puede ser de
hasta 2 Mb.
 Se empaqueta en un nuevo cartucho que se coloca en un zócalo.

4.2.11. PENTIUM III


Introducción.
Es el último modelo de la familia Pentium.
Características:
 Incluye nuevas instrucciones SIMD (single instruction multiple data).
 También es el primer procesador Intel que tiene "número de serie" (para
identificar la máquina de una manera única).
 Sigue teniendo la caché a la mitad de la velocidad del procesador (excepto en la
gama Xeon).
 Admite velocidades de bus de hasta 133 MHz.
 Posee unos 9'5 millones de transistores.
El procesador
El procesador Intel Pentium III presenta varias funciones nuevas para un rendimiento,
productividad y capacidad de gestión máximos. Para los usuarios que interactúan con
Internet o que trabajan con aplicaciones multimedia con muchos datos, las innovaciones
más importantes son las extensiones "Streaming SIMD" del procesador Pentium III, 70
instrucciones nuevas que incrementan notablemente el rendimiento y las posibilidades
de las aplicaciones 3D, de tratamiento de imágenes, de vídeo, sonido y de
reconocimiento de la voz.
El procesador Intel Pentium III ofrece excelentes prestaciones para todo el software para
PC y es totalmente compatible con el software existente basado en la arquitectura Intel.
El procesador Pentium III a 500 y 450 MHz amplía aún más la potencia de proceso, ya
que deja un margen para una mayor exigencia de rendimiento para funciones de
Internet, comunicaciones y medios comerciales. El software diseñado para el procesador
Pentium III libera todas las posibilidades multimedia del procesador, incluido el vídeo
de pantalla completa y movimiento pleno, gráficos realistas y la posibilidad de disfrutar
al máximo de Internet. Los sistemas basados en el procesador Pentium III también
incluyen las últimas funciones para simplificar la gestión del sistema y reducir el coste
total de propiedad para entornos de empresas grandes y pequeñas.
Los microprocesadores actuales se utilizan para ejecutar una amplia gama de
aplicaciones de software. Y, sobre todo, últimamente, la utilización de aplicaciones
multimedia, 3D e Internet ha experimentado un tremendo auge en los últimos años y se
prevé que esta tendencia continúe en el futuro.
Se puede observar una mejora y un mayor rendimiento por parte del Pentium III en
aplicaciones multimedia o en 3D en comparación con procesadores como el PentiumII a
450Mhz.
Actualmente se intentan desarrollar aplicaciones de próxima generación para aumentar
el rendimiento del procesador Pentium III. Al actualizar los nuevos programas se intenta
que el rendimiento del PentiumIII con éstos sea el máximo.
Actualmente, la familia del procesador Intel Pentium III a llegado a sacar procesadores
de hasta 700MHz, e incluso ya se están planteando nuevas fechas para sacar de mayores
velocidades.
El procesador Intel Pentium III ofrece nuevos niveles de rendimiento y productividad
para las aplicaciones y sistemas operativos actuales más exigentes.

Figura 35: Procesador Pentium III

CARACTERÍSTICAS DEL PENTIUM III


Compatibilidades.
El procesador Pentium III es totalmente compatible con prácticamente todo el software
para PC basado en sistemas operativos tales como MS-DOS*, Windows* 3.1, Windows
para Trabajo en Grupo* 3.11, Windows* 98, Windows* 95, OS/2*, UnixWare*, SCO
UNIX*, Windows* NT, OPENSTEP*, y Sun Solaris*.
Extensiones "Streaming SIMD"
Las extensiones "Streaming SIMD" constan de 70 nuevas instrucciones que incluyen:
instrucciones únicas, datos múltiples para coma flotante, instrucciones de enteros SIMD
adicionales e instrucciones para el control del almacenamiento caché. Entre las
tecnologías que se benefician de las extensiones "Streaming SIMD" se incluyen las
aplicaciones avanzadas de tratamiento de imágenes, sonido y vídeo, y reconocimiento
de la voz. Más concretamente:
 Visualización y manipulación de imágenes de mayor resolución y calidad.
 Vídeo MPEG2 y sonido de alta calidad; codificación y descodificación MPEG2
simultáneas.
 Menor utilización de la CPU para aplicaciones de reconocimiento de voz, así
como una mayor precisión y tiempos de respuesta más rápidos.
Número de serie del procesador Intel
El número de serie del procesador actúa como número de serie electrónico para el
procesador, y sirve para que tanto el usuario como el sistema puedan ser identificados
en red. Este número de serie se utilizará en aplicaciones que se beneficien de métodos
más estrictos de identificación de sistemas y usuarios.
Funciones destacadas del procesador Pentium III
 El encapsulado S.E.C.C.2., diseñado por Intel, facilita la disponibilidad de
volúmenes altos, una mejor protección durante el manejo y un factor de forma
común para compatibilidad con futuros procesadores de alto rendimiento.
 La arquitectura de doble bus independiente (DIB) de alto rendimiento (bus del
sistema y bus de caché) proporciona un ancho de banda mayor, rendimiento y
escalabilidad con futuras tecnologías de sistemas.
 El bus de sistema admite varias transacciones para incrementar la disponibilidad
del ancho de banda. También proporciona un soporte sin problemas para dos
procesadores, lo que hace posible el multiproceso simétrico bidireccional de
bajo coste y proporciona un incremento significativo del rendimiento para
sistemas operativos multitarea y aplicaciones multilectura.
 Una caché unificada, sin bloqueo de dos niveles y 512K mejora las prestaciones
al reducir el tiempo medio de acceso a la memoria y al proporcionar acceso
rápido a los últimos datos e instrucciones utilizados. El rendimiento mejora
mediante un bus con caché de 64 bits. La velocidad de la caché L2 se escala con
la frecuencia del núcleo del procesador. Este procesador también incorpora
cachés de nivel independientes y de 16K, una para instrucciones y otra para
datos.
 Los procesadores Pentium III a 500 y 450 MHz admiten almacenamiento caché
para un máximo de 4 GB de espacio en memoria direccionable.
 El procesador dispone de funcionalidad de código de corrección de errores
(ECC) en el bus de caché de nivel 2 para aplicaciones en las que la intensidad y
fiabilidad de los datos es esencial.
 La unidad de coma flotante canalizada (FPU) admite los formatos de 32 y 64
bits especificados en la norma IEEE 754 así como un formato de 80 bits.
 Señales del bus de sistema de solicitud y respuesta/dirección con protección de
paridad con un mecanismo de reintento para garantizar una elevada integridad y
fiabilidad de los datos.

4.3. Procesadores AMD


Es el principal competidor de Intel en la gama alta.
Ha seguido desarrollando chips que se ajustan al socket 7 (el de Pentium).
 Se puede utilizar la caché externa (nivel 3).
Productos actuales:
 AMD K6-II.
 AMD K6-III.
 AMD Athlon.
4.3.1. AMD K6-II
Es comparable al Pentium II (véase Tabla 3).
Tabla 3: Diferencias entre el Pentium II y el K6-II.
PENTIUM II K6-II
Cachè nivel 1 32K 64K
Cachè nivel 2 512K 0K
Cachè nivel 3 No Sí
MMX Sí Sí
Gráficos 3D Sí Sí(3D Now!)
Multiprocesador Sí No
4.3.2. AMD K6-III
Es comparable al Pentium III (véase Tabla 4).
Tabla 4: Diferencias entre el Pentium III y el K6-III.
PENTIUM III K6-III
Cachè nivel 1 32K 64K
Cachè nivel 2 512K,1M,2M 256K*
Cachè nivel 3 No Sí (hasta 2M)
MMX Sí Sí
Gráficos 3D Sí Sí(3D Now!)
Multiprocesador Sí No
*Pero a la velocidad del procesador (el Pentium III la tiene a la mitad)
4.3.3. AMD ATHLON
Es el lanzamiento más reciente de AMD. Rivaliza con el Xeon.
Características:
 Soporta velocidades de hasta 700 MHz.
 Tiene 128 K de caché de nivel 1.
 Tiene, aproximadamente, 22 millones de transistores.
 Necesita una nueva placa base.
 Se puede usar en sistemas multiprocesador.

4.4. Procesadores CYRIX


Cyrix fabrica procesadores de gama media/baja.
Su producto más reciente, el MII, compite con el Pentium II y el Celeron.
Características:
 Ofrece 64 K de caché de nivel 1, no tiene nivel 2 integrada.
 Funciona sobre socket 7. Usa la caché de la placa base.
 Soporta velocidades de hasta 433 MHz.
5. Influencias de la Informática en la sociedad
5.1. Relación con otras ciencias
Nos encontramos en una etapa de la historia de profunda transición que puede
configurar un tipo totalmente nuevo de sociedad. Un factor muy importante de esta
transición posiblemente sea la nueva tecnología, y en particular la informática.
La informática en estos últimos años ha ido auxiliando a la mayoría de las ciencias,
como las matemáticas, la electrónica, medicina, etc. En este apartado veremos la
relación que a tenido con la mayoría de ellas.
5.1.1. Informática y medicina
Desde hace dos décadas, las computadoras ayudan a los profesionales de la medicina en
su larga lucha contra la enfermedad, ganando de esta forma tiempo que es muy
importante para la vida del paciente.
En la medicina especializada las computadoras reducen la posibilidad de error en el
diagnóstico y acelera su formulación. Ofrece al médico un gran banco de datos con
informaciones relativas a pacientes, tales como historial médico, tratamiento de
enfermedades, estadísticas de epidemias, etc.
Hoy por hoy medicina e informática van cogidas de la mano, ya que no pueden vivir
separadas; sin medicina no hay informáticos sanos y sin los computadores la medicina
se encontraría estancada con muy pocas posibilidades de avanzar.
Destaquemos que los robots abren nuevos campos positivos y esperanzadores en lo que
se refiere a operaciones quirúrgicas. ¿Quién sabe si dentro de unas décadas podemos ser
operados sin riesgo algunos po 'médicos artificiales'?.
5.1.2. Computación, Diseño y Fabricación
Otro de los campos en el que la computación está haciendo impacto, es el del Diseño
asistido por computadora (CAD) y el de la fabricación asistida por computadora
(CAM); ya que la utilización de computadoras en el diseño y fabricación de máquinas
abaratan los costos de producción.
La rápida disponibilidad del diseño de las piezas, hace que puedan programarse con
anticipación los robots industriales, que van a construir o ensamblar dichas piezas.
5.1.3. Computación y Telecomunicaciones
La tecnología en telecomunicaciones avanza a la misma velocidad que la computación;
en realidad su marcha es común.
Las buenas comunicaciones electrónicas no sólo dependen de tener un hardware veloz.
También es necesario contar con un software apropiado que lo haga funcionar, es decir,
un buen programa de comunicaciones.
Existen hace tiempo usuarios de redes telefónicas para la comunicación de textos,
imágenes y sonidos. Además se trabaja con redes telefónicas públicas o privadas que
solamente transmiten datos. Las compañías de estas redes telefónicas, además de
utilizarlas para su propio trabajo, las alquilan para su uso en diversas actividades tales
como la radiodifusión, televisión, transportes, comercio, etc.
5.1.4. Computación y Sector del Comercio
Las computadoras también han llegado al mundo de los negocios y del comercio,
realizando funciones no sólo de cajas registradoras, sino también de herramientas para
almacenar datos, calcular costos, mantener almacenes al día, etc. Permiten, en definitiva
llevar este tipo de empresas de una manera más organizada y tener siempre una visión
de conjunto lo más aproximada posible a la realidad, con todos los datos al día, y poder
hacer un cálculo muy exacto de su rentabilidad.
5.1.5. Computación y Deportes
Cada día se utiliza mas la potencia de la computadora en el campo deportivo, de tal
manera que se ha llegado a un punto tal en que es casi imposible la organización de
cualquier acontecimiento deportivo sin pensar en la computadora. Esta se utiliza en toda
clase de eventos deportivos, en los que el tiempo es uno de los factores principales. Por
ejemplo, en natación, atletismo, automovilismo, motociclismo, etc.
5.1.6. Computación y Animación
Cada vez más podemos ver en el cine o en la televisión imágenes espectaculares que
parece imposible que se hayan podido filmar a partir de algo real. Sin embargo, por
extraño y fastidioso que pudiera parecernos, así es en realidad: estas imágenes han sido
generadas por una computadora (un ejemplo muy destacado es la película Matrix). La
técnica de animación por computadora proporciona a los medios audiovisuales, muchas
posibilidades de trucaje de imágenes y efectos especiales, que hacen que el espectador
se sienta atraído por ellos.
Este nuevo arte se llama CGI (Imágenes Generadas por Computadora), y no sólo se
aplica a la realización de películas o reportajes sino que también suele utilizarse en los
anuncios televisivos.
5.1.7. Computación y Simulación
Una de las maneras más importantes en que las computadoras ayudan al hombre a
realizar planificaciones para el futuro, es la simulación.
La computadora es una herramienta casi imprescindible en los estudios de la simulación
al poder generar muchos miles de condiciones diferentes en muy poco tiempo que
pueden tener incidencia dentro del modelo, así como registrar y ordenar todos los
resultados obtenidos.

5.2. Cultura, informática y comunicación


5.2.1. Informática en la educación
[Beccrey96]
Informática no puede ser una asignatura más, sino la herramienta que pueda ser útil a
todas las materias, a todos los docentes y a la escuela misma, en cuanto institución que
necesita una organización y poder comunicarse con la comunidad en que se encuentra.
Entre las aplicaciones más destacadas que ofrecen las nuevas tecnologías se encuentra la
multimedia que se inserta rápidamente en el proceso de la educación y ello es así,
porque refleja cabalmente la manera en que el alumno piensa, aprende y recuerda,
permitiendo explorar fácilmente palabras, imágenes, sonidos, animaciones y videos,
intercalando pausas para estudiar, analizar, reflexionar e interpretar en profundidad la
información utilizada buscando de esa manera el deseado equilibrio entre la
estimulación sensorial y la capacidad de lograr el pensamiento abstracto. En
consecuencia, la tecnología multimedia se convierte en una poderosa y versátil
herramienta que transforma a los alumnos, de receptores pasivos de la información en
participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña
un papel primordial la facilidad de relacionar sucesivamente distintos tipos de
información, personalizando la educación, al permitir a cada alumno avanzar según su
propia capacidad. No obstante, la mera aplicación de la multimedia en la educación no
asegura la formación de mejores alumnos y futuros ciudadanos, si entre otros requisitos
dichos procesos no van guiados y acompañados por el docente. El docente debe
seleccionar criteriosamente el material a estudiar a través del computador; será
necesario que establezca una metodología de estudio, de aprendizaje y evaluación, que
no convierta por ejemplo a la información brindada a través de un CD-ROM en un
simple libro animado, en el que el alumno consuma grandes cantidades de información
que no aporten demasiado a su formación personal. Por sobre todo el docente tendrá la
precaución no sólo de examinar cuidadosamente los contenidos de cada material a
utilizar para detectar posibles errores, omisiones, ideas o conceptos equívocos, sino que
también deberá fomentar entre los alumnos una actitud de atento juicio crítico frente a
ello.
A la luz de tantos beneficios resulta imprudente prescindir de un medio tan valioso
como lo es la Informática, que puede conducirnos a un mejor accionar dentro del campo
de la educación. Pero para alcanzar ese objetivo, la enseñanza debe tener en cuenta no
sólo la psicología de cada alumno, sino también las teorías del aprendizaje, aunque se
desconozca aún elementos fundamentales de esos campos. Sin embargo, la educación
en general y la Informática Educativa en particular, carecen aún de estima en
influyentes núcleos de la población, creándose entonces serios problemas educativos
que resultan difíciles de resolver y que finalmente condicionan el desarrollo global de la
sociedad. La mejora del aprendizaje resulta ser uno de los anhelos más importante de
todos los docentes; de allí que la enseñanza individualizada y el aumento de
productividad de los mismos son los problemas críticos que se plantean en educación; el
aprendizaje se logra mejor cuando es activo, es decir cuando cada estudiante crea sus
conocimientos en un ambiente dinámico de descubrimiento. La duración de las clases y
la metodología empleada en la actualidad, son factores que conducen fundamentalmente
a un aprendizaje pasivo. Dado que la adquisición de los conocimientos no es activa para
la mayoría de los estudiantes la personalización se hace difícil. Sería bueno que los
docentes dedicasen más tiempo a los estudiantes en forma individual o en grupos
pequeños; solamente cuando cada estudiante se esfuerza en realizar tareas, podemos
prestarle atención como individuo.
En este marco, la nueva tecnología interactiva, fruto de la asociación de la informática,
las comunicaciones, la robótica y el manejo de las imágenes, revolucionará el
aprendizaje resolviendo dichos interrogantes, los que en la actualidad limitan la
evolución del sistema educativo. El componente principal para el progreso será el
desarrollo de cursos y de currículas de estudio enteramente nuevos. Los puntos
esenciales de la reforma educativa pasan entonces por la capacitación de los docentes y
el desarrollo de nuevos materiales de aprendizaje, utilizando en lo posible tecnología
informática interactiva. Es necesario reconocer que no hay una sola filosofía que
abarque toda la temática, pero ciertamente si disponemos de variados materiales
podremos realizar evaluaciones conjuntas de los productos y analizar otras técnicas de
aprendizaje. Todo proyecto de informática educativa deberá entonces tener en
consideración que lo más importante de la educación no consiste en instruir sobre
diversos temas, lo cual es siempre necesario, sino en transmitir y hacer encarnar en la
conducta de los alumnos los valores y creencias que dan sustento al estilo de vida que
ha elegido la sociedad para lograr su vigencia. La incorporación de nuevos avances
tecnológicos al proceso educativo necesita estar subordinada a una concepción
pedagógica global que valorice las libertades individuales, la serena reflexión de las
personas y la igualdad de oportunidades, hitos trascendentes en la formación de las
personas, con vistas a preservar en la comunidad los valores de la verdad y la justicia.
La computadora es entonces una herramienta, un medio didáctico eficaz que sirve como
instrumento para formar personas libres y solidarias, amantes de la verdad y la justicia.
En consecuencia toda evaluación de un proyecto de Informática Educativa debería tener
en consideración en qué medida se han logrado esos objetivos.

5.2.2. Educación a distancia


Hoy en día, la educación a distancia se mantiene bajo los mismos parámetros de la
educación clásica donde al estudiante se le obliga a aprender una serie de temas que son
equivalentes a los de la educación clásica. La idea de la educación a distancia elimina de
raíz la subjetividad, ya que no hay un conocimiento directo entre alumno y profesor,
también porque permite el acceso programado y ordenado al programa de estudio, así
como tareas recomendadas por él. El profesor puede recomendar al estudiante la
navegación en las páginas de Internet que él considere más importantes, además se
podría evaluar al estudiante por medio de un formulario.
Lo malo de esto es conseguir dinero suficiente para la compra de un ordenador y el
acceso a Internet, ya que en países pobres como Perú, el ingreso de la mayoría de las
familias no permite tener un PC en casa.
Es pues esto lo que se teme de la educación a distancia, ya que un ciudadano no podría
acceder a la información vía Internet, además se están creando generaciones de jóvenes
bien informados con lo último proporcionado por Internet y otra generación (que son la
mayoría) que en muchos casos no puede disponer de ella. Este desigual acceso a la
información hace que las oportunidades de superación de mucha gente sean mínimas.

5.2.3. Internet (Un mundo global)


La tecnología de Internet es una precursora de la llamada 'superautopista de la
información', un objetivo teórico de las comunicaciones informáticas que permitiría
proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una
información de calidad que eduque, informe y entretenga. A principios de 1996 estaban
conectadas a Internet más de 25 millones de computadoras en más de 180 países, y la
cifra sigue en aumento.
- Definición
Interconexión de redes informáticas que permite a las computadoras conectadas
comunicarse directamente. El término suele referirse a una interconexión en particular,
de carácter planetario y abierto al público, que conecta redes informáticas de
organismos oficiales, educativos y empresariales. También existen sistemas de redes
más pequeños llamados intranet, generalmente para el uso de una única organización.
- Historia:
El embrión de lo que es hoy Internet surgió a finales de los años sesenta, de la necesidad
del gobierno de los Estados Unidos de resolver un problema de estrategia militar, en el
periodo de la Guerra Fría, que tenía como misión conectar los ordenadores de diferentes
instituciones militares.
RAND Corporation una empresa encargada de la estrategia militar propuso la creación
de una red de comunicaciones que no dependiera de un organismo central, con el fin de
que las comunicaciones no se interrumpieran si alguna de las instituciones era destruida.
ARPA una agencia decidió crear un proyecto mayor sobre esta tecnología de redes en
Estados Unidos. Para ello se trabajó en el desarrollo de unos protocolos (series de
normas para enviar información) que pudieran ser entendidos por todos los ordenadores,
independientemente de sus sistemas operativos. Estas normas se conocen con el nombre
de protocolos TCP/IP, y conforman un lenguaje universal. De esta forma crearon
ARPANET, la primera red.
Las universidades estadounidenses se percataron de las enormes posibilidades de
intercambio de información que representaba este proyecto, sobre todo después de que
Tomlison crease un programa capaz de enviar mensajes entre ordenadores. En los años
siguientes creció el numero de universidades conectadas, apareciendo así nuevas redes,
como USENET y BitNet, cuya interconexión dio lugar a INTERNET.
A finales de los ochenta (1989), un investigador llamado Tim Berners-Lee, inventó un
sistema de intercambio de información en la red, así nació World Wide Web, el
elemento que más ha contribuido a popularizar Internet.
- Que ofrece Internet
Correo electrónico:
Es el servicio más popular de la Red. Permite enviar y recibir información desde
cualquier lugar del mundo. Incluye modalidades como las listas de correo, que
ofrecen la posibilidad de enviar mensajes a un gran número de personas, o los
grupos de noticias, que funcionan como foros públicos de discusión organizados
por temas.
World Wide Web:
Por este servicio se suele identificar a toda la Red. Si bien en un principio fue
creado como un sistema de intercambio de información multimedia entre
ordenadores, se ha demostrado que sus posibilidades son enormes, pues permite
ver, buscar o publicar información, conversar con otros usuarios, realizar
compras, descargar programas y archivos, etc.
Otros servicios:
Internet permite recibir o enviar cualquier tipo de archivo mediante el protocolo
FTP, conversar con multitud de usuarios por medio del IRC o utilizar los
servicios tradicionales de telefonía a precios de llamada local.
- Fusión con la comunicación
La tecnología se ha metido en nuestra vida. En los últimos años, el uso de las nuevas
tecnologías, especialmente de las tecnologías de la información y de las comunicaciones
(TIC), se ha introducido tanto en la sociedad que ahora es un tema común en
conversaciones y medios de comunicación.
La expansión de Internet ofrece nuevas posibilidades de comunicación, es por esto que
en la Red hay más de cuatro mil medios de comunicación (periódicos, radios,
televisores, agencias de noticias...). Se trata de un nuevo medio de comunicación, que
denominamos "comunicación on-line". A continuación describimos sus características.
 Información interactiva: Hablar de comunicación en la Red es hablar de
interactividad, tanto de interacción del usuario con el servicio informativo e
interacción con la información. Los lectores como resultado de esta
interactividad, comienzan a considerarse miembros de la cibercomunidad, esta
circunstancia se debe al nuevo concepto de localidad que los medios están
generando.
 Información actualizada: Los contenidos pueden ser actualizados con
periodicidad.
 Información documentada: Los servicios informativos carecen de las
limitaciones tradicionales de tiempo y espacio de la radio, la televisión y la
prensa para transmitir la información que se quiere dar. Se puede dar acceso a
las bases de datos de toda la información multimedia disponible.
 Información personalizada: La información on-line posibilita responder a los
gustos e intereses de la audiencia, para ofrecer estos contenidos personalizados
se debe determinar los contenidos que corresponden al perfil del usuario que los
ha solicitado.
 Capacidad de funcionalidad y de procesar datos en tiempo real: Cualquier
búsqueda o cálculos de algún dato se puede encontrar en tiempo real.
 Soporta todo tipo de información: La información on-line está capacitada para
integrar elementos multimedia, textos, videos, audio, gráficos interactivos,
imágenes ...
Los medios de comunicación han ido evolucionando en la Red hasta llegar a ofrecer
servicios informativos muy variados, pero ciertamente homogéneos, en los que apenas
se puede distinguir que empresa lo ha creado. Los efectos que produce este fenómeno
son varios:
Se difuminan las líneas que tradicionalmente delimitan a los medios y a sus audiencias.
Todas se dedican a emitir información, sin importar qué formato (texto, imagen, audio)
predomina en sus páginas-web. Los usuarios ya no se conectan a un sitio-web por que
se trate de una empresa de prensa escrita o de televisión, sino porque de entre toda la
oferta existente y que ellos conocen es la que mejor contenidos le ofrece.
Se incrementa el número de competidores, empresas, que luchan por los usuarios.
Empresas que antes no tenían nada que hacer contra otras más grandes se empiezan ha
dejar ver, como el caso de Yahoo.
El actual periodismo on-line no se basa en muchas ideas nuevas, es más bien la
combinación de ideas antiguas pero realizadas mejor, más rápido, con un diseño más
innovador, con contenidos personalizados, etc.
A los servicios informativos on-line actuales hay que verlos como lo que son, el paso
intermedio entre los medios tradicionales y los futuros medios que realizarán
comunicación multimedia.
El futuro
Internet no ha hecho más que iniciar su andadura como red de comunicación y
servicios. El futuro anuncia multitud de posibilidades. Algunas ya se dejan ver, como el
comercio electrónico, el teletrabajo o la educación a distancia. Otras están en proyecto,
como la telemedicina, los juegos de realidad virtual o la transmisión fluida de vídeo.
Aunque la interacción informática todavía está en su infancia, ha cambiado
espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la
distancia y permitiendo a la gente compartir información y trabajar en colaboración. El
avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más
rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar
cualquier información en Internet.
Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y
proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías
aumentarán la velocidad de transferencia de información, lo que hará posible la
transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de
televisión generales se vean sustituidas por transmisiones específicas en las que cada
hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para
que puedan ver lo que quieran en el momento que quieran.
Conclusión
Los microprocesadores, a través de su aplicación generalizada en la automatización de
los procesos productivos -robots- y del sector terciario, prometen producir lo necesario
para satisfacer todas las necesidades de un país; proporcionando la calidad de vida
adecuada para todos y liberándonos de las tareas más insatisfactorias, sin agotar ni
degradar los recursos del planeta. Una cuestión fundamental es saber si los estamentos
decisorios y ejecutivos, con el soporte de la opinión pública debidamente informada,
optarán, de forma consciente, para utilizar las nuevas posibilidades de la
microelectrónica en orden a configurar una sociedad humanizadora. Ojalá que los
Estados que lo deseen, también los del tercer mundo, puedan disfrutar de la revolución
informática y entrar en la época de la cibercultura.
Parece evidente que estamos ante un fenómeno social nuevo de magnitudes similares a
la invención de la imprenta o de la máquina de vapor; es más, si tenemos en cuenta la
velocidad de implantación de las nuevas tecnologías en la sociedad actual, podríamos
decir que su impacto en la sociedad a corto y medio plazo puede que sea incluso mayor.
En fin, comenzamos hablando de 'simples' ayudas de cálculo, y hemos llegado a un
punto en el que esas máquinas o herramientas han evolucionado tanto que ya no sólo
sirven para hacer cálculos. Poco a poco se ha ido cambiando ese objetivo que en su
momento fue el principal, haciéndolo más general; es decir, las computadoras actuales
pueden simplificar gran parte de las tareas diarias de los seres humanos, no sólo las
opereaciones matemáticas. Posiblemente nos podiamos haber ahorrado esta conclusión,
ya que en el punto 5 se expone, aunque de forma muy simplificada, hasta dónde ha
llegado la informática y de que manera nos influye.
Referencias
[Beccrey96] Ingenieros Luis P. Beccaria y Patricio E. Rey (1996). La insercción de la
informática en la sociedad y sus efectos en la reconversión laboral.
http://phoenix.sce.fct.unl.pt/ribie/cong_1996/CONGRESSO_HTML/110/
Colombia.html

[Menendez9 Página del profesor Rafael Menéndez-Barzanallana Asensio


8] (1998). Historia de la Informática.
http://arraquis.dif.um.es/~rafa/4trab.htm

[Giles_] Nalleli Shunashi Giles Villanueva. Historia de las Computadoras.


http://www.multired.com/computa/nagilvil

[Laredo00] Instituto Tecnológico de Nuevo Laredo (2000). Histotia de la


Computadoras.
http://www.teclaredo.edu.mx/Sitios/Sistemas/Sitio%201.htm

[Marmaneu Agustin Marmaneu Romero (1999).Tablas de Neper.


99] http://www4.uji.es/~al017130/index2.htm

[Garzon99] Miguel Ángel Garzón Mateu (1999).Antecesores de nuestros


ordenadores.
http://www4.uji.es/~al022845/e08/

[Martinez99 Ausiàs Josep Martínez Diranzo (1999). Charles Babbage


] http://www4.uji.es/~al019132/

[Avila00] Eduardo Rene Rodríguez Ávila (2000). ARQUITECTURA DE


COMPUTADORAS.
http://spin.com.mx/~eravila/computer.html

[Desc_a] Historia de los ordenadores.


http://www.civila.com/universidades/webnntt/bloque%201/historia.htm

[Alvarez98] Irma G. Álvarez (1998). HISTORIA DE LAS COMPUTADORAS.


http://coqui.lce.org/ialvarez/HISTO.HTM

[Salcedo98] Eduardo Salcedo (1998). Lengua.


http://w3.mor.itesm.mx/~lssalced/lengua.html

[Infso00] Página de Informatica y Sociedad (2000). Informática y Sociedad.


http://lorca.act.uji.es/e08/documentacion.html

También podría gustarte