Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
Primeras calculadoras
A pesar que su diseño era brillante y los planes eran probablemente correctos, o por lo
menos depurables, el proyecto fue retardado por varios problemas. Babbage era un
hombre difícil para trabajar con él y discutía con cualquier persona que no respetara sus
ideas. Todas las partes para su máquina tenían que ser hechas a mano. En una máquina
con miles de partes, a veces los pequeños errores en cada elemento pueden
acumularse, terminando en grandes discrepancias. Esto requería que estas partes
fueran mucho mejores que las tolerancias que podían obtenerse con la tecnología de
esa época. El proyecto se disolvió en conflictos con el artesano que construyó las partes
y fue terminado cuando se agotó el financiamiento del gobierno.
Ada Lovelace, hija de Lord Byron, tradujo y agregó notas al "Sketch of the Analytical
Engine" por Federico Luigi, Conte Menabrea. Ella ha sido asociada cercanamente con
Babbage. Algunos afirman que ella fue la primera programadora de computadoras del
mundo, no obstante esta afirmación y el valor de sus otras contribuciones son discutidos
por muchos.
Una reconstrucción la Máquina Diferencial II, un diseño anterior, más limitado, ha estado
operacional desde 1991 en el Museo de Ciencia de Londres. Con algunos cambios
triviales, trabaja como Babbage la diseñó y demuestra que Babbage estaba, en teoría,
en lo cierto.
El museo usó máquinas herramientas operadas por computador para construir las partes
necesarias, siguiendo las tolerancias que habría podido alcanzar un maquinista de ese
período. Algunos creen que la tecnología de ese tiempo no podía producir partes de
suficiente precisión, aunque esto aparece ser falso. La falla de Babbage en terminar la
máquina puede ser principalmente atribuida a dificultades no solamente relacionadas
con la política y el financiamiento, pero también con su deseo de desarrollar una
computadora cada vez más sofisticada. Hoy, muchos en el campo de la computación
llaman a esta clase obsesión creeping featuritis (algo así como "caracterititis creciente",
es decir, el deseo de agregar cada vez más y más características).
En 1890, la Oficina del Censo de los Estados Unidos usó tarjetas perforadas, las
máquinas de ordenamiento, y las máquinas tabuladoras diseñadas por Herman
Hollerith para manejar la inundación de datos del censo decenial ordenado por
la constitución de Estados Unidos. La compañía de Hollerith eventualmente se convirtió
en el núcleo de IBM. La IBM desarrolló la tecnología de la tarjeta perforada en una
poderosa herramienta para el procesamiento de datos de negocios y produjo una
extensa línea de máquinas tabuladorasespecializadas. Por 1950, la tarjeta de IBM había
llegado a ser ubicua en la industria y el gobierno. La advertencia impresa en la mayoría
de las tarjetas previstas para la circulación como documentos (cheques, por ejemplo),
"No doblar, no perforar ni mutilar", se convirtió en un lema para la era posterior a
la Segunda Guerra Mundial.3
Siguiendo los pasos de Babbage, aunque ignorante de este anterior trabajo, Percy
Ludgate, un contable de Dublín, Irlanda, diseñó independientemente una computadora
mecánica programable, que describió en un trabajo que fue publicado en 1909.
Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas, y las publicaciones
de Wallace Eckert sobre Métodos de Tarjetas Perforadas en la Computación Científica
en 1940, describieron técnicas que fueron suficientemente avanzadas para
solucionar ecuaciones diferenciales, realizar multiplicación y división usando
representaciones de punto flotante, todo ello hecho con tarjetas perforadas y
las máquinas de registro de unidades??. La Oficina de Computación Astronómica
Thomas J. Watson, de la Universidad de Columbia realizó cálculos astronómicos
representando el estado del arte en la Computación.
Las tarjetas perforadas todavía son usadas y manufacturadas a este día, y sus
dimensiones distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas
en formas, registros, y programas alrededor del mundo.
1930s-1960s: Calculadoras de escritorio
Calculadora de Curta.
Por los años 1900, las primeras calculadoras mecánicas, cajas registradoras, máquinas
de contabilidad, etcétera fueron rediseñadas para usar motores eléctricos, con la
posición de engranajes como representación para el estado de una variable. Desde los
años 1930, compañías como Friden, Marchant Calculator y Monroe hicieron
calculadoras mecánicas de escritorio que podían sumar, restar, multiplicar y dividir. La
palabra "computador" era un título de trabajo asignado a la gente que usaba estas
calculadoras para realizar cálculos matemáticos. Durante el Proyecto Manhattan, el
futuro laureado premio Nobel, Richard Feynman, fue el supervisor de un cuarto lleno
de computadoras humanas, muchas de ellas eran mujeres dedicadas a la matemática,
que entendían las ecuaciones diferenciales que eran solucionadas para el esfuerzo de
la guerra. Después de la guerra, incluso el renombrado Stanislaw Ulam fue presionado
en servicio para traducir las matemáticas a aproximaciones computables para la bomba
de hidrógeno.
En 1948, fue introducido el Curta. Éste era una calculadora mecánica pequeña y
portable, que tenía el tamaño aproximado de una amoladora de pimienta. Con el tiempo,
durante los años 1950 y los años 1960 aparecieron en el mercado una variedad de
diferentes marcas de calculadoras mecánicas.
Las computadoras analógicas toman ventaja de las fuertes similitudes entre las
matemáticas de propiedades de pequeña escala -- la posición y el movimiento de ruedas
o el voltaje y la corriente de componentes electrónicos -- y las matemáticas de otros
fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia, transferencia de
energía, momento, etc.
Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja
sobre usar modelos físicos:
1. los componentes eléctricos son más pequeños y baratos; son más fácilmente
construidos y ejercitados.
2. Aunque de otra manera similar, los fenómenos eléctricos se pueden hacer que
ocurran en marcos de tiempo convenientemente cortos.
Estos sistemas trabajan creando análogos eléctricos de otros sistemas, permitiendo a
los usuarios predecir el comportamiento de los sistemas de interés al observar los
análogos eléctricos. La más útil de las analogías fue la manera en que el comportamiento
en pequeña escala podía ser representado con ecuaciones diferenciales e integrales, y
por lo tanto podía ser usado para solucionar esas ecuaciones. Un ingenioso ejemplo de
tal máquina fue el integrador de agua construido en 1928; un ejemplo eléctrico es
la máquina de Mallockconstruida en 1941.
A diferencia de las computadoras digitales modernas, las computadoras analógicas no
eran muy flexibles, y necesitan ser reconfiguradas (es decir reprogramadas)
manualmente para cambiar de un problema a otro. Las computadoras analógicas tenían
una ventaja sobre los primeros computadores digitales en que podían ser usadas para
solucionar problemas complejos usando comportamientos análogos, mientras que las
primeras tentativas con computadoras digitales fueron muy limitadas. Pero a medida que
las computadoras digitales han venido siendo más rápidas y usaban memorias más
grandes (ej, RAM o almacenamiento interno), han desplazado casi completamente a las
computadoras analógicas, y la programación de computadores, o codificación ha surgido
como otra profesión humana.
Puesto que las computadoras eran raras en esta era, las soluciones eran a menudo
manuales en formas como gráficas en papel y nomogramas, que entonces podían
producir soluciones analógicas a esos problemas, tales como la distribución de presiones
y temperaturas en un sistema de calefacción.
En esta era, un número de diferentes máquinas fueron producidas con capacidades que
constantemente avanzaban. Al principio de este período, no existió nada que se
asemejara remotamente a una computadora moderna, excepto en los planes perdidos
por largo tiempo de Charles Babbage y las visiones matemáticas de Alan Turing y otros.
Al final de la era, habían sido construidos dispositivos como el EDSAC, y son
considerados universalmente como computadores digitales. Definir un solo punto en la
serie, como la "primera computadora", pierde muchos sutiles detalles.
El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la
computación y ciencias de la computación de dos maneras. Su principal propósito era
probar que había problemas (nombrados el problema de la parada) que no podían ser
solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una
definición de una computadora universal, una construcción que vino a ser
llamada máquina de Turing, un dispositivo puramente teórico que formaliza el concepto
de ejecución de algoritmo, reemplazando el engorroso lenguaje universal basado en
aritmética de Kurt Gödel. Excepto por las limitaciones impuestas por sus
almacenamientos de memoria finitos, se dice que las computadoras modernas
son Turing completo, que es como decir que tienen la capacidad de ejecución de
algoritmo equivalente a una máquina universal de Turing. Este tipo limitado de la cualidad
de Turing completo es algunas veces visto como la capacidad umbral que separa las
computadoras de uso general de sus precursores de propósito específico.
Para que una máquina de computación sea una computadora de propósito general
práctica, debe haber algún mecanismo de lectura/escritura conveniente, como por
ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de von
Neumann usa la misma memoria para almacenar tanto los programas como los datos;
virtualmente todas las computadoras contemporáneas usan esta arquitectura (o alguna
variante). Mientras que es teóricamente posible implementar una computadora completa
mecánicamente (como demostró el diseño de Babbage), la electrónica hizo posible la
velocidad y más adelante la miniaturización que caracterizan las computadoras
modernas.
La subsecuente máquina de Zuse, el Z3, fue finalizada en 1941. Estaba basada en relés
telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera computadora
funcional, de todo propósito, controlada por programa. De muchas maneras era muy
similar a las máquinas modernas, siendo pionera en numerosos avances, tales como
números de coma flotante. El reemplazo del difícil de implementar sistema decimal,
usado en el diseño temprano de Charles Babbage, por el más simple sistema binario,
significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más
confiables, dadas las tecnologías disponibles en aquel tiempo. Esto a veces es visto
como la razón principal por la que Zuse tuvo éxito donde Babbage falló.
Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus
máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos.
Aparentemente su trabajo en gran parte siguió siendo desconocido a los ingenieros en
el Reino Unido y los E.E.U.U. hasta mucho más tarde, aunque al menos la IBM estaba
enterada de ellos pues financiaron a su compañía de lanzamiento de posguerra en 1946,
a cambio de una opción sobre las patentes de Zuse.
Colossus
El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra
Mundial.
Artículo principal: Colossus
Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron un
número de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina
de cifrado alemana, Enigma, fue atacada con la ayuda de máquinas electromecánicas
llamadas bombes. La bombe, diseñada por Alan Turing y Gordon Welchman, después
de la bomba criptográfica polaca (1938), eliminaba ajustes posibles del Enigma al
realizar cadenas deducciones lógicas implementadas eléctricamente. La mayoría de las
posibilidades conducían a una contradicción, y las pocas restantes se podían probar a
mano.
Desarrollos norteamericanos
En 1937, Claude Shannon produjo su tesis magistral en el MIT que por primera vez en
la historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. La
tesis de Shannon, intitulada A Symbolic Analysis of Relay and Switching Circuits (Un
análisis simbólico de circuitos de conmutación y relés), esencialmente funda el diseño
de circuitos digitales prácticos.
En 1939, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark
I. Conocido oficialmente como el Automatic Sequence Controlled Calculator, el Mark I
fue una computadora electromecánica de propósitos generales construida con el
financiamiento de la IBM y con la asistencia del personal de la IBM, bajo dirección del
matemático de Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina
Analítica de Babbage, usando ruedas de aritmética y almacenamiento decimal e
interruptores rotatorios además de relés electromagnéticos. Era programable vía una
cinta de papel perforado, y contenía varias unidades de cálculo trabajando en paralelo.
Versiones posteriores contuvieron varios lectores de cinta de papel y la máquina podía
cambiar entre los lectores basados en una condición. Sin embargo, la máquina no era
absolutamente Turing completa. El Mark I fue trasladado a la universidad de Harvard y
comenzó la operación en mayo de 1944.
ENIAC
Artículo principal: ENIAC
El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de energía.
El ENIAC (Electronic Numerical Integrator and Computer), construido en los Estados
Unidos, fue el primer computador electrónico de propósitos generales. Construido bajo
la dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania,
era 1.000 veces más rápido que sus contemporáneos. El desarrollo y la construcción del
ENIAC duró desde 1943 hasta estar operativo completamente al final de 1945.
Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares de
delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el
ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Sin
embargo, era capaz de miles de operaciones por segundo por horas enteras entre las
fallas de válvulas. Validó abiertamente el uso de la electrónica para la computación en
gran escala. Esto fue crucial para el desarrollo del computador moderno.
En octubre de 1947, los directores de J. Lyons & Company, una compañía británica del
famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las
nuevas técnicas de gerencia de oficinas, decidido a tomar un papel activo en promover
el desarrollo comercial de los computadores. Por 1951 el computador LEO I estuvo
operacional y corrió el primer job de computador de oficina rutinario regular del mundo.
La máquina de la universidad de Mánchester se convirtió en el prototipo para la Ferranti
Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de
1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957.
En junio de 1951, el UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina
del Censo de los Estados Unidos. Aunque fue fabricada por Remington Rand, la máquina
con frecuencia fue referida equivocadamente como la "IBM UNIVAC". Eventualmente
Remington Rand vendió 46 máquinas en más de $1 millón por cada una. El UNIVAC era
el primer computador 'producido en masa'; todos los predecesores habían sido unidades
'únicas en su tipo'. Usó 5.200 tubos de vacío y consumía 125 kW de energía. Usó para
la memoria una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11
dígitos decimales más el signo (palabras de 72 bits). A diferencia de las máquinas de la
IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta
magnética de metal al estilo de los años 1930, haciéndola incompatible con algunos
almacenamientos de datos comerciales existentes. La cinta de papel perforado de alta
velocidad y las cintas magnéticas del estilo moderno fueron usados
para entrada/salida por otras computadoras de la era.
En 1956, la IBM vendió su primer sistema de disco magnético, RAMAC (Random Access
Method of Accounting and Control). Usó 50 discos de metal de 24 pulgadas (610 mm),
con 100 pistas por lado. Podía almacenar 5 megabytes de datos y costaba $10.000 por
megabyte. (En 2006, el almacenamiento magnético, en la forma de discos duros, costaba
menos de un décimo de un centavo por megabyte).
Alrededor de finales de los años 1950 los tubos fueron sustituidos por transistores. Esto
levanta lo que se conoce como la "segunda generación" de máquinas de cálculo.
El transistor fue realizado en 1948 por los norteamericanos John Bardeen, Walter
Brattain y William Shockley que compartieron por su invención el Premio Nobel de
Física de 1956. El transistor es un dispositivo electrónico hecho de cristal
de silicio o germanio en los que diferentes átomos de materiales son oportunamente
insertados.
Entre los sistemas de la segunda generación marcamos el IBM 1401, que fue instalado
desde 1960 hasta 1964 en más de cientos de miles de modelos, monopolizando
alrededor de un tercio del mercado mundial. En este período también estuvo la única
tentativa italiana: el ELEA de Olivetti, producido en 110 modelos.
El desarrollo notable de las máquinas de cálculo y de sus aplicaciones en este período
no es debido solamente a la característica del CPU (Unidad Central de Proceso), sino
que también a las continuas mejoras hechas en las memorias auxiliares y en las unidades
para la toma y emisión de datos.
Las memorias de discos pueden manejar decenas de millones de letras o dígitos. Más
unidades pueden ser conectadas al mismo tiempo a la máquina de cálculo, llevando así
la capacidad de memoria total a algunos cientos de millones de caracteres.
Cerca de los discos que están conectados firmemente con la unidad central son
introducidas algunas unidades en las cuales las pilas de discos son móviles y pueden
ser fácilmente reemplazados por otra pila en pocos segundos.
Incluso si la capacidad de discos móviles es más pequeña comparada a las fijas, su
intercambiabilidad garantiza una capacidad ilimitada de datos que están listos para la
elaboración.
Las máquinas de cálculo de la segunda generación, a través de un dispositivo particular
hecho para ordenar los datos interiores, pueden sobreponer diferentes operaciones, esto
significa leer y perforar las tarjetas al mismo tiempo, ejecutar cálculos y tomar decisiones
lógicas, escribir y leer la información en cintas magnéticas.
Para garantizar el continuo cambio de información entre el centro y la periferia, surgen
las unidades terminales que tienen que transmitir los datos a la máquina de cálculo
central que también puede estar a una distancia de cientos de kilómetros gracias a una
conexión telefónica.
Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el
artículo seminal de Burks, Goldstein, von Neuman, documentado en la
revista Datamation de septiembre-octubre de 1962, que fue escrito, como versión
preliminar 15 años más temprano. (ver las referencias abajo). Para el momento en que
cualquier persona tuviera tiempo para escribir cualquier cosa, ya era obsoleto.
Notas al pie
Historia británica
Early British Computers
Resurrection Bulletin of the Computer Conservation Society (UK) 1990–2006
The story of the Manchester Mark I, 50th Anniversary website at the University of
Manchester
Rowayton Historical Society Birthplace of the World's First Business Computer