Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Toc PDF
Toc PDF
Una historia
de la informática
01-18 introduccion:llibreUOC 20/5/08 11:00 Página 4
01-18 introduccion:llibreUOC 20/5/08 11:00 Página 5
Una historia de la
informática
Miquel Barceló
01-18 introduccion:llibreUOC 20/5/08 11:00 Página 6
ISBN: 978-84-9788-709-0
Depósito legal:
Ninguna parte de esta publicación, incluido el diseño general de la cubierta, puede ser copiada, reproducida,
almacenada o transmitida en manera alguna ni por ningún medio, ya sea eléctrico, químico, mecánico, óptico,
de grabación, de fotocopia, o por otros métodos, sin autorización previa por escrito de los titulares del copyright.
01-18 introduccion:llibreUOC 20/5/08 11:00 Página 7
Autor
Miquel Barceló García
Es ingeniero aeronáutico y doctor en Informática. Profesor de la Facultad de Informática de la
Universitat Politècnica de Catalunya (FIB-UPC) desde su creación. Catedrático EU del Departamento
de Lenguajes y Sistemas Informáticos de la UPC.
01-18 introduccion:llibreUOC 20/5/08 11:00 Página 8
01-18 introduccion:llibreUOC 20/5/08 11:01 Página 9
A mi padre:
Miquel Barceló i Bosch
(1919-2008)
01-18 introduccion:llibreUOC 20/5/08 11:01 Página 10
01-18 introduccion:llibreUOC 20/5/08 11:01 Página 11
Índice
Anexo 1
A1. La informática en Cataluña en los años sesenta. Un caso
representativo: La Seda de Barcelona .............................................. 133
A1.1. La informática española al inicio de los años sesenta ................ 133
A1.2. La Seda de Barcelona .................................................................... 135
A1.3. Formación de los profesionales informáticos .............................. 135
A1.4. El equipo 360/20 y su instalación................................................ 137
A1.5. El proceso de desarrollo de las aplicaciones ................................ 138
A1.6. Las aplicaciones ............................................................................ 140
A1.7. Resumen final .............................................................................. 141
Anexo 2
A2. Breve historia de la inteligencia artificial.............................. 147
A2.1. El precedente de los autómatas.................................................... 148
A2.2. Otro precedente ilustre: la formalización del razonamiento ...... 148
A2.3. La cibernética de Norbert Wiener ................................................ 149
A2.4. Los inicios formales de la inteligencia artificial .......................... 150
A2.5. Los primeros años y el exceso de optimismo .............................. 151
A2.6. Los años difíciles .......................................................................... 152
A2.7. El nuevo planteamiento de los años setenta .............................. 153
A2.8. El intento de difusión industrial de los años ochenta ................ 154
A2.9. Balance provisional y nuevas perspectivas .................................. 155
Bibliografía.................................................................................................. 157
A modo de introducción
Manual de instrucciones
Capítulo I
Pequeña historia y metodología
de la historia de la informática
En general, se puede decir que, a partir de los años ochenta, ya hay una
atención suficiente al aspecto histórico general de la informática con textos de
alcance y contenidos lo bastante diferenciados como [Augarten 1984],
[Taniguchi 1985], [Breton 1987] para culminar con obras como las de
[Campbell-Kelly y Astray 1996] o la primordial de [Ceruzzi 1998].
También se aborda el estudio de casos puntuales en empresas concretas
como se hace, casi con un enfoque periodístico, en [Kidder 1981], que fue
Premio Pulitzer, y en [Smith y Alexander 1988]. También, siguiendo el camino
marcado por Ton Sales [Sales 1980c], aparecen después algunos primeros estu-
dios sobre la informatización en España, como son [Rincón 1988] o [Arroyo
1991].
El conjunto muestra ya la existencia de diversas escuelas y formas de enten-
der la historiografía de una ciencia y una tecnología como la informática.
No es éste el lugar adecuado para continuar esta breve recopilación sobre
“historia de la historia de la informática”, pero sí conviene establecer un breve
esquema histórico de cómo han evolucionado tanto las ideas científicas como
las realizaciones tecnológicas de la informática. Éste es el sentido y la orienta-
ción general que preside el breve repaso a los rasgos más característicos de la
historia de la informática que se presenta en este libro. Ésta es la razón por la
cual ciertos temas de gran interés en la informática (de los sistemas operativos
a los algoritmos y lenguajes de programación, pasando por la informática grá-
fica y las comunicaciones telemáticas, por citar algunos ejemplos) están casi
ausentes de este resumen, forzadamente limitado.
Un poco de metodología
Es fácil coincidir con Mahoney al constatar que, hoy por hoy, la historia de la
informática continúa estando francamente alejada de estas grandes preguntas.
Demasiadas veces se ocupa únicamente de biografías de personas y máquinas, de
las ideas y experiencias de los pioneros y, lo que resulta todavía más grave, utiliza
informaciones no muy neutras y acostumbra a considerar “hecho” lo que, en rea-
lidad, no son más que “elecciones” concretas, a menudo decididas por aspectos
que no son ni técnicos ni científicos, sino por la dinámica de un mercado que con-
tinúa manteniendo una estructura de oligopolio imperfecto, casi monopolista.
Resulta adecuado tener en cuenta que, cómo muy bien puede pasar en este
mismo libro, la mayor parte de la historia de la informática acostumbra a estar
hecha desde dentro (insider history, en la denominación de Mahoney) y consis-
te a menudo en una recopilación de hechos y de reseñas de “primeras instala-
ciones”, casi siempre vistas desde la óptica de expertos y profesionales de la
informática a veces demasiado guiados por el estado actual de la tecnología y
sometidos a las inevitables presiones de la cultura profesional.
19-24 cap1:llibreUOC 20/5/08 11:04 Página 23
Capítulo II
Antecedentes históricos de la informática
Calculadoras mecánicas
Aritmética binaria
que consideraba cada una de sus cifras un peso a tener en cuenta o no según
la presencia o ausencia de una cruz en el lugar correspondiente de la progresión.
Pero todo eso parece que tardó más de tres mil años en llegar a Europa,
donde no se ha encontrado ningún documento binario hasta el año 1600,
cuando el matemático Thomas Hariot (1560-1621) escribió una tabla con los
valores binarios de los primeros 31 números decimales, aunque no se sabe en
absoluto para qué podían ser utilizados...
25-46 cap2:llibreUOC 20/5/08 11:11 Página 35
Fue Gottfried Wilhelm Leibniz (1646-1716) quien imaginó por vez primera,
hacia el año 1677, el uso del sistema binario como una herramienta para utili-
zar en el procedimiento de cálculo de fracciones decimales. Leibniz escribió sus
primeras reflexiones sobre esta posibilidad en un breve documento de seis pági-
nas escrito el 15 de marzo de 1679 y titulado De progressio Dyadica.
Pero la verdadera inspiración final parece que le llegó de la China.
En 1688, Leibniz estuvo en Roma, donde coincidió con expertos sinólogos
jesuitas. La creencia china en dos principios básicos y sexuados como el Yin y
el Yang, les había llevado de manera bastante natural a un sistema de numera-
ción binario. Así se puede observar en los diagramas de Chow-Tse, un mosaico
de rectángulos blancos y negros que aparentemente no tenía ningún significa-
do hasta que el mismo Leibniz desentrañó la explicación binaria. Igualmente,
el sistema binario explicaba los hexagramas de Fou-Hi sobre el Yin y el Yang.
En el año 1702, hace ahora más de trescientos años, el mismo Leibniz expo-
nía delante de la Academia de Ciencias de París sus ideas sobre la aritmética
binaria. Esta comunicación fue publicada en las Mémoires de la Academia en
1703 con el título: “Explicación de la aritmética binaria con notas sobre su uti-
lidad y como da sentido a las antiguas figuras chinas de Fou-Hi”.
A través de Leibniz, y gracias a su variada correspondencia con otros cientí-
ficos, el sistema binario empezó a ser conocido en Europa. Ciento cincuenta
años después, su sugerencia sobre como “la notación binaria podría ser la base
de un lenguaje simbólico” para el tratamiento del razonamiento lógico pudo
ser recogida en el descubrimiento de la lógica simbólica del inglés George Boole
(1815-1864) y su álgebra binaria que hoy conocemos como álgebra de Boole.
Posteriormente, el norteamericano Claude Shannon lo ligó todo cuando, en
1938, presentaba su tesis doctoral sobre teoría de la información, una brillante
síntesis en la cual la tecnología electromecánica, el álgebra de Boole y el siste-
ma binario se asociaban con gran elegancia y efectividad.
25-46 cap2:llibreUOC 20/5/08 11:11 Página 36
do es bien sabido que la suma total está creciendo constantemente. Por eso me
tomo la libertad de sugerirle que, en la próxima edición de su excelente poema,
corrija el cálculo erróneo al cual me refiero de la siguiente manera:
Tarjetas perforadas
El interés por las tarjetas con capacidad para contener datos alfanuméricos
llevó a James Powers a diseñar, para la Remington Rand en 1925, una tarjeta
perforada con dos zonas de 45 columnas superpuestas (con seis perforaciones
circulares por cada carácter) que, por ejemplo, todavía se usaba en el equipo
informático de la Junta de Energía Nuclear (antecesora del actual Consejo de
Seguridad Nuclear) en España, al fin de los años sesenta.
Pero fue precisamente en IBM, en 1928, donde se creó el diseño de la tarjeta
que pasó a convertirse en el estándar más utilizado: una pieza de cartulina del
tamaño ya adoptado por la industria desde el año 1900 en el cual Joseph T. Wilson
consiguió disponer hasta 80 columnas de perforaciones (12 perforaciones en cada
columna) gracias al uso de perforaciones rectangulares (de 1,4 x 3,2 mm) “vertica-
les”, es decir, con el eje más grande dispuesto verticalmente. El poder comercial y,
tal vez, la simplicidad mayor del código de IBM hizo que este tipo de tarjeta per-
forada se convirtiera en el nuevo estándar, hasta el punto que la misma
Remington Rand se vio obligada, al principio de los años cincuenta, a hacer com-
patibles sus primeros ordenadores UNIVAC con el tipo de tarjeta estándar IBM.
Hicieron falta 44 años (de 1884 a 1928) para que se estableciera la imagen
de tarjeta perforada que se convirtió en tradicional, pero, evidentemente, no
fue éste el único tipo de tarjeta perforada posible. Después de conocer las
máquinas de Hollerith, John Gore (1845-1920), que trabajaba para la
Prudential Life Insurance Co. imaginó, en 1895, una tarjeta de tamaño reduci-
do (6 x 9,4 cm) mejor adaptada a las necesidades de su empresa. Aunque el sis-
tema de Gore se abandonó hacia 1930, la idea resucitó cuando, en 1969, IBM
anunciaba el nuevo System/3 para la pequeña y mediana empresa. En esta oca-
sión, IBM utilizó una tarjeta perforada con un tamaño tres veces menor que el
estándar y que, a pesar de ello, era capaz de incluir 96 caracteres y no los 80
habituales, lo que se conseguía con perforaciones de menor tamaño dispuestas
en tres hileras de 32 caracteres en cada una.
La minitarjeta de IBM fue el canto de cisne de las tarjetas perforadas.
Utilizada en los ordenadores de las series 32, 34 y 36, lo cierto es que su déca-
da de vida coincidió con la superación del suporte no reutilizable que eran las
tarjetas perforadas. A lo largo de los años setenta, la informática sustituyó el
soporte tarjeta-perforación por un nuevo dispositivo magnético que, para satis-
facción de los profesionales de la época, pesaba mucho menos.
25-46 cap2:llibreUOC 20/5/08 11:11 Página 43
Capítulo III
Los primeros ordenadores
Calculator. Era una máquina formada por 400 relés y obtenía la entrada/salida
con un teletipo transformado de manera adecuada. Era capaz de hacer una
multiplicación en un minuto.
El Complex Calculator fue el abanderado en la comunicación informática
de datos: en septiembre de 1940, en el congreso anual de la American
Mathematical Society hecho en Hanover (Nueva Hampshire, EUA), la compa-
ñía telefónica Bell conectó telefónicamente el Complex Calculator de
Manhattan (ya llamado entonces Bell Model 1) con un teletipo en Hanover. La
demostración a distancia del calculador la hicieron personajes como Norbert
Wiener y John Mauchly.
Con respecto a las máquinas que Konrad Zuse fabricó en Alemania, aunque
posiblemente tecnológicamente eran las primeras respecto a los esfuerzos pare-
cidos hechos en los Estados Unidos de América, lo cierto es que la Segunda
Guerra Mundial y su final hizo que, en realidad, la historia de la informática
no las recogiera en absoluto como precedentes. A pesar de ser buenos diseños
y de incorporar muy buenas ideas no han sido relevantes para el desarrollo de
su futuro más inmediato.
En cualquier caso, la máquina más conocida de Zuse, la Z3, se construyó en
1941 y fue la “primera calculadora universal con programa” con aritmética
binaria. Tenía 2.600 relés y una memoria capaz de almacenar 64 números de 22
bits cada uno. Era capaz de hacer una multiplicación en un tiempo que iba de
los 3 a los 5 segundos.
La Z4 posterior y que debía ser más potente (con una memoria de 512 pala-
bras de 32 bits) fue sólo un proyecto de prototipo diseñado entre 1942 y 1945,
que nunca llegó a construirse ni a comercializarse, tal como hubiera querido
Zuse.
según parece, tenía más de 7.000 relés y, según la leyenda, unos 800 kilómetros
de cable eléctrico.
Parece que, en el largo proceso de su construcción, que duró casi siete años,
hubo incluso un fuerte enfrentamiento de personalidades entre el academicis-
mo y elitismo de un Howard H. Aiken y el pragmatismo y la poderosa persona-
lidad del patrón de IBM, Thomas Watson.
IBM llamaba ASCC a la nueva máquina, pero en Harvard se conocía como
Mark I. Había sido diseñada en 1937 y su construcción se prolongó de 1939 a
1944. El programa era introducido con una cinta de papel perforada, pero los
datos se entraban o bien mediante conmutadores manuales o bien con tarjetas
perforadas. Tenía aritmética decimal e introducía la idea de un registro interno
especializado.
Era capaz de multiplicar dos números de diez cifras en seis segundos y hacer
la división en un poco más de diez segundos. Los números podían tener un
máximo de 23 cifras y para sumarlos o restarlos se tardaba medio segundo. Era
bastante voluminoso: tenía un tamaño de más de 15 metros de largo (16,60
exactamente) por 2,6 m de alto, y pesaba varia toneladas.
La potencia de cálculo era impresionante para la época, tan sólo superada por
el analizador diferencial de Vannevar Bush. Trabajaba con números de 23 cifras
decimales, que era capaz de sumar o restar en medio segundo, mientras que la
multiplicación tardaba 3 segundos y la división llegaba a tardar unos 10 segundos.
Después del Mark I, Aiken fue elaborando otros modelos más complejos y
mayores y que ya incluían también la tecnología electrónica: Mark II, Mark III,
etc. e IBM continuó su camino con otros calculadores electromecánicos, como
el SSCE, antes de entrar en la tecnología electrónica con la IBM 701.
ma almacenado en memoria era de von Neumann. ¿De quién más podía ser una
aportación tan brillante?
A partir de entonces, se abrieron en cierta forma dos caminos para la nueva
tecnología informática: mientras von Neumann y Goldstine reclamaban la
naciente informática basada en la tecnología electrónica para el cálculo acadé-
mico y científico casi únicamente al servicio de proyectos militares; Eckert y
Mauchly, típicos profesores de una universidad norteamericana siempre intere-
sados en hacer negocio creando nuevas empresas, vieron rápidamente el poten-
cial de mercado de la nueva tecnología.
Las inevitables desavenencias que surgieron entre Eckert y Mauchly, por un
lado, y von Neumann y Goldstine, por el otro, se cerraron con una ruptura
final en abril de 1947. Sólo entonces la justicia resolvió que los principios bási-
cos del ordenador, tal como se indicaban en los planos del EDVAC, eran de
dominio público y no podían patentarse. La informática comercial y al margen
de proyectos estratégicos militares, a pesar del disgusto que eso pudiera haber
causado en von Neumann y Goldstine, acababa de empezar.
Por cierto, el EDVAC que tan brillantemente describía von Neumann, se
acabó de fabricar en 1952 en la misma Moore School, donde ya no quedaba
ninguno de los protagonistas que iniciaron la historia.
Gracias a la congelación del diseño aplicada por Eckert, el ENIAC sí que se
entregó a tiempo y, muy pronto, los emprendedores Eckert y Mauchly, aunque
sin patente exclusiva, crearon una empresa que inició un nuevo camino: utili-
zar los ordenadores electrónicos en ámbitos distintos al uso militar. Ya en 1951
comercializaban el UNIVAC I (Universal Automatic Calculator) que fue adqui-
rido por las oficinas del censo norteamericano y, sólo dos años después, en
1953, se instalaba también otro UNIVAC I en una empresa privada. La nacien-
te informática empezaba a superar su dependencia de los proyectos cientifico-
militares que, en definitiva, le habían dado forma.
Como se ha visto, el ENIAC, que pasa por ser el primer ordenador elec-
trónico de la historia, en realidad no es, legalmente, el primer calculador
47-72 cap3:llibreUOC 20/5/08 11:26 Página 56
Los Colossus fueron, nadie lo duda hoy, los primeros calculadores electróni-
cos de propósito general de la historia. Eso sí, made in Europe.
47-72 cap3:llibreUOC 20/5/08 11:26 Página 59
nico unos ochenta años antes. La máquina de Zuse tenía que disponer de cua-
tro subconjuntos:
– una “unidad de memoria” para contener los datos y los resultados de los
procesos de cálculo intermedios;
– un “selector” capaz de acceder a cualquier parte de esta memoria para leer
o inscribir un dato a menudo numérico,
– un “dispositivo de control” encargado de coordinar el encadenamiento de
las operaciones según la orden prevista en el plan de cálculo, y
– una “unidad aritmética” que ejecutara las operaciones de cálculo propia-
mente dichas.
teres por segundo. Entre junio de 1944 y mayo de 1945 se construyeron una
decena de Colossus, todos ellos ligeramente distintos.
Y todo esto ocurrió un par de años antes del ENIAC y de su éxito en
Norteamérica a partir de 1946. Aunque las historias de la informática continúan
hablando del ENIAC como el primer ordenador electrónico... ¡Cosas que pasan!
47-72 cap3:llibreUOC 20/5/08 11:26 Página 69
Capítulo IV
Los ordenadores de la informática clásica
Una vez establecida la idea base y la tecnología electrónica que había que
utilizar, el ordenador pudo ser comercializado de manera abierta.
4.1.1. EL UNIVAC I
que ser mucho más potente que “un” único UNIVAC) en los que, entre otras
historias, imaginaba que, en el año 2052, el ordenador sería capaz de decidir la
elección presidencial con tan sólo un único voto.
gar a los primeros lenguajes de alto nivel como el FORTRAN (1957), el ALGOL
(1958) o el COBOL (1960).
En los primeros ordenadores como el ENIAC o en sus antecesores electrome-
cánicos como el Harvard Mark I, las instrucciones se perforaban en una cinta
de papel o se establecían con conexiones manuales en un panel eléctrico ad
hoc. Algunas de las secuencias de código más repetidas de la programación se
implementaban con circuitos concretos de la misma máquina (microprograma-
ción), pero éstas, necesariamente, eran muy pocas y la gran mayoría hacía falta
repetirlas una vez y otra en cada programa.
Pronto se pensó en desarrollar una “máquina” complementaria que acepta-
ra lo que un programador tecleaba en un lenguaje casi algebraico para traducir-
lo a códigos numéricos. Así se hizo en el diseño del Harvard Mark III, posible-
mente por sugerencia de Grace Hopper (1906-1992), que había detectado el
aburrido problema de la repetición de diversas secuencias una y otra vez ya en
verano de 1944, cuando se encargaba de programar la calculadora electromecá-
nica Harvard Mark I.
Al final, todo ello se hizo no en un dispositivo de hardware especial, sino en
el mismo ordenador que tenía que ejecutar el programa: es el invento del soft-
ware y los primeros lenguajes de programación.
Fue precisamente Grace Hopper quien tuvo un papel determinante a la
hora de transferir al mundo comercial esta idea nacida en la vieja calculadora
electromecánica de Harvard. En 1952, cuando Hopper trabajaba ya en UNI-
VAC, puso a punto lo que llamó un sistema de “programación automática”
con un primer “compilador” A-0 que tendría nuevas versiones, A-1 y A-2, y
fue el A-2 el que se puso, a finales de 1953, a disposición de los clientes del
UNIVAC I.
Para Hopper este compilador era, simplemente, “una rutina que produce un
programa específico para un problema particular” o, dicho de otro modo, este
compilador primitivo servía para copiar unas determinadas subrutinas en el
lugar apropiado del nuevo programa que se estaba haciendo.
En el sentido actual, un compilador es un programa que traduce instruccio-
nes escritas en un determinado lenguaje simbólico (más o menos adaptado al
uso humano) al código binario que el ordenador puede ejecutar. No se trata
exactamente de lo que Hopper pensaba, ya que, para ella, el primitivo compi-
73-94 cap4:llibreUOC 20/5/08 11:31 Página 79
Memorias
Y en realidad hubo que esperar al final de los años setenta para que práctica-
mente todas las memorias informáticas dejaran de estar basadas en los núcleos
de ferrita, y fueran sustituidos finalmente por memorias de semiconductores
que continúan ofreciendo espectaculares mejoras en su grado de miniaturiza-
ción y velocidad de acceso.
Los núcleos de ferrita han sido, durante tres décadas, la imagen más asocia-
da a las memorias de ordenador. Se trata de pequeñas piezas toroidales, es decir,
con forma de anillo, atravesadas por tres hilos conductores. Para utilizarlas
como memoria, se aprovecha la propiedad de histéresis de ciertos materiales
como la ferrita: si una determinada corriente atraviesa el anillo de ferrita, el
anillo queda magnetizado en un sentido, pero esto sólo ocurre si la corriente es
bastante alta. Con núcleos atravesados por dos hilos distribuidos siguiendo
direcciones perpendiculares se forman planos de ferrita. Un tercer hilo atravie-
sa el interior de todos los núcleos como elemento lector.
Las memorias de núcleos de ferrita surgieron a los inicios de los años cincuen-
ta. An Wang, estudiante de Harvard que más tarde creó una famosa empresa
con su nombre, fue uno de los inventores de la memoria de núcleos de ferrita.
Wang colaboraba en el proyecto del Harvard Mark IV diseñado por Howard
Aiken en Harvard y que estuvo disponible en 1952.
También Jay Forrester, en el MIT de Boston, inventó, para el Wirldwind des-
arrollado entre 1946 y 1953, una triple matriz de núcleos con más velocidad y
más densidad de información. Junto con Wang, Forrester pasa también por ser
el inventor de la memoria de núcleos de ferrita.
La gran ventaja de esta tecnología, disponible digamos a partir de 1953,
incluso comparada con las posteriores memorias de semiconductor, era mante-
ner almacenada la información aunque la corriente eléctrica fuera desconecta-
da. Y, además, era mucho más fiable y segura que todos los sistemas anteriores.
De aquí su éxito.
Porque, aunque parezca mentira, antes de los famosos y hoy casi olvidados
núcleos de ferrita, hubo otros dispositivos que ahora nos resultan francamente
sorprendentes. Eso sí, eran mucho menos fiables y decididamente volátiles: la
información se perdía al desconectar el suministro eléctrico.
Históricamente, el primero de estos dispositivos fueron los llamados tambo-
res magnéticos: un tambor rotatorio con superficie magnetizable. Un preceden-
73-94 cap4:llibreUOC 20/5/08 11:31 Página 83
Chips
después, IBM, como muchos otros, adoptaba también la tecnología de los cir-
cuitos integrados para el diseño de su nueva serie System/370.
Kilby, Hoerni y Noyce han sido, evidentemente, los padres de la miniaturi-
zación informática. Kilby tiene hoy el premio Nobel, los otros dos, el recono-
cimiento real de los buenos conocedores de la historia de la informática. Y
Noyce, fallecido en 1990, pudo también sentirse orgulloso que fuera en la
empresa Intel (que él mismo creó junto con Gordon Moore) donde, en el año
1971, se inventó el microprocesador.
73-94 cap4:llibreUOC 20/5/08 11:31 Página 89
fue ajeno a eso el fabuloso contrato obtenido el año 1935 con la Seguridad
Social de los Estados Unidos, que encabezó una serie de pedidos de otros depar-
tamentos del gobierno. Siguiendo con su filosofía de tener contentos a sus
empleados, IBM fue también una de las primeras corporaciones a ofrecerles
seguros de vida (1934) y vacaciones pagadas (1936).
Watson supo también rentabilizar las filiales de IBM en todo el mundo y un
reciente libro de Edwin Black, IBM y el Holocausto: la alianza estratégica entre la
Alemania nazi y la más poderosa corporación norteamericana (2001), analiza la rea-
lidad de la filial alemana de IBM, Dehomag, y su colaboración con los nazis. Es
conocido el hecho de que Hitler concedió una medalla a Watson, medalla que
primero fue aceptada y, más tarde, devuelta una vez iniciada la Segunda Guerra
Mundial, cuando mantenerla habría podido ser perjudicial para los intereses
económicos de Watson y IBM en todo el mundo. ¡Pragmatismo se denomina
esta figura!
Watson imprimió tal carácter personal a IBM que al jubilarse, en 1952, el
título de presidente de la compañía pasó a su hijo Thomas Watson Jr. (1914-
1993) que trabajaba en IBM desde 1937. Watson hijo fue el encargado de pasar
del mundo de las tabuladoras a los primeros ordenadores electrónicos como el
IBM 701 presentado el mismo año 1952.
Con anterioridad, Watson padre había intentado desarrollar también nuevos
aspectos tecnológicos mediante un acuerdo con el profesor Howard Aiken de
Harvard para crear un gran ordenador electromecánico que la Universidad cono-
ció como el Mark I de Harvard, mientras que IBM lo llamaba ASCC (Automatic
Sequence-Controlled Calculator). Parece que el choque de personalidades entre
Aiken y Watson padre fue causa de graves enfrentamientos, aunque la insisten-
cia de Watson hijo (piloto de bombardero durante la guerra y conocedor de las
buenas prestaciones de los instrumentos electrónicos) fue decisiva para el naci-
miento de una nueva máquina, el SSCE (Selective Sequence Electronic
Calculator), desarrollada finalmente por IBM. A partir de 1948, la presencia del
SSCE en las oficinas de IBM en Manhattan (Madison Avenue), que se podía ver
desde la calle, inauguró la visibilidad desde la calle de muchos de los centros de
servicio informático posteriores de IBM en diversos lugares del mundo.
Thomas Watson hijo gobernó la compañía hasta 1971, y su producto más
destacado fue la serie 360, que extendió el dominio de IBM al mundo de la ges-
73-94 cap4:llibreUOC 20/5/08 11:31 Página 92
Capítulo V
La mini, la microinformática e Internet
5.4.2. Internet
Pero había otro camino alternativo, el de Internet, que, a pesar de ser poco
considerado durante los años setenta y ochenta por parte de los profesionales
de la “gran informática”, al final ha sido el que se ha acabado utilizando.
La orientación centralizada de las comunicaciones informáticas que habían
previsto todos los fabricantes de ordenadores no resultaba en absoluto útil para
los militares. Una topología en estrella resulta sumamente vulnerable: si se des-
truye el ordenador principal de la red, el que tiene todo el control de la red,
todo el sistema de comunicaciones se hunde.
Por ello, ARPA (Advanced Research Projects Agency), la agencia de proyec-
tos adelantados de investigación norteamericana, se propuso diseñar un siste-
ma para interconectar ordenadores en red de manera que ninguno de los orde-
nadores o nodos fuera decisivo ni imprescindible para el funcionamiento de la
red. De aquí nació la primera red de investigación concebida con esta filosofía,
ARPANET (la red, net, de ARPA), de la cual deriva la actual Internet.
Parece que la idea fue de J.C.L. Licklider, director de la agencia DARPA desde
octubre de 1962, pero fue Robert Taylor quien la puso en práctica después de
contratar a Larry Roberts del MIT. La primera red ARPANET se estableció entre
los ordenadores de la Universidad de California en Los Ángeles y el del Stanford
Research Institute el 29 de noviembre de 1969. Poco después, el 4 de diciem-
bre, se añadió la Universidad de Utah y la Universidad de California en Santa
Bárbara. Cuatro nodos que, hacia 1980, eran ya unos dos centenares.
La nueva red incorporaba una tecnología innovadora de conmutación de
paquetes, desarrollada a instancias de DARPA, en contraposición a la conmuta-
ción de circuitos habitual en la telefonía. En la conmutación de circuitos, al
establecer la comunicación entre dos teléfonos, se establece un circuito entre
los diversos circuitos que son posibles en aquel momento y este circuito se
mantiene operativo durante toda la transmisión. En la conmutación de paque-
tes, el mensaje circula, desmontado en trozos o “paquetes”, por diferentes cir-
cuitos y, al final, se vuelve a montar una vez todos los paquetes han llegado a
su destino. Es como si para enviar un libro se cortaran las hojas y cada hoja
(paquete) fuera enviada por un camino que puede o no ser diferente. Una vez
han llegado todas las hojas al destino, el protocolo adecuado vuelve a montar
95-132 cap5:llibreUOC 20/5/08 11:57 Página 104
el libro con todas las hojas en el orden correcto, con la condición de que si falta
alguna hoja, se pide que se vuelva a enviar.
Hay que decir que las “capas” de Internet no están tan claramente descritas
como las siete capas del modelo OSI de la ISO. Pero más o menos el protocolo
habitual en Internet, el TCP/IP (creado por Vinton Cerf y Robert Kahn y con
especificaciones conocidas desde 1972, pero operativo desde 1980) divide la
tarea en sólo cuatro capas (layers), aunque, evidentemente, diferentes de las del
modelo OSI de la ISO.
Después, hacia 1983, la conjunción de diversas redes informáticas con la
misma tecnología (ARPANET de ARPA, MILNET de los militares, CSNET de la
investigación informática) acabó creando la llamada red de redes o Internet. La
gestión de la nueva Internet por parte de la National Science Foundation
(Fundación Nacional de la Ciencia de los Estados Unidos de América) condujo
a que algunos emprendedores pidieran convertirse en proveedores de servicios
en Internet (ISP: Internet Service Providers) y el uso de la red Internet, inicial-
mente un proyecto militar reservado, llegó al gran público.
Hoy Internet es, como sabemos, una red sumamente abierta, sin control
posible, ya que ningún nodo la domina y controla. Se puede decir que, en
Internet, la página web de un chico o una chica de 12 o 13 años tiene el mismo
peso que la web del Pentágono o del gobierno de los Estados Unidos.
Cabe decir que, como proyecto militar que fue en sus orígenes, la red podía
ser abierta y sin control, ya que sus usuarios, los militares, sí estaban controla-
dos y sometidos a la disciplina militar. Eso impedía el descontrol de la incipien-
te Internet: la red era abierta y libre, pero no sus usuarios. Otra vez, los von
Neumann y Goldstine han perdido la batalla: una red, destinada inicialmente
a un uso militar ha pasado al uso del gran público. Se podría decir que Internet
es, en cierta medida, un gran proyecto militar fracasado.
Por eso Internet es hoy imprevisible: se trata de una red no regulada en
manos de personas escasamente reguladas por leyes que todavía no tienen en
cuenta todas sus funciones y potenciales. Por este motivo, siempre hay nuevas
posibilidades en Internet, incluso la de la organización espontánea de la gente
con su creatividad.
Esta creatividad es la que ha acabado llevando a la realidad las grandes apli-
caciones decisivas que hoy se utilizan en la red y que, en inglés, se conocen
95-132 cap5:llibreUOC 20/5/08 11:57 Página 105
del piso de arriba, quería tratar de poder hacer lo mismo con su “vecino” de la
red Internet. Para conseguirlo y no tener que enviar ficheros de gran volumen,
Fanning utilizó el sistema de reducción del tamaño de los ficheros de audio que
había sido desarrollado en unos laboratorios alemanes como investigación para
la parte sonora del vídeo. Era el MP3 hoy tan conocido. Desde entonces, inclu-
so los clásicos conceptos de la propiedad intelectual establecidos en el viejo
Convenio de Berna de 1884 se tambalean y están en peligro.
que hizo que quedara colapsada y que fuera necesario reinicializarla. La noticia
llegó al gran público aunque, en aquel tiempo, todavía no había demasiados
usuarios individuales de la red, pero el colapso afectó a centros de investigación
universitarios e instalaciones militares y la prensa se hizo resonancia de ello. Lo
curioso del caso es que el autor del programa (un gusano que no llegaba a dete-
nerse nunca y que continuaba difundiéndose una vez y otra por la red hasta
saturarla) era el hijo del director de la seguridad informática en los Estados
Unidos, quién, poco tiempo antes, había alertado de la fragilidad de la red y de
sus escasas medidas de seguridad, a pesar de que los ordenadores que conecta-
ba se dedicaban a temas muy sensibles.
La novedad más favorable a los virus surgió, ya en la década de los noven-
ta, cuando alguien descubrió que no era necesario utilizar lenguajes sofistica-
dos de programación. Normalmente, los virus se programaban con lenguajes
especializados no muy conocidos por la mayoría de usuarios. Pero alguien se
dio cuenta de que las macros con que se podían complementar programas de
mucho uso como los procesadores de textos (Word, por ejemplo) o las hojas de
cálculo (Excel, por ejemplo), etc., podían ser excelentes vehículos para imple-
mentar nuevos virus, virus más sencillos de obtener ya que no hacía falta que
fueran programados con lenguajes esotéricos y complicados. Era suficiente con
conocer el lenguaje de macros del Word o el Excel, al alcance de personal poco
o nada especializado.
De entre estos “virus de macros”, destaca primero el Melisa, que se empezó
a distribuir el 26 de marzo de 1999 mediante el procesador de textos Word del
paquete ofimático del Office 97 de Microsoft y después se extendió primero al
Word 2000 y, poco tiempo después, a otras versiones del Word de Microsoft. Lo
había creado, parece que sin voluntad de hacer daño, David L. Smith de
Aberdeen Towship (Nueva Jersey). El Melissa era un gusano y el mal lo hizo por
saturación de los servidores de la red. La sorpresa fue también que la facilidad
del virus (estar hecho con macros de conocidos procesadores de textos) com-
portó que, en muy poco tiempo, circularan diversas variantes del virus original,
no todas tan inocentes como la primera.
El otro gran virus de este tipo, aunque un poco más sofisticado, fue el I
Love You, que se presentaba como un simple mensaje con el texto “ILOVE-
YOU” y que llevaba un fichero adjunto “LOVE-LETTER-FOR-YOU.TXT.vbs”
95-132 cap5:llibreUOC 20/5/08 11:57 Página 109
El primer microprocesador
vamente Faggin durante algunas de las etapas de más detalle, incluía, por ejem-
plo, un registro especializado que permitía al microprocesador ejecutar subru-
tinas y volver después al programa principal.
Hoff sabía que eso hacía este chip más lento que otros procesadores de lógi-
ca mucho más especializada, pero le parecía que esto no tenía que ser especial-
mente problemático. Como procesador destinado a ser el alma de una calcula-
dora electrónica, Hoff estaba convencido de que la velocidad de teclear las
cifras quedaría siempre limitada a la que permite la capacidad humana y que el
sistema no tendría problemas aparentes de velocidad.
Fue Robert Noyce, uno de los fundadores de Intel, quien se encargó de nego-
ciar con Busicom la posibilidad de que, a pesar de satisfacer el pedido que la
empresa japonesa le hacía, Intel se reservara la posibilidad de comercializar por
su cuenta los nuevos chips para otras aplicaciones que no fueran calculadoras
electrónicas de bolsillo.
El microprocesador era un hecho. Los personajes clave en su nacimiento
fueron Ted Hoff de Intel, que concibió la idea; Federico Faggin de Intel, que
hizo el diseño detallado, y muy posiblemente, Masatoshi Shima de Busicom,
que también colaboró en ello. Cuando, en 1974, Fagin abandonó Intel para
fundar una empresa competidora, Zilog, los redactores de los folletos y mate-
rial publicitario de Intel se “olvidaron” de Faggin como ya se habían olvidado
de Shima al hablar del primer microprocesador. Para algunos, el inventor del
microprocesador todavía es sólo Ted Hoff, pero incluso el mismo Hoff ha acep-
tado el destacado papel que tuvo Faggin al llevar a la práctica su idea.
El nuevo microprocesador se anunció, el 15 de noviembre de 1971, como
una familia de cuatro chips en la revista Electronic News, donde aparecía como
“un ordenador microprogramable en un chip”. Se trataba del Intel 4004, el
microprocesador en sí, que iba acompañado de tres chips más: una memoria
ROM, una memoria RAM y un chip especializado en las funciones de salida
(output functions). Junto con el chip procesador, la ROM era sumamente impor-
tante porque contenía los programas que convertían este microprocesador de
propósito general en algo útil para sus usuarios. Todo mejoró todavía más
cuando, también en Intel, Dov Frohman desarrolló un chip de ROM (EPROM,
erasable programable read-only memory) que era reprogramable después de borrar
el contenido previo mediante la exposición a la luz ultravioleta.
95-132 cap5:llibreUOC 20/5/08 11:57 Página 113
Con un acuerdo parecido a lo que se había hecho con Busicom, Intel creó
en 1972 una nueva familia de chips para la empresa que tendría que ser la futu-
ra Datapoint y que en aquellos años se llamaba Computer Terminal
Corporation. Si el 4004 era un microprocesador de 4 bits, el 8008, diseñado por
Ted Hoff y Stan Mazor, y comercializado a partir de abril de 1972, era ya un pro-
cesador de 8 bits que sería el que utilizó el vietnamita establecido en Francia
Thi T. Truong como base del primer microordenador de la historia, el MICRAL,
aparecido en 1973.
95-132 cap5:llibreUOC 20/5/08 11:57 Página 114
una emisora cualquiera. Mientras el programa se ejecutaba, sólo había que acer-
car el receptor de radio a un determinado lugar de la unidad central del siste-
ma G-58 para que la sintonía radiofónica se perdiera y, con una serie de silbi-
dos, el receptor de radio emitiera el himno francés de La Marsellesa. En este
caso, el esforzado programador había tenido en cuenta incluso las ondas y
radiaciones que emitía la unidad central durante la ejecución de determinadas
instrucciones para programar un bucle que generara en un transistor próximo
el himno de su país. No es poco.
Con menos complicaciones, los viejos veteranos de la informática todavía
recuerdan aquellos dibujos, algunos francamente espectaculares, conseguidos
en una impresora de rodillo o de cinta que sólo disponía de letras (tan sólo
mayúsculas, claro está), cifras y unos pocos signos especiales. Se trataba de
hacer que se imprimieran diversas líneas sobre el mismo lugar del papel para
generar, a fuerza de muchas M y muchas X, por ejemplo, en el mismo lugar,
algo parecido al negro más absoluto, mientras que con espacios en blanco se
conseguía el blanco. Diversas combinaciones de letras y/o caracteres, super-
puestos una o más veces en un mismo lugar del papel podían generar diversas
gradaciones de gris. Con esta simple base, el resto quedaba a disposición de la
sensibilidad artística del “programador dibujante”. Fuera o no por el franquis-
mo imperante en la época y su nacional catolicismo, la verdad es que en
Barcelona tuvo mucho éxito en los años setenta la cara de un Jesús crucificado
conocida popularmente como “el Cristo”.
Sencillos juegos de lógica como el NIM (que había puesto de moda, desde
1961, la película del francés Alain Resnais El año pasado en Marienbad) y otros
parecidos son algunos de los primeros juegos pasados al ordenador, hasta lle-
gar a los complejos videojuegos de hoy.
Pero para eso hacen falta gráficos además de la interactividad.
En 1958, William A. Higinbotham consiguió simular una especie de juego
elemental de tenis o ping-pong en la pantalla de un osciloscopio que fue utili-
zado como divertimento por parte de los visitantes del Museo Nacional de
Brookhaven en los Estados Unidos de América. Se llamó Tennis for Two, aunque
la versión final la obtuvo Ralph Baer cuando, en 1967, desarrolló por fin un sis-
tema comercializable: un simulador del juego de tenis las raquetas del cual (dos
líneas verticales de color blanco a cada extremo de la pantalla) podían ser con-
95-132 cap5:llibreUOC 20/5/08 11:57 Página 116
troladas por dos usuarios para impulsar un pequeño punto blanco que hacía de
pelota. En 1971, la empresa Magnavox adquirió esta tecnología y comercializó
el primer sistema doméstico de juegos, el Odissey que se vendía al precio de
100 dólares por unidad. El sistema fue un relativo fracaso y sólo se vendieron
unas 100.000 unidades.
Paralelamente, en 1962, Steve Russell había creado en el MIT, en un PDP-1
de DEC, una especie de videojuego interactivo, el llamado Space Wars que ocu-
paba lo que entonces eran unos desmesurados 9 Kbytes. Se trataba de dos pun-
tos que simulaban naves que mutuamente se disparaban otros puntos (que
hacían el papel de balas) para intentar destruirse.
Años después, Nolan Bushnell (visitante según parece en una de las demos-
traciones del Space Wars) creó una réplica de este juego en su Computer Space
de 1971 que comercializó la empresa Nutting Associates. Aunque el Computer
Space fue más bien un gran fracaso en los salones recreativos, Bushnell no
retrocedió y, en 1972, creó la compañía Atari dedicada a los juegos, que en ese
año se convirtió en la empresa de más crecimiento en los Estados Unidos. Para
que su primer programador, Al Alcorn, pudiera hacer una especie de prácticas
antes de programar la emulación del Computer Space programaron un juego
de tenis que llamaron Pong y que, al pasar a una máquina recreativa de las que
había en los bares, acabó convirtiéndose en un gran éxito y en un verdadero
fenómeno de masas.
Los primeros pasos ya se habían hecho. Con el ejemplo del Odissey de
Magnavox, la empresa Fairchild tuvo la idea de fabricar un sistema de juegos
intercambiables que culminó en la consola VCS 2600 de Atari, que llegó al mer-
cado la Navidad de 1977, por cierto, según parece, con escaso éxito.
En realidad, los grandes juegos de mucho éxito llegaron del Japón. Hay dos
juegos, clásicos indiscutibles, que llegaron a crear incluso problemas con la dis-
ponibilidad de monedas para las máquinas recreativas en las que funcionaban.
Se trata de Space Invaders (1978) de la empresa Taito y de Pacman (1980) de
Namco (llamado Puck-man en el Japón y que alteró su nombre al llegar a los
Estados Unidos para que a nadie se le ocurriera cambiar la “p” por una “f”).
95-132 cap5:llibreUOC 20/5/08 11:57 Página 117
Hipertexto
Cuando se nos dice que hay ya más de 500 millones de usuarios de Internet
es evidente que, implícitamente, se nos recuerda que unos 5.500 millones de
personas todavía no la utilizan. Pero el hecho de que utilice Internet menos del
diez por ciento de la población mundial no significa que no se trate de un fenó-
meno de gran importancia. De momento, gracias a las consultas de informa-
ción en la telaraña mundial (WWW), millones de personas se han habituado al
uso del hipertexto, un viejo sueño de visionarios que, aunque parezca mentira,
inventaron este concepto hace ya más de sesenta años.
La información escrita y, en concreto el libro, ha sido durando los últimos
siglos el medio tradicional de transmisión de conocimientos. A lo largo de los
años, su forma fundamentalmente secuencial de representar la información
(algo obligatorio a causa de la “tecnología del papel”), se ha ido complemen-
tando con elementos auxiliares de ayuda a la lectura y a la localización de la
información: índices, notas a pie de página, glosarios, referencias bibliográfi-
cas, etc.
En particular, enciclopedias y diccionarios, quizás los más puros ejemplos de
compendios de conocimiento humano, se distinguen por la gran variedad de
mecanismos de acceso, descripción y referencias cruzadas entre sus elementos
de información. Pero, inevitablemente, “el papel” impone sus límites... y su
estructura secuencial.
Lo curioso es constatar que, aunque los siglos, las costumbres y las posibili-
dades hayan podido convertir en “natural” esta clásica representación secuen-
cial de la información, no puede decirse que sea la que mejor se corresponde
con la naturaleza del aprendizaje intelectual humano a través de la lectura, la
reflexión y la escritura. Estos procesos cognitivos, así como nuestra propia
memoria, muestran un carácter marcadamente asociativo que tiene poco en
común con la linealidad del libro.
Conocida esta posible contradicción, hace ya bastantes años que se empezó
a pensar en otras posibilidades de lectura más presuntamente adecuadas a la
95-132 cap5:llibreUOC 20/5/08 11:57 Página 118
tener una tabla de asignación de ficheros (FAT: file allocation table) para cono-
cer la asignación de espacio en disco de los ficheros.
En cualquier caso, con el tiempo, el MS-DOS (en cierta manera estable y útil
a partir de la versión 2.1) se convirtió en el viejo padre del Windows y se reve-
ló como un sistema muy duradero: existió oficialmente desde 1981 hasta 1995,
aunque el Windows 95 (anunciado en agosto de 1995) se construye como una
interfaz GUI (Graphical User Interface) sobre la última versión del MS-DOS que
quedaba oculta al usuario. El resto, como se dice, ya es historia.
95-132 cap5:llibreUOC 20/5/08 11:57 Página 125
No siempre la informática fue tan fácil de utilizar. Sólo hace un par de déca-
das que se ha extendido el uso de la interfaz que hoy se ha convertido en habi-
tual, la que algunos denominan WIMP, compuesta por ventanas (Windows),
iconos (Icons), ratón (Mouse) y menús desplegables emergentes (Pop-up menu).
Lo que hoy todo usuario de ordenadores conoce y utiliza fue en su momento
una pequeña revolución, un verdadero cambio de paradigma. Y, aunque pueda
parecer mentira, su adopción no fue fácil.
La primera forma de relacionarnos con los ordenadores, la tradicional, uti-
lizaba lo que podríamos llamar “paradigma acción-objeto”. Primero se mencio-
na la acción que se desea efectuar y, después, el objeto u objetos afectados. Se
dice: “borrar archivo”, “ejecutar programa” o “copiar fichero”. Así funcionan
los viejos sistemas operativos de los cuales UNIX o MS-DOS continúan siendo
buenos ejemplos.
Ahora hemos cambiado a un “paradigma objeto-acción”, que conocían muy
bien los que empezaron a trabajar con un Macintosh (desde 1984) o en un PC
compatible IBM con Windows 3.0 sobre MS-DOS (bastante más tarde, hacia
1990). Primero seleccionamos el objeto que resultará afectado y, después, esco-
gemos la acción que deseamos hacer: con el ratón marcamos un archivo y, una
vez determinado así el objeto, lo arrastramos hasta la papelera, un icono que
nos sugiere la acción que pretendemos: borrar. La secuencia es exactamente al
revés que la de antes: “archivo borrar”.
El paradigma objeto-acción es más sencillo, resulta mucho más próximo a
la manera como nos relacionamos con el mundo real. Cuando deseo tirar físi-
camente alguna cosa a la papelera, primero cojo el objeto y después lo despla-
zo hasta dejarlo caer en la papelera. De aquí la facilidad de aprendizaje del
nuevo paradigma, de la nueva interfaz. Se trata de algo que ya sabíamos hacer,
lo que hemos hecho siempre. No es necesario que nos lo enseñen de nuevo. La
vida de cada día nos ha servido de escuela. Por eso es fácil aprender a utilizar
la informática de hoy.
95-132 cap5:llibreUOC 20/5/08 11:57 Página 126
proyecto conocido como GNU (“GNU is Not Unix”, solía decirse en broma,
aunque, también, gnu es el término inglés para el ñu, un antílope de África del
Sur del cual algún diccionario dice que “parece un caballo con cabeza de toro”).
Poco después, Stallman fundó la Free Software Foundation para extender la
idea de software libre que se expresa de manera clara en la licencia de distribu-
ción: GPL (General Public License). Una forma de autorizar el uso de los pro-
gramas que impide de manera tajante que nadie pueda considerarse propieta-
rio de un software GPL. (Toda la información relevante se puede encontrar en
www.gnu.org.)
Sin embargo, obviamente, el nombre de free software significa tanto ‘softwa-
re libre’ como ‘software gratuito’, y éste fue el pecado original del proyecto de
Stallman. En nuestro mundo capitalista nadie se fía de un producto que se
anuncia como gratuito. Por eso, en 1997, Eric S. Raymond sugirió para este tipo
de software la nueva denominación de código abierto (open source) que parece
haber hecho fortuna. (Véase más información en www.opensource.org.)
Con gran molestia de Stallman, quién continúa defendiendo su proyecto
original del software libre más estricto, Raymond parece ser, de momento, el
propagandista máximo del nuevo movimiento del código abierto, al lado de
importantes valedores como Linus Torvalds (creador del Linux), Bruce Perens,
Tim O’Reilly y otros.
En el marco del código abierto se utiliza un nuevo tipo de licencia de distri-
bución, un poco más abierta y menos radical que la del software gratuito. Llega
a permitir una cierta mezcla de software libre en el sentido más estricto, con la
inclusión de rutinas cuya propiedad se reconoce y se mantiene. Se trata de un
claro intento de superar el ámbito reducido y militante del movimiento de
Stallman, tal vez más radical pero menos efectivo a la práctica.
En el marco del nuevo código abierto, se acepta incluso que la gratuidad
pueda no ser completa. Las empresas que distribuyen Linux suelen cobrar un
precio simbólico por el CD de distribución, pero también ofrecen soporte téc-
nico, una novedad reciente que parece haber conseguido que Linux deje de ser
útil sólo para los especialistas en informática.
Con toda seguridad, al lado de lenguajes como el PERL, compiladores mul-
tilenguaje, herramientas multiplataforma como el GNU Emacs de Stallman y
sistemas de interfaz gráfica de usuario como el GNOME, el software libre más
95-132 cap5:llibreUOC 20/5/08 11:57 Página 131
Anexo 1
La informática en Cataluña en los años sesenta.
Un caso representativo: La Seda de Barcelona
A continuación se pretende dar una idea del inicio del uso de la informáti-
ca en las aplicaciones comerciales de gestión en los años sesenta en España y,
más concretamente, en Barcelona. Un periodo del que sólo nos separan unos
cuarenta años, pero que, dado el dinamismo evolutivo de la tecnología infor-
mática, presenta unas características del todo diferentes a los procesos actuales
de informatización.
Se aborda el estudio del caso de la empresa La Seda de Barcelona a partir de
las declaraciones de su responsable informático de entonces. Se trata, creemos,
de un ejemplo paradigmático de la introducción de la informática en una
empresa barcelonesa, con la instalación de uno de los ordenadores y sistemas
informáticos más utilizados en la década de los sesenta.
La Seda de Barcelona era una empresa del sector textil encuadrada inicial-
mente en el grupo holandés AKU. Cuando AKU se fusionó con AZO nació el
grupo AKZO. Aunque al principio de los años sesenta parece que La Seda no
estaba informatizada, su socio holandés disponía de diversas tabuladoras y,
también, de ordenadores IBM 1401 con tarjetas perforadas.
En el año 1964, La Seda de Barcelona firmó el contrato de uno de los prime-
ros equipos de la serie 360 que IBM instaló en Barcelona. El contrato lo nego-
ció Juan Carlos Ribera, comercial de IBM. El plazo de entrega habitual de la
época era de un año, pero la llegada real del equipo se retrasó hasta febrero de
1967.
Para el arranque del sistema, La Seda contrató a un joven ingeniero indus-
trial y economista, Manuel Costa Romero de Tejada, que se incorporó a la
empresa en marzo de 1965 como “responsable de informática” y permaneció
en ella hasta agosto de 1971.
Las informaciones que siguen proceden, en su mayor parte, de una larga
conversación con el Sr. Costa, mantenida en forma de entrevista semiestructu-
rada según un guión de bloques temáticos establecido previamente.
El equipo adquirido por La Seda en el año 1964 era un IBM 360/20 con tar-
jetas (fichas, se decía en IBM), sin cintas ni discos magnéticos. Disponía de 8
Kbytes de memoria, una impresora de líneas de 144 caracteres por línea con
tecnología “en cadena” que alcanzaba una velocidad de 250 líneas por minu-
to. También estaba equipado con una unidad “multifuncional” con dos casille-
ros de entrada y cinco de salida que podían también perforar fichas. El 360/20
que se tenía que instalar no disponía todavía de sistema operativo, y se pensa-
ba trabajar preferentemente con programas escritos en una primera versión del
lenguaje generador de listados RPG.
Este equipo IBM 360/20, completado con cuatro máquinas perforadoras y
cuatro verificadoras de tarjetas, tenía un precio de alquiler en torno a las
250.000 pesetas/mes. El alquiler se refería a un uso del equipo de 8 horas/día,
y el posible exceso se facturaba mensualmente a un tanto la hora. Eran las con-
diciones habituales en la época, cuando el precio del hardware incluía en cier-
ta manera el software, la formación de los técnicos, la asistencia técnica nece-
saria, e incluso un periodo de tiempo de uso de equipos parecidos para la prue-
ba de programas (block time).
Como curiosidad cabe decir que el primer 360/20 (junto con un 1130) que
se vio en España fue presentado por IBM en Barcelona, parece que al principio
de 1965, en un avión especial, el CompuTour, aparcado en el aeropuerto de
Barcelona. Se trataba de un recorrido promocional por toda Europa para hacer
demostraciones de una media hora destinadas a clientes actuales o futuros
(prospectos, en el lenguaje comercial de la época). Juan Vila fue quien atendió
allí al personal de La Seda.
La instalación física del equipo requería una sala con aire acondicionado,
falso suelo y alimentación eléctrica especial con toma de tierra fabricada expre-
samente. Como los equipos se alquilaban y no se vendían, la propiedad de los
mismos equipos quedaba siempre en manos del constructor, que, con sus espe-
cialistas en instalaciones de equipos (site planing), se encargaba de exigir y man-
tener las buenas condicionas de uso de las máquinas.
Hay que destacar que el plazo de entrega inicial era de un año, pero el retra-
so en la realización y la obtención de los programas hizo que el equipo no se
133-146 Anexo1:llibreUOC 20/5/08 12:20 Página 138
instalara hasta febrero de 1967. El volumen y peso del equipo que se tenía que
instalar supuso la imprescindible contratación de una grúa y la demolición de
una pared de la futura sala del ordenador para que el equipo pudiera ser intro-
ducido.
Costa dice recordar que, cuando la memoria disponible resultó escasa, se
contrataron 4 Kbytes adicionales, lo que elevó el alquiler mensual hasta unas
320.000 pesetas/mes. Los 4 Kbytes adicionales se contrataron, parece, en 1967
y se instalaron al principio de 1968. El volumen de la ampliación de memoria
casi obligó a demoler de nuevo la pared de la sala de ordenadores, hecho que
se evitó ya que IBM (propietaria de la maquinaría como se ha dicho cedida sólo
en régimen de alquiler) accedió a suprimir el embalaje para poder introducir la
ampliación de memoria con una grúa y sin demoler otra vez las paredes.
En palabras del mismo Costa a finales de los años noventa: “Ahora te lleva
4 megas en el bolsillo para instalarlas tú mismo en casa, y es mil veces más que
aquella ampliación en la que no sabíamos si tendríamos que derribar la pared
exterior para poder entrarla en la sala. Ahora, 4 megas las llevas en el bolsillo y
te vas a coger el autobús...”. Sólo diez años después de la frase de Costa, muchos
pueden llevar una memoria USB de 4 gigas en el bolsillo.
El IBM 360/20 duró hasta noviembre de 1968, cuando llegó su sucesor, una
máquina mayor, el IBM 360/25 (que trabajó al principio en emulación 360/20)
con dos cintas magnéticas y dos discos de 7.25 Megaoctetos. Disponía de 36
Kbytes de memoria (que muy poco después tuvieron que ser ampliadas a 48
Kbytes). El coste del alquiler ascendía ya a 750.000 pesetas/mes.
menos evolucionado que el Autocoder del IBM 1401, y francamente muy dife-
rente al RPG en el cual, por recomendación de IBM Barcelona, se tenían que
implementar las aplicaciones de La Seda.
Al volver de Holanda, Costa se incorporó al curso que seguían los dos nue-
vos “programadores” de La Seda para descubrir que no parecían aprender
demasiado y, al mismo tiempo, constataba que la falta de información, inclu-
so en IBM Barcelona, era francamente grave.
En realidad, el socio holandés de La Seda disponía sólo de máquinas IBM
1401 cuya memoria era de, como máximo, 1 o 2 Kbytes. Los 8 Kbytes del
360/20 parecían muchos, pero la realidad es que incluso los 20 Kbytes de los
que se disponía en el Centro de Servicio IBM en Holanda resultaron insuficien-
tes para los programas que se habían hecho y que se llevaron allí para probar a
finales de 1965 en un viaje posterior.
En palabras de Costa: “Trabajábamos en unas condiciones tan malas, había
tan poca información, que prácticamente lo teníamos que inventar todo, y des-
pués resultaba que te habías equivocado lamentablemente porque te ponías a
diseñar sin saber que, para diseñar cadenas de programas, había que tener en
cuenta lo que cabía en el ordenador. Eso no lo habíamos tenido en cuenta por-
que, además, 8 K las considerábamos enormes”.
Afortunadamente, con los manuales provisionales (pre-release) del 360/20
que Costa había conseguido en el centro de IBM de Holanda, Juan José
Usobiaga, experto de IBM y asesor técnico de IBM en la instalación de La Seda,
pudo poner al día la documentación obtenida por él mismo en un viejo curso
internacional al cual había asistido meses antes en IBM Portugal.
Como consecuencia de la inexperiencia generalizada y de esta falta de infor-
mación, fue necesario volver a diseñar las cadenas de programas para que estu-
vieran formadas por un mayor número de programas más pequeños, pero eso
no evitó tener que solicitar una ampliación de memoria.
En palabras de Costa: “Los holandeses nos decían que con 8 K y poder com-
pactar dos dígitos en un byte nos tenía que sobrar memoria por todas partes. Y
resultó que los programas no cabían en el ordenador”.
La consecuencia principal de la escasez de información y de haber tenido
que rehacer los programas fue que la entrega del equipo se retrasó hasta febre-
ro de 1967, a petición de La Seda, sugerida por Costa. Era más de un año des-
133-146 Anexo1:llibreUOC 20/5/08 12:20 Página 140
pués a la previsión inicial. Mientras tanto, se trabajó con el IBM 1401 del
Centro de Cálculo de IBM en Barcelona situado en la plaza Urquinaona.
Al final, aunque IBM Barcelona había recomendado utilizar el nuevo len-
guaje generador RPG, las aplicaciones se tuvieron que escribir su mayor parte
en ensamblador (Assembler). En realidad se utilizó sólo el RPG para programar
las entradas y salidas, y la mayor parte del proceso se hizo en ensamblador (gra-
cias a la socorrida instrucción “EXIT ASSEMBLER”) para alcanzar la mayor com-
pactación posible de los programas.
Hay que reseñar como resumen final la falta incluso en la década de los
sesenta de un sistema reglado de formación técnica en informática, la inexis-
tencia como tal de una “profesión informática” y, sobre todo, la escasa infor-
mación disponible (tanto por parte de los clientes como de las filiales espa-
ñolas de las empresas fabricantes...). Todo ello llevó, en el caso de La Seda y
en muchos otros más, a una lentitud exagerada en la utilización real de los
nuevos ordenadores. Una constatación que, por desgracia, no se corresponde
en absoluto con la imagen popular de una cierta sofisticación técnica de la
informática.
También conviene destacar el excepcional tamaño físico y la envergadura de
unos equipos que, a pesar de eso, ofrecían una potencia informática y una
capacidad de proceso ridículamente pequeña ante lo que, sólo una o dos déca-
das más tarde, se hizo habitual.
133-146 Anexo1:llibreUOC 20/5/08 12:20 Página 142
Anexo 2
Breve historia de la inteligencia artificial
A partir del famoso artículo de Alan Turing, “Computer Machinery and inte-
lligence” (1950) se establece el test de Turing como forma de determinar el
carácter inteligente o no del comportamiento de una máquina.
El test parte del juego en el que un interrogador tiene que descubrir el sexo
de dos interlocutores A y B situados en otra habitación cuando, aunque los dos
dicen ser mujeres, son en realidad un hombre y una mujer. En la propuesta ori-
ginal de Turing, se trata de sustituir a la mujer por un ordenador, pero la gene-
ralización final del test de Turing es que el interrogador tiene que descubrir
quién es la máquina de dos interlocutores, una persona y un ordenador, aun-
que los dos dicen ser humanos. Y hay que cumplir este objetivo incluso sabien-
do que los interlocutores no están obligados a decir la verdad y que, por ejem-
plo, la máquina puede decidir dar un resultado erróneo en una multiplicación
o decir el resultado bastante tiempo después de haberlo obtenido, para engañar
al interlocutor sobre la propia habilidad de cálculo.
En la línea de lo que imaginaron Stanley Kubrick y Arthur C. Clarke con su
HAL de 2001, una odisea del espacio, la verdad es que el mismo Alan Turing pen-
saba, con excesivo optimismo, que en el año 2000 (y por lo tanto en el 2001)
se podría disponer de ordenadores lo bastante potentes para conseguir que un
interrogador humano normal no tuviera más del 70% de posibilidades de hacer
la identificación correcta después de un interrogatorio de cinco minutos. Hoy
sabemos que tanto Turing como Kubrick y Clarke fueron demasiado optimis-
tas. HAL continúa siendo ciencia-ficción.
En 1955, Allen Newell, J.C. Shaw y Herbert Simon crearon lo que posible-
mente fue el primer lenguaje especializado de la inteligencia artificial: el IPL-II
(Information Processing Language, lenguaje para procesar información). Pero el
nombre de la nueva disciplina no se hizo público hasta la conferencia de vera-
no del año 1956 en el Darmouth College en Hanover (Nueva Hampshire). Allí
se encontraron por primera vez los cuatro autores pioneros y fundamentales de
los primeros veinte años de la inteligencia artificial: John McCarthy, Marvin
Minsky, Allen Newell y Herbert Simon, los cuales crearon grupos de estudio
especializados en diversas universidades, como el MIT (Minsky), Stanford
(McCarthy) y Carnegie-Mellon (Newell y Simon). En la Dartmouth
147-156 Anexo2:llibreUOC 20/5/08 12:05 Página 151
Con el éxito de los sistemas expertos, durante los años ochenta empiezan a
aparecer empresas y proyectos especializados en ofrecer soluciones comerciali-
zables basadas en técnicas de inteligencia artificial. Las aplicaciones se concen-
tran en dominios acotados y se pone mucho énfasis en el conocimiento real del
dominio concreto. Así, es posible notar que muchas tareas tienen requisitos
que se pueden satisfacer con una shell o esqueleto de sistema experto en el cual
se puede añadir, en cada caso, el conocimiento específico relativo a cada domi-
nio de aplicación en particular. Ello conduce a generalizar las aplicaciones en
las que se empiezan a utilizar los paquetes de programas y las shells y los
toolkits de sistemas expertos.
Además de las aplicaciones ya operativas de los sistemas expertos, la inteli-
gencia artificial tiene mucho renombre y resonancia popular a principios de los
años ochenta gracias al proyecto japonés de la Quinta Generación de
Ordenadores. Se trata de un proyecto conjunto de diversas empresas, impulsa-
do desde 1979 por el Ministerio de Industria y Comercio Internacional del
Japón, que pretendía desarrollar una nueva “generación” de ordenadores adap-
tados a las necesidades que se preveían para la década de los noventa. Esta
nueva “generación” basaría su funcionamiento en técnicas típicas de la inteli-
gencia artificial: la utilización del lenguaje natural para dialogar con el ordena-
dor, la programación en PROLOG, etc. Desgraciadamente el proyecto fracasó.
El proyecto sirvió, sin embargo, para estimular también a otros países en su
atención a la inteligencia artificial. En particular tuvo bastante impacto el libro
The Fifth Generation de Feigenbaum y McCorduck (1983), que advertía del
“peligro” de una pretendida superioridad japonesa en el futuro de la informá-
tica mediante el dominio de las técnicas de la inteligencia artificial.
147-156 Anexo2:llibreUOC 20/5/08 12:05 Página 155
Bibliografía
Berners-Lee, Tim (2000). Tejiendo la red: el inventor del World Wide Web nos
descubre su origen. Madrid: Siglo XXI de España Editores.
Burks, Arthur W.; Burks, Alice R. (1981). “The ENIAC: First General-
Purpose Electronic Computer”, en la revista Annals Of the History of
Computing (vol. 3. núm. 4. pág. 310-399).
Bush, Vannevar (1945). “As we may think”, en la revista The Atlantic Monthly
(julio 1945).
157-162 Biblio:llibreUOC 20/5/08 12:03 Página 158
Carroll, Paul (1993). BIG BLUES: The Unmaking of IBM. Nueva York: Crown
Publishers, Inc.
Clough, Bryan; Mungo, Paul. (1992) Los piratas del chip: la mafia informàti-
ca al desnudo. Barcelona: Ediciones B.
Hodges, Andrew (1983). Alan Turing: The Enigma. Londres: Burnett Books.
Ifrah, Georges (1994). Histoire universelle dels chiffres, París: Robert Laffont.
Versión en anglés: The Universal History of Computing: From the Abacus to the
Quantum Computer. Nueva York: John Wiley & Sons, Inc. (2001).
Kidder, Tracy (1981). El alma de una nueva máquina. Buenos Aires: Gedisa,
1983.
Lloret, Oriol (editor) (2000). Converses sobre els orígens d’Internet a Catalunya.
Barcelona: BETA Editorial.
157-162 Biblio:llibreUOC 20/5/08 12:03 Página 159
McCorduck, Pamela (1979). Machines Who Think: A Personal Inquiry into the
History and Prospects of Artificial Intelligence. San Francisco: W.H. Freeman
and Company. Edición en castellano: Máquinas que piensan: una incursión
personal en la historia y perspectivas de la inteligencia artificial. Madrid: Tecnos,
1991.
Moseley, Maboth (1964). Irascible Genius: The Life of Charles Babbage. Londres:
Hutchinson & Co.
Quittner, Joshua i Slatalla, Michelle (1998). Speeding The Net: The Inside
History of NETSCAPE and how it Challenged Microsoft. Nueva York: Atlantic
Monthly Press.
Rodgers, William (1969). THINK: A Biography of the Watsons and IBM. Nueva
York: New American Library.
Rojas, Raúl i Hashagen, Ulf (2000). The First Computers: history and architec-
tures. Cambridge (Massachusetts): The MIT Press.
Rose, Frank (1989). West of Eden: The End of Innocence at Apple Computer.
Nueva York: Viking, Peguin.
Segaller, Stephen (1999). NERDS: A Brief History of the Internet. Nueva York:
TV Books.
Smith, Douglas K.; Alexander, Robert C. (1988). Fumbling the Future: How
Xerox Invented, then Ignored, the First Personal Computer. Nueva York: William
Morrow and Company, Inc.
Watson Jr., Thomas J.; Petre, Peter (1990). El imperio IBM: un negocio fami-
liar. Barcelona: Plaza & Janés (Col. Biografías y Memorias, 1992).
DIVULGACIÓN CIENTÍFICA
LA INTEL·LIGÈNCIA ARTIFICIAL
Barcelona - Editorial UOC, Vull Saber 4 - setembre 2005
PARADOJAS II: LA CIENCIA EN LA CIENCIA-FICCIÓN
Madrid - Equipo Sirius - Colección Transversal, núm. 1 – 2005
PARADOJAS: LA CIENCIA EN LA CIENCIA-FICCIÓN
Madrid - Equipo Sirius - Colección Tau, núm. 1 - 2000
CIENCIA-FICCIÓN
LA CIÈNCIA-FICCIÓN
Barcelona - Editorial UOC, Vull Saber 36 - octubre 2006
EL OTOÑO DE LAS ESTRELLAS (novela)
escrita con Pedro Jorge Romero
Barcelona - Ediciones B - Col. NOVA, núm 143 - 2001
157-162 Biblio:llibreUOC 20/5/08 12:03 Página 162
OTROS (participaciones)
TIEM(POS) MODERNOS
Carmen Gallego (coordinadora)
Madrid, Equipo Sirius, 2007.
EL DISSENY DEL FUTUR
Miquel Barceló (coordinador)
Barcelona, Proa, La mirada científica, 57. 2002.
ENTRE LA POR I L’ESPERANÇA:
percepció de la tecnociència en la literatura i el cinema
Jordi Font-Agustí (coordinador)
Barcelona, Proa, La mirada científica, 56. 2002.
10 IMPACTES DE LA CIÈNCIA
Joaquim Pla (coordinador)
Vic, Eumo Editorial, 2000
(desde 2003 existe traducción al castellano en Fondo de Cultura
Económica)
CIENCIA, TECNOLOGÍA I SOCIETAT
Coordinado por Josep Maria Esquirol y escrito por diversos autores
Barcelona - Universitat Oberta de Catalunya - octubre 1998