Está en la página 1de 36

c  

 

    
  
   
 

       

     
    
 
     
 
 
           
 

c   
 
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

El
  ha sido un componente importante del proceso de cálculo y almacenamiento
de datos desde que se volvió útil para que los valores numéricos fueran procesados y
compartidos. El hardware de computador más primitivo fue probablemente el palillo de
cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente
ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las
excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes,
contadores y los oficiales del gobierno de la época.

Los dispositivos de ayuda provenientes de la computación han cambiado de simples


dispositivos de grabación y conteo al ábaco, la regla de cálculo, el computadora analógica y
los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del
ábaco usando un dispositivo que tiene más de 100 años puede a veces completar
operaciones básicas más rápidamente que una persona inexperta en el uso de las
calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los
computadores son más efectivos que el humano más experimentado.

  
[ocultar]

Ê 1 Los dispositivos más antiguos


Ê º Introducción
Ê è Primeras calculadoras
Ê  1801: Tecnología de tarjeta perforada
Ê [ 19è0s-1960s: Calculadoras de escritorio
Ê 6 Computadoras análogas avanzadas
Ê Î Primeros computadores digitales
‘Ê Î.1 Z-series de Konrad Zuse: Las primeras computadoras controladas por
programa
‘Ê Î.º Colossus
‘Ê Î.è Desarrollos norteamericanos
‘Ê Î. ENIAC
Ê 8 La máquina de von Neumann de primera generación y otros trabajos
Ê 9 Segunda generación: Transistores
Ê 10 Post-1960: Tercera generación y más allá
Ê 11 Véase también
Ê 1º Notas al pie
Ê 1è Referencias
Ê 1 Enlaces externos
‘Ê 1.1 Historia británica

^      


La humanidad ha usado dispositivos de cómputo por milenios. Un ejemplo es el dispositivo
para establecer la igualdad de peso: las clásicas balanzas. Una máquina más aritmética es el
ábaco. Se piensa que la forma más antigua de este dispositivo ²el ábaco de polvo² fue
inventado en Babilonia. El ábaco egipcio del grano y del alambre datan del año [00 A.C.

En la antigüedad y en la edad media se construyeron algunos computadores analógicos para


realizar cálculos de astronomía. Entre ellos estaba: el Mecanismo de Anticitera, un
mecanismo de la antigua Grecia (aprox. 1[0-100 a. C.), el Planisferio; algunas de las
invenciones de [[Al-Biruomputadores}] analógicos de astrónomos e ingenieros
musulmanes.

^    


Los computadores pueden ser separados en software y hardware. El á  

  es la máquina física, que bajo la dirección de un programa, almacena y
manipula los datos. Originalmente, los cálculos fueron hechos por seres humanos, quienes
fueron llamados 
, como 
    o profesión. Este artículo cubre los
principales desarrollos en la
  
   , y procura ponerlos
en contexto. Para una detallada línea de tiempo vea el artículo línea de tiempo de la
computación. El artículo Historia de la computación trata de los métodos previstos para la
pluma y el papel, con o sin la ayuda de tablas. Puesto que las calculadoras digitales confían
en el almacenamiento digital, y tienden a estar limitadas por el tamaño y la velocidad de la
memoria, la historia del almacenamiento de datos del computador está unido al desarrollo
de las computadoras.

^    


ë 
    
 
Suanpan (el número representado en el cuadro es 6.è0º.Î1[.08)

Durante milenios, la humanidad ha usado dispositivos para ayudar en los cálculos. El


dispositivo de contar más temprano fue probablemente una cierta forma de palito de contar.
Posteriores ayudas para mantener los registros incluyen la arcilla de Fenicia que
representaban conteos de artículos en contenedores, probablemente ganado o granos. Una
máquina más orientada hacia la aritmética es el ábaco. La forma más temprana de ábaco, el
ábaco de polvo, había sido usado en Babilonia tan temprano como en º.00 A.C.. Desde
entonces, muchas otras formas de tablas de contar han sido inventadas, por ejemplo en una
casa de cuenta medieval, un paño a cuadros sería colocado en una mesa, como una ayuda
para calcular sumas de dinero, y los marcadores se movían alrededor en ella según ciertas
reglas.

Los engranajes están en el corazón de dispositivos mecánicos como la calculadora de Curta.

Un número de computadores análogos fueron construidos en épocas antiguas y


medioevales para realizar cálculos astronómicos. Éstos incluyen el mecanismo de
Anticitera y el astrolabio de la Grecia antigua (c. 1[0-100 A.C.). Estos dispositivos son
usualmente considerados como las primeras computadoras análogas. Otras versiones
tempranas de dispositivos mecánicos usados para realizar ciertos tipos de cálculos incluyen
el Planisferio; algunas de las invenciones de Al-Biruni (c. AD 1000); el Equatorium de
Azarquiel (c. AD 101[); y los computadores astronómicos análogos de otros astrónomos e
ingenieros musulmanes medievales.

John Napier (1[[0-161Î) observó que la multiplicación y la división de números pueden


ser realizadas por la adición y la sustracción, respectivamente, de los logaritmos de esos
números. Mientras producía las primeras tablas logarítmicas Napier necesitó realizar
muchas multiplicaciones, y fue en este punto que diseñó los huesos de Napier, un
dispositivo similar a un ábaco usado para la multiplicación y la división.
Puesto que los números reales pueden ser representados como distancias o intervalos en
una línea, la regla de cálculo fue inventada en los años 19º0 para permitir que las
operaciones de multiplicación y de división se realizarán perceptiblemente más
rápidamente que lo que era posible previamente. Las reglas de cálculo fueron usadas por
generaciones de ingenieros y de otros trabajadores profesionales con inclinación
matemática, hasta la invención de la calculadora de bolsillo. Los ingenieros del programa
Apollo para enviar a un hombre a la Luna, hicieron muchos de sus cálculos en reglas de
cálculo, que eran exactas a tres o cuatro dígitos significativos.

La regla de cálculo, una calculadora mecánica básica, facilita la multiplicación y la


división.

Calculadora mecánica de 191.

En 16ºè, Wilhelm Schickard construyó la primera calculadora mecánica digital y por lo


tanto se convirtió en el padre de la era de la computación.º Puesto que su máquina usó
técnicas tales como dientes y engranajes desarrollados primero para los relojes, también fue
llamada un 'reloj calculador'. Fue puesto en uso práctico por su amigo Johannes Kepler,
quien revolucionó la astronomía.

Una original calculadora de Pascal (160) es presentada en el museo de Zwinger. Siguieron


las máquinas de Blaise Pascal (la Pascalina, 16º) y de Gottfried Wilhelm von Leibniz
(16Î1). Alrededor 18º0, Charles Xavier Thomas de Colmar creó la primera calculadora
mecánica excitosa producida en serie, El Aritmómetro de Thomas, que podía sumar, restar,
multiplicar, y dividir. Estaba basado principalmente en el trabajo de Leibniz. Las
calculadoras mecánicas, como el Addiator de base diez, el Comptómetro, la calculadora
Monroe, el Curta y el Addo-X permanecieron en uso hasta los años 19Î0.

Leibniz también describió el sistema de numeración binario, un ingrediente central de todas


las computadoras modernas. Sin embargo, hasta los años 190, muchos diseños
subsecuentes fueron basados en el difícil de implantar sistema decimal, incluyendo las
máquinas de Charles Babbage de los años 1800 e incluso el ENIAC de 19[.

^    !

Sistema de tarjeta perforada de una máquina de música.

Sistema de tarjeta perforada de un telar del siglo XIX.

Tan temprano como en 1κ[, Basile Bouchon, quien fue alumno de Carlos Bruné, usó un
lazo de papel perforado en un telar para establecer el patrón a ser reproducido en la tela, y
en 1κ6 su compañero de trabajo, Jean-Baptiste Falcon, mejoró su diseño al usar tarjetas
perforadas de papel unidas una a la otra para la eficacia en adaptar y cambiar el programa.
El telar de Bouchon-Falcon era semiautomático y requería la alimentación manual del
programa.
En 1801, Joseph Marie Jacquard desarrolló un telar en el que el patrón que era tejido era
controlado por tarjetas perforadas. La serie de tarjetas podría ser cambiada sin cambiar el
diseño mecánico del telar. Esto un hito en programabilidad.

En los años 1890, Herman Hollerith inventó una máquina tabuladora usando tarjetas
perforadas.

En 18èè, Charles Babbage avanzó desde desarrollar su máquina diferencial a desarrollar un


diseño más completo, la máquina analítica, que, para su programación, tomaría prestada
directamente las tarjetas perforadas del telar Jacquar. [1].

En 18è[ Charles Babbage describió su máquina analítica. Era el plan de una computadora
programab qle de propósito general, empleando tarjetas perforadas para la entrada y un
motor de vapor para la energía. Una invención crucial fue usar engranajes para la función
servida por los granos de un ábaco. En un sentido real, todos los ordenadores contienen
ábacos automáticos (técnicamente llamados como la unidad aritmético lógica o la unidad de
punto flotante).

Su idea inicial era usar las tarjetas perforadas para controlar una máquina que podía
calcular e imprimir con precisión enorme las tablas logarítmicas (una máquina de propósito
específico). La idea de Babbage pronto se desarrolló en una computadora programable de
propósito general, su máquina analítica.

A pesar que su diseño era brillante y los planes eran probablemente correctos, o por lo
menos depurables, el proyecto fue retardado por varios problemas. Babbage era un hombre
difícil para trabajar con él y discutía con cualquier persona que no respetara sus ideas.
Todas las partes para su máquina tenían que ser hechas a mano. En una máquina con miles
de partes, a veces los pequeños errores en cada elemento pueden acumularse, terminando
en grandes discrepancias. Esto requería que estas partes fueran mucho mejores que las
tolerancias que podían obtenerse con la tecnología de esa época. El proyecto se disolvió en
conflictos con el artesano que construyó las partes y fue terminado cuando se agotó el
financiamiento del gobierno.

Ada Lovelace, hija de Lord Byron, tradujo y agregó notas al "Sketch of the Analytical
Engine" por Federico Luigi, Conte Menabrea. Ella ha sido asociada cercanamente con
Babbage. Algunos afirman que ella fue el primer programador de computadoras del mundo,
no obstante esta afirmación y el valor de sus otras contribuciones son discutidos por
muchos.

Una reconstrucción la Máquina Diferencial II, un diseño anterior, más limitado, ha estado
operacional desde 1991 en el Museo de Ciencia de Londres. Con algunos cambios triviales,
trabaja como Babbage la diseñó y demuestra que Babbage estaba correcto en teoría.

El museo usó máquinas herramientas operadas por computador para construir las partes
necesarias, siguiendo las tolerancias que habría podido alcanzar un maquinista de ese
período. Algunos creen que la tecnología de ese tiempo no podía producir partes de
suficiente precisión, aunque esto aparece ser falso. La falla de Babbage en terminar la
máquina puede ser principalmente atribuida a dificultades no solamente relacionadas con la
política y el financiamiento, pero también con su deseo de desarrollar una computadora
cada vez más sofisticada. Hoy, muchos en el campo de la computación llaman a esta clase
obsesión  
  (algo así como "caracterititis creciente", es decir, el deseo de
agregar cada vez más y más características).

En 1890, la Oficina del Censo de los Estados Unidos usó tarjetas perforadas, las máquinas
de ordenamiento, y las máquinas tabuladoras diseñadas por Herman Hollerith para manejar
la inundación de datos del censo decenial ordenado por la constitución de Estados Unidos.
La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. La IBM
desarrolló la tecnología de la tarjeta perforada en una poderosa herramienta para el
procesamiento de datos de negocios y produjo una extensa línea de equipos de registros de
unidades?? especializados. Por 19[0, la tarjeta de IBM había llegado a ser ubicua en la
industria y el gobierno. La advertencia impresa en la mayoría de las tarjetas previstas para
la circulación como documentos (cheques, por ejemplo), "No doblar, no perforar ni
mutilar", se convirtió en un lema para la era posterior a la Segunda Guerra Mundial.è

Siguiendo los pasos de Babbage, aunque ignorante de este anterior trabajo, Percy Ludgate,
un contable de Dublín, Irlanda, diseñó independientemente una computadora mecánica
programable, que describió en un trabajo que fue publicado en 1909.

Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas, y las publicaciones de
Wallace Eckert sobre       
     
, describieron técnicas que fueron suficientemente avanzadas para solucionar
ecuaciones diferenciales, realizar multiplicación y división usando representaciones de
punto flotante, todo ello hecho con tarjetas perforadas y las máquinas de registro de
unidades??. La Oficina de Computación Astronómica Thomas J. Watson, de la Universidad
de Columbia realizó cálculos astronómicos representando el estado del arte en la
Computación.

En muchas instalaciones de computación, las tarjetas perforadas fueron usadas hasta (y


después) del final de los años 19Î0. Por ejemplo, en muchas universidades alrededor del
mundo los estudiantes de ciencia e ingeniería someterían sus asignaciones de programación
al centro de computación local en forma de una pila de tarjetas, una tarjeta por línea de
programa, y entonces tenían que esperar que el programa estuviera en cola para ser
procesado, compilado, y ejecutado. En espera para la impresión de cualquier resultado,
marcado con la identificación de quien lo solicitó, sería puesto en una bandeja de salida
fuera del centro de computación. En muchos casos estos resultados serían solamente un
listado de mensajes de error con respecto a la sintaxis, etc, del programa, necesitando otro
ciclo de edición-compilación-ejecución[º]. A      
 
        .

Las tarjetas perforadas todavía son usadas y manufacturadas a este día, y sus dimensiones
distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas en formas,
registros, y programas alrededor del mundo.

^ "#$"%     

Calculadora de Curta.

Por los años 1900, las primeras calculadoras mecánicas, cajas registradoras, máquinas de
contabilidad, etcétera fueron rediseñadas para usar motores eléctricos, con la posición de
engranajes como representación para el estado de una variable. Desde los años 19è0,
compañías como Friden, Marchant Calculator y Monroe hicieron calculadoras mecánicas
de escritorio que podían sumar, restar, multiplicar y dividir. La palabra "computador" era
un título de trabajo asignado a la gente que usaba estas calculadoras para realizar cálculos
matemáticos. Durante el Proyecto Manhattan, el futuro laureado premio Nobel, Richard
Feynman, fue el supervisor de un cuarto lleno de computadoras humanas, muchos de ellos
eran matemáticos mujeres, que entendían las ecuaciones diferenciales que eran
solucionadas para el esfuerzo de la guerra. Después de la guerra, incluso el renombrado
Stanislaw Ulam fue presionado en servicio para traducir las matemáticas a aproximaciones
computables para la bomba de hidrógeno.

En 198, fue introducido el Curta. Éste era una calculadora mecánica pequeña y portable,
que tenía el tamaño aproximado de una amoladora de pimienta. Con el tiempo, durante los
años 19[0 y los años 1960 aparecieron en el mercado una variedad de diferentes marcas de
calculadoras mecánicas.

La primera calculadora de escritorio completamente electrónica fue la ANITA Mk.VII


británica, que usaba una pantalla de tubo Nixie y 1ÎÎ tubos tiratrón subminiatura. En junio
de 196è, Friden introdujo la EC-1è0 de cuatro funciones. Tenía un diseño completamente
transistorizado, la capacidad 1è dígitos en un CRT de [ pulgadas (1è0 mm), e introdujo la
notación polaca inversa (RPN) al mercado de las calculadoras con un precio de $ºº00. El
modelo EC-1èº añadió la raíz cuadrada y funciones recíprocas. En 196[, los laboratorios
Wang produjeron el LOCI-º, una calculadora de escritorio transistorizada de 10 dígitos que
usaba una exhibición de tubo Nixie y podía computar logaritmos.

Con el desarrollo de los circuitos integrados y los microprocesadores, las calculadoras


grandes y costosas fueron sustituidas por dispositivos electrónicos más pequeños.

^     &

Analizador diferencial de Cambridge, 19è8.


ë 
   
    

Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas


eran consideradas el "estado del arte", y muchos pensaban que eran el futuro de la
computación.

Las computadoras análogas toman ventaja de las fuertes similitudes entre las matemáticas
de propiedades de pequeña escala -- la posición y el movimiento de ruedas o el voltaje y la
corriente de componentes electrónicos -- y las matemáticas de otros fenómenos físicos, ej.
trayectorias balísticas, inercia, resonancia, transferencia de energía, momento, etc.
Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre
usar modelos físicos:

1.Ê los componentes eléctricos son más pequeños y baratos; son más fácilmente
construidos y ejercitados.
º.Ê Aunque de otra manera similar, los fenómenos, eléctricos se pueden hacer que
ocurran en marcos de tiempo convenientemente cortos.

Centralmente, los sistemas trabajaron creando   eléctricos de otros sistemas,


permitiendo a los usuarios predecir el comportamiento de los sistemas de interés al
observar los análogos eléctricos. La más útil de las analogías fue la manera en que el
comportamiento en pequeña escala podía ser representado con ecuaciones integrales y
diferenciales, y por lo tanto podía ser usado para solucionar esas ecuaciones. Un ingenioso
ejemplo de tal máquina fue el integrador de agua construido en 19º8; un ejemplo eléctrico
es la máquina de Mallock construida en 191.

A diferencia de las computadoras digitales modernas, las computadoras análogas no eran


muy flexibles, y necesitan ser reconfiguradas (es decir, reprogramadas) manualmente para
cambiarlas para trabajar de un problema a otro. Las computadoras análogas tenían una
ventaja sobre los primeros computadores digitales en que podían ser usadas para solucionar
problemas complejos usando comportamientos análogos mientras que las primeras
tentativas en las computadoras digitales eran absolutamente limitadas. Pero a medida que
las computadoras digitales han venido siendo más rápidas y usaban memorias más grandes
(ej, RAM o almacenamiento interno), han desplazado casi completamente a las
computadoras análogas, y la programación de computadores, o codificación ha surgido
como otra profesión humana.

Puesto que las computadoras eran raras en esta era, las soluciones eran a menudo hard-
coded en las formas de papel como gráficas y nomogramas, que entonces podían producir
soluciones análogas a esos problemas, tales como la distribución de presiones y
temperaturas en un sistema de calefacción.

Algunas de las computadoras análogas más extensamente desplegadas incluyeron


dispositivos para apuntar armas, tales como los sistemas Norden bombsight y Fire-control
system para embarcaciones navales. Algunos de éstos permanecieron en uso por décadas
después de la segunda guerra mundial. Un ejemplo es el Mark I Fire Control Computer,
desplegado por la Armada de los Estados Unidos en una variedad de naves desde los
destructores a los acorazados.

Otros ejemplos incluyeron el Heathkit EC-1, y la computadora hidráulica MONIAC.

El arte de la computación análoga alcanzó su cenit con el Differential analyser, inventado


en 18Î6 por James Thomson y construido por H. W. Nieman y Vannevar Bush en el MIT
comenzando en 19ºÎ. Fueron construidas menos de una docena de estos dispositivos; el
más poderoso fue construido en la Escuela Moore de Ingeniería Eléctrica en la Universidad
de Pensilvania, donde también fue construido el ENIAC. Las computadoras electrónicas
digitales, como el ENIAC, significaron el fin para la mayoría de las máquinas análogas de
computación, pero las computadoras análogas híbridas, controladas por electrónica digital,
permanecían en substancial uso en los años 19[0 y los años 1960, y más adelante en
algunas aplicaciones especializadas.

^     


La era de computar moderno comenzó con un explosivo desarrollo antes y durante la
Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los
condensadores, y los tubos de vacío reemplazaron los equivalentes mecánicos y los
cálculos digitales reemplazaron los cálculos análogos. Las máquinas como el Atanasoff±
Berry Computer, Zè, Colossus, y el ENIAC fueron construidas a mano usando circuitos
que contenían relés o válvulas (tubos de vacío), y a menudo usaron tarjetas perforadas o
cintas perforadas para la entrada y como el medio de almacenamiento principal (no volátil).

En esta era, un número de diferentes máquinas fueron producidas con capacidades que
constantemente avanzaban. Al principio de este período, no existió nada que se asemejara
remotamente a una computadora moderna, excepto en los planes perdidos por largo tiempo
de Charles Babbage y las visiones matemáticas de Alan Turing y otros. Al final de la era,
habían sido construidos dispositivos como el EDSAC, y son considerados universalmente
como computadores digitales. Definir un solo punto en la serie, como la "primera
computadora", pierde muchos sutiles detalles.

El texto escrito por Alan Turing en 19è6 probó ser enormemente influyente en la
computación y ciencias de la computación de dos maneras. Su principal propósito era
probar que había problemas (nombrados el problema de la parada) que no podían ser
solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una
definición de una computadora universal, una construcción que vino a ser llamada máquina
de Turing, un dispositivo puramente teórico que formaliza el concepto de ejecución de
algoritmo, reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt
Gödel. Excepto por las limitaciones impuestas por sus almacenamientos de memoria
finitos, se dice que las computadoras modernas son Turing completo, que es como decir
que tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de
Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la
capacidad umbral que separa las computadoras de uso general de sus precursores de
propósito específico.

Para que una máquina de computación sea una computadora de propósito general práctica,
debe haber algún mecanismo de lectura/escritura conveniente, como por ejemplo la cinta
perforada. Para la completa versatilidad, la arquitectura de Von Neumann usa la misma
memoria para almacenar tanto los programas como los datos; virtualmente todas las
computadoras contemporáneas usan esta arquitectura (o alguna variante). Mientras que es
teóricamente posible implementar una computadora completa mecánicamente (como
demostró el diseño de Babbage), la electrónica hizo posible la velocidad y más adelante la
miniaturización que caracterizan las computadoras modernas.
En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de
la computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas en
secreto. La primera fue el trabajo alemán de Konrad Zuse. La segunda fue el desarrollo
secreto de la computadora Colossus en el Reino Unido. Ninguna de éstas tuvieron mucha
influencia en los varios proyectos de computación en los Estados Unidos. La tercera
corriente de desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly,
fue publicada extensamente.

^ '$ ( '   




Una reproducción de la computadora Z1 de Zuse.

Trabajando aisladamente en Alemania, en 19è6 Konrad Zuse comenzó la construcción de


sus primeras calculadoras de la Z-series que ofrecían memoria y programabilidad (limitada
inicialmente). La Z1 de Zuse, que aunque puramente mecánica ya era binaria, fue finalizada
en 19è8. Nunca trabajó confiablemente debido a problemas con la precisión de las partes.

La subsecuente máquina de Zuse, el Zè, fue finalizada en 191. Fue basada en relés
telefónicos y trabajó satisfactoriamente. El Zè se convirtió así en la primera computadora
funcional, de todo propósito, controlada por programa. De muchas maneras era muy similar
a las máquinas modernas, siendo pionera en numerosos avances, tales como números de
punto flotante. El reemplazo del difícil de implementar sistema decimal, usado en el diseño
temprano de Charles Babbage, por el más simple sistema binario, significó que las
máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las
tecnologías disponibles en aquel tiempo. Esto a veces es visto como la razón principal por
la que Zuse tuvo éxito donde Babbage falló.

Los programas fueron alimentados en el Zè por medio de películas perforadas. Faltaban los
saltos condicionales, pero desde los años 1990 se ha probado teóricamente que el Zè seguía
siendo un computador universal (ignorando sus limitaciones de tamaño físico de
almacenamiento). En dos aplicaciones de patente de 19è6, Konrad Zuse también anticipó
que las instrucciones de máquina podían ser almacenadas en el mismo almacenamiento
usado para los datos - la idea clave de lo que sería conocido como la arquitectura de Von
Neumann y fue implementada por primera vez en el posterior diseño del EDSAC británico
(199). Zuse también decía haber diseñado el primer lenguaje de programación de alto
nivel, (Plankalkül), en 19[ (que fue publicado en 198) aunque fue implementado por
primera vez en º000 por un equipo alrededor de Raúl Rojas en la Universidad Libre de
Berlín - cinco años después de que murió Zuse.

Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas
fueron destruidas en el curso de las campañas aliadas de bombardeos. Aparentemente su
trabajo en gran parte siguió siendo desconocido a los ingenieros en el Reino Unido y los
E.E.U.U. hasta mucho más tarde, aunque al menos la IBM estaba enterada de ellos pues
financiaron a su compañía de lanzamiento de posguerra en 196 en el retorno por una
opción en las patentes de Zuse.

^   

ë 
   


Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron un


número de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de
cifrado alemana, Enigma, fue atacada con la ayuda de máquinas electromecánicas llamadas
bombes. La bombe, diseñada por Alan Turing y Gordon Welchman, después de la bomba
criptográfica polaca (19è8), eliminaba ajustes posibles del Enigma al realizar cadenas
deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades
conducían a una contradicción, y las pocas restantes se podían probar a mano.

Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, muy
diferentes del Enigma. La máquina Lorenz SZ 0/º fue usada para las comunicaciones de
alto nivel del ejército, llamada "Tunny" por los británicos. Las primeras intercepciones de
los mensajes Lorenz comenzaron en 191. Como parte de un ataque contra los Tunny, el
profesor Max Newman y sus colegas ayudaron a especificar el colossus. El Mk I colossus
fue construido entre marzo y diciembre de 19è por Tommy Flowers y sus colegas en el
Post Office Research Station en Dollis Hill en Londres y después enviado a Bletchley Park.

El colossus fue el primer dispositivo de computación totalmente electrónico. El colossus


usó una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y era
capaz de ser configurado para realizar una variedad de operaciones de lógica booleana en
sus datos, pero no era Turing completo. Fueron construidos nueve Mk II Colossi (el Mk I
fue convertido en un Mk II haciendo diez máquinas en total). Los detalles de su existencia,
diseño, y uso fueron mantenidos secretos bien entrados los años 19Î0. Winston Churchill
personalmente publicó una orden para su destrucción en piezas no más grandes que la mano
de un hombre. debido a este secreto los Colossi no fueron incluidos en muchas historias de
la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en
exhibición en Bletchley Park.

^ )    

En 19èÎ, Claude Shannon produjo su tesis magistral en el MIT que por primera vez en la
historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. La tesis
de Shannon, intitulada A Symbolic Analysis of Relay and Switching Circuits (Un análisis
simbólico de circuitos de conmutación y relés), esencialmente funda el diseño de circuitos
digitales prácticos.

En noviembre de 19èÎ, George Stibitz, entonces trabajando en los Laboratorios Bell,


terminó una computadora basada en relés que calculaba con la adición binaria y apodó con
el nombre de "Modelo K" (por "kitchen" (cocina), donde él la había ensamblado). A finales
de 19è8, los Laboratorios Bell autorizaron un programa de investigación completo con
Stibitz al timón. Su Complex Number Calculator, terminado el 8 de enero de 190, podía
calcular números complejos. En una demostración del 11 de septiembre de 190 en la
conferencia de la American Mathematical Society en el Dartmouth College, Stibitz pudo
enviar, al Complex Number Calculator, comandos remotos sobre líneas telefónicas por un
teletipo. Fue la primera máquina de computación usada remotamente, en este caso sobre
una línea telefónica. Algunos participantes en la conferencia que atestiguaron la
demostración eran John Von Neumann, John Mauchly, y Norbert Wiener, quien escribió
sobre ello en sus memorias.

En 19è9, John Vincent Atanasoff y Clifford E. Berry de Iowa State University


desarrollaron el Atanasoff Berry Computer (ABC), una calculadora electrónica digital de
propósito especial para solucionar sistemas de ecuaciones lineares. La meta original era
solucionar º9 ecuaciones simultáneas de º9 incógnitas cada una, pero debido a errores en el
mecanismo del perforador de tarjetas la máquina terminada solamente podía solucionar
algunas ecuaciones. El diseño usaba más de è00 tubos de vacío para alta velocidad y
empleaba para la memoria condensadores fijados en un tambor que rotaba mecánicamente.
Aunque la máquina ABC no era programable, fue la primera en usar circuitos electrónicos.
El co-inventor del ENIAC, John Mauchly, examinó el ABC en junio de 191, y su
influencia en el diseño de la posterior máquina ENIAC es una cuestión de controversia
entre los historiadores del computador. El ABC fue en gran parte olvidado hasta que se
convirtió en el foco del pleito legal Honeywell vs. Sperry Rand, la decisión invalidó la
patente de ENIAC (y varias otras), entre muchas razones por haber sido anticipado por el
trabajo de Atanasoff.

En 19è9, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark I.
Conocido oficialmente como el Automatic Sequence Controlled Calculator, el Mark I fue
una computadora electromecánica de propósitos generales construida con el financiamiento
de la IBM y con la asistencia del personal de la IBM, bajo dirección del matemático de
Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina Analítica de Babbage,
usando ruedas de aritmética y almacenamiento decimal e interruptores rotatorios además de
relés electromagnéticos. Era programable vía una cinta de papel perforado, y contenía
varias unidades de cálculo trabajando en paralelo. Versiones posteriores contuvieron varios
lectores de cinta de papel y la máquina podía cambiar entre los lectores basados en una
condición. Sin embargo, la máquina no era absolutamente Turing completa. El Mark I fue
trasladado a la universidad de Harvard y comenzó la operación en mayo de 19.

^ *+, 
ë 
   !"#ë

El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de energía.

El ENIAC (Electronic Numerical Integrator and Computer), construido en los Estados


Unidos, fue el primer computador electrónico de propósito general. Construido bajo la
dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania, era
1.000 veces más rápido que sus contemporáneos. El desarrollo y la construcción del
ENIAC duró desde 19è hasta estar operativo completamente al final de 19[.

Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares de
delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el ENIAC
estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Sin embargo, era
capaz de miles de operaciones por segundo por horas enteras entre las fallas de válvulas.
Validó abiertamente el uso de la electrónica para la computación en gran escala. Esto fue
crucial para el desarrollo del cómputo moderno.

El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo, un


"programa" en el ENIAC era definido por los estados de sus cables de remiendo e
interruptores, una decepcionante disparidad con las máquinas electrónicas de programa
almacenado que se desarrollaron a partir del ENIAC. Programarlo significaba recablearlo.
Las mejoras completadas en 198 hicieron posible ejecutar programas almacenados fijados
en memoria de tabla de función, que hizo la programación menos un esfuerzo
"único/realizado solo una vez/único en su tipo"??, y más sistemático.

^ -  +  


   ./ 
Incluso antes de que el ENIAC estuviera terminado, Eckert y Mauchly reconocieron sus
limitaciones y comenzaron el diseño de una nueva computadora, el EDVAC, que debía
tener programa almacenado. John von Neumann escribió un reporte de amplia circulación
que describía el diseño del EDVAC en el que tanto los programas como los datos de trabajo
estaban almacenados en un solo unificado almacén. Este diseño básico, que sería conocido
como la arquitectura de von Neumann, serviría como la base para el desarrollo de las
primeras computadoras digitales de propósito general realmente flexibles.
En esta generación, el almacenamiento temporal o de trabajo fue proporcionado por líneas
de retardo acústico, que usaban el tiempo de propagación del sonido a través de un medio
como el mercurio líquido (o a través de un alambre) para almacenar datos brevemente. Una
serie de pulsos acústicos eran enviados a lo largo de un tubo; después de un tiempo, en lo
que el pulso alcanzaba el extremo del tubo, el circuito detectaba si el pulso representaba un
1 ó un 0 y causaba al oscilador volver a reenviar el pulso. Otros usaron los tubos de
Williams, que utilizan la capacidad de un tubo de imagen de televisión para almacenar y de
recuperar datos. Por 19[, la memoria de núcleo magnético rápidamente desplazó la
mayoría de las otras formas de almacenamiento temporal, y dominó el campo hasta
mediados de los años 19Î0.

El "Bebé" en el Museo de Ciencia e Industria (MSIM), de Manchester (Inglaterra).

La primera máquina funcional de von Neumann fue el "Baby" ("Bebé") de Manchester o


Small-Scale Experimental Machine, construida en la universidad de Mánchester en 198;
fue seguida en 199 por el computador Manchester Mark I que funcionó como un sistema
completo usando el tubo Williams y el tambor magnético para la memoria, y también
introdujo los registros de índice. El otro competidor para el título de "primer computador
digital de programa almacenado" había sido el EDSAC, diseñado y construido en la
Universidad de Cambridge. Operacional en menos de un año después de la Manchester
"Baby", también era capaz de abordar problemas reales. EDSAC fue inspirado de hecho
por los planes para el EDVAC (Electronic Discrete Variable Automatic Computer), el
sucesor del ENIAC; estos planes ya estaban en el lugar correcto para el tiempo en que el
ENIAC fue operacional exitosamente. A diferencia del ENIAC, que usaba el procesamiento
paralelo, el EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y
fue el primero en ser implementado en cada exitosa onda de miniaturización, y creciente
confiabilidad. Algunos ven al Manchester Mark I/EDSAC/EDVAC como las "Evas" de la
cuales casi todas las computadoras actuales derivan su arquitectura.

La primera computadora programable universal en la Unión Soviética fue creada por un


equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del Instituto Kiev de
Electrotecnología, Unión Soviética (ahora Ucrania). El computador MESM (w w, Small
Electronic Calculating Machine) estuvo operacional en 19[0. Tenía cerca de 6.000 tubos de
vacío y consumida º[ kW de energía. Podía realizar aproximadamente è.000 operaciones
por segundo. Otra máquina temprana fue el CSIRAC, un diseño australiano que corrió su
primer programa de prueba en 199. CSIRAC es el computador más viejo todavía en
existencia y el primero en haber sido usado para ejecutar música digital.

En octubre de 19Î, los directores de J. Lyons & Company, una compañía británica del
famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las
nuevas técnicas de gerencia de oficinas, decidido a tomar un papel activo en promover el
desarrollo comercial de los computadores. Por 19[1 el computador LEO I estuvo
operacional y corrió el primer job de computador de oficina rutinario regular del mundo.

La máquina de la universidad de Manchester se convirtió en el prototipo para la Ferranti


Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de
19[1 y por lo menos otras nueve fueron vendidas entre 19[1 y 19[Î.

En junio de 19[1, el UNIVAC I (Universal Automatic Computer) fue entregado a la


Oficina del Censo de los Estados Unidos. Aunque fue fabricada por Remington Rand, la
máquina con frecuencia fue referida equivocadamente como la "IBM UNIVAC".
Eventualmente Remington Rand vendió 6 máquinas en más de $1 millón por cada una. El
UNIVAC era el primer computador 'producido en masa'; todos los predecesores habían sido
unidades 'únicas en su tipo'. Usó [.º00 tubos de vacío y consumía 1º[ kW de energía. Usó
para la memoria una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11
dígitos decimales más el signo (palabras de κ bits). A diferencia de las máquinas de la
IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta
magnética de metal al estilo de los años 19è0, haciéndola incompatible con algunos
almacenamientos de datos comerciales existentes. La cinta de papel perforado de alta
velocidad y las cintas magnéticas del estilo moderno fueron usados para entrada/salida por
otras computadoras de la era.

En noviembre de 19[1, la compañía J. Lyons comenzó la operación semanal de un Job de


valuaciones de panadería en el LEO (Lyons Electronic Office). Éste fue la primera
aplicación de negocio en tener vida en un computador de programa almacenado.

En 19[º, la IBM anunció público el IBM Î01 Electronic Data Processing Machine, la
primera en su excitosa Î00/Î000 series y su primer computador IBM mainframe. El IBM
Î0, introducido en 19[, usó la memoria de núcleo magnético, que se convirtió en el
estándar para las máquinas grandes. El primer lenguaje de programación de propósitos
generales de alto nivel implementado, FORTRAN, también fue desarrollado en la IBM para
los Î0 durante 19[[ y 19[6 y lanzado a principios de 19[Î. (El diseño en 19[ del leguaje
de alto nivel Plankalkül, de Konrad Zuse, no fue implementado en aquel tiempo).

En 19[ la IBM introdujo un computador más pequeño y más económico que probó ser
muy popular. El IBM 6[0 pesaba más de 900 kg, la fuente de alimentación pesada
alrededor 1.è[0 kg y ambos fueron contenidos en gabinetes separados de más o menos 1,[
x 0,9 x 1,8 metros. Costaba $[00.000 o podía ser arrendada por $è.[00 al mes. Su memoria
de tambor tenía originalmente solamente º.000 palabras de diez dígitos, y requería una
programación arcana para una eficiente computación. Las limitaciones de la memoria tales
como ésta iban a dominar la programación por décadas posteriores, hasta la evolución de
las capacidades del hardware y un modelo de programación que eran más benévolos al
desarrollo del software.

En 19[[, Maurice Wilkes inventó la microprogramación, que fue posteriormente


ampliamente usada en los CPUs y las unidades de punto flotante de los mainframes y de
otras computadoras, tales como las series del IBM è60. La microprogramación permite al
conjunto de instrucciones base ser definido o extendido por programas incorporados en el
hardware (ahora a veces llamado como firmware, microcódigo, o milicódigo).

En 19[6, la IBM vendió su primer sistema de disco magnético, RAMAC (Random Access
Method of Accounting and Control). Usó [0 discos de metal de º pulgadas (610 mm), con
100 pistas por lado. Podía almacenar [ megabytes de datos y costaba $10.000 por
megabyte. (En º006, el almacenamiento magnético, en la forma de discos duros, costaba
menos de un décimo de un centavo por megabyte).

^ 0      


Inicialmente, se creía que serían producidos o utilizados muy pocos computadores. Esto era
debido en parte a su tamaño, al costo, y a la falta de previsión en los tipos de usos a los que
podían ser aplicados los computadores.

En 19[1 inicia la primera máquina de cálculo hecha en serie y hay un gran desarrollo de
estas máquinas, debido a la introducción de nuevas técnicas, de nuevas unidades y métodos
de programación. En 19[è el número de máquinas de cálculo en todo el mundo se eleva
hasta cerca de 100 unidades.

En 19[8 solamente los Estados Unidos tienen cerca de º.[00 modelos en total.

En Italia la primera máquina de cálculo fue colocada en 19[ en la Universidad Politécnico


de Milán y solamente en 19[Î es usada por una firma. En 19[8 es colocada en Italia un
décimo de las máquinas de cálculo, que apoyan cerca de Î00 empleados meccanográficos.
En la conclusión de la Primera Generación, al final de los años 19[0, las máquinas
electrónicas de cálculo han ganado la confianza de sus usuarios. Al principio eran
consideradas, más como instrumentos de cálculo y útiles para la investigación en la
universidad, que máquinas útiles por sus capacidades de procesar información, para las
corporaciones o las necesidades operativas de las firmas.

Las máquinas de cálculo superan más y más las restricciones debido a alguna construcción
y técnicas de programación no refinadas.

Su uso no representa más una "aventura" para las firmas y las corporaciones que las
colocan, sino que responden a la necesidad de solucionar los varios problemas operativos.

Alrededor de finalles de los años 19[0 los tubos fueron sustituidos por transistores. Esto
levanta lo que se conoce como la "segunda generación" de máquinas de cálculo.
Usando los transistores y mejorando las máquinas y los programas, la máquina de cálculo
se vuelve más rápida y económica y esto difunde en diez mil modelos en todo el mundo.
Por la situación económica general cambiante, el continuo crecimiento de las firmas, la
introducción de nuevas técnicas de organización y la gerencia de una firma, pasa de un uso
prevalente de contabilidad y estadístico a algunas aplicaciones más complejos que se
refieren a todos los sectores de activos.

El transistor fue realizado en 198 por los norteamericanos John Bardeen, Walter Brattain y
William Shockley que compartieron por su invención el Premio Nobel de Física de 19[6.
El transistor es un dispositivo electrónico hecho de cristal de silicio o germanio en los que
diferentes átomos de materiales son oportunamente insertados.

Para algunos valores de tensión eléctrica a la cual es expuesta el transistor, tiene la


capacidad de transmitir o no la corriente, así que puede representar el 1 ó el 0 que son
reconocidos por la máquina. Comparado a las válvulas, el transistor tiene muchos ventajas:
tienen un precio de fabricación más pequeño y una velocidad diez veces mayor, pasando de
la posición 1 a 0 en algunas millonésimas de segundo. Los tamaños de un transistor son de
algunos milímetros comparado a los muchos centímetros del tubo de vacío. Las direcciones
de operación segura son incrementadas porque los transistores, trabajando "en frío", evitan
las roturas que eran frecuentes en las válvulas debido al calentamiento. Así, las máquinas
son construidas con decenas de miles de circuitos complejos que son incluidos en un
pequeño espacio.

Entre los sistemas de la segunda generación marcamos el IBM 101, que fue instalado
desde 1960 hasta 196 en más de cientos de miles de modelos, monopolizando alrededor de
un tercio del mercado mundial. En este período también estuvo la única tentativa italiana: el
ELEA de Olivetti, producido en 110 modelos.

El desarrollo notable de las máquinas de cálculo y de sus aplicaciones en este período no es


debido solamente a la característica del CPU (Unidad Central de Proceso), pero también a
las continuas mejoras hechas en las memorias auxiliares y en las unidades para la toma y
emisión de datos.

Las memorias de discos pueden manejar decenas de millones de letras o dígitos. Más
unidades puedn ser conectadas al mismo tiempo a la máquina de cálculo, llevando así la
capacidad de memoria total a algunos cientos de millones de caracteres.

Cerca de los discos que están conectados firmemente con la unidad central son introducidas
algunas unidades en las cuales las pilas de discos son móviles y pueden ser fácilmente
reemplazados por otra pila en pocos segundos.

Incluso si la capacidad de discos móviles es más pequeña comparada a las fijas, su


intercambiabilidad garantiza una capacidad ilimitada de datos que están listos para la
elaboración.

Las máquinas de cálculo de la segunda generación, a través de un dispositivo particular


hecho para ordenar los datos interiores, pueden sobreponer diferentes operaciones, esto
significa leer y perforar las tarjetas al mismo tiempo, ejecutar cálculos y tomar decisiones
lógicas, escribir y leer la información en cintas magnéticas.

Para garantizar el continuo cambio de información entre el centro y la periferia, surgen las
unidades terminales que tienen que transmitir los datos a la máquina de cálculo central que
también puede estar a una distancia de cientos de kilómetros gracias a una conexión
telefónica.

^ $"%   . 


ë 
   $   á  
 %&'  (

La explosión en el uso de computadores comenzó con los computadores de la 'tercera


generación'. Éstos dependían en la invención independiente de Jack St. Clair Kilby y
Robert Noyce, el circuito integrado (o microchip), que condujo más adelante a la invención
del microprocesador, por Ted Hoff y Federico Faggin en Intel.

Durante los años 1960 había un considerable solapamiento entre las tecnologías de la
segunda y la tercera generación. Tan tarde como en 19Î[, Sperry Univac continuaba la
fabricación de máquinas de segunda generación como el UNIVAC 9.

El microprocesador condujo al desarrollo del microcomputador, computadores pequeños,


de bajo costo, que podía ser poseído por individuos y pequeñas empresas. Los primeros
microcomputadores aparecieron en los años 19Î0, y llegaron a ser ubicuos en los años 1980
y más allá. Steve Wozniak, cofundador de Apple Computer, es acreditado por desarrollar el
primer computador casero comercializado masivamente. Sin embargo, su primera
computadora, el Apple I, vino algún tiempo después del KIM-1 y el Altair 8800, y la
primera computadora de Apple con capacidades de gráficos y de sonidos salió bien después
del Commodore PET. La computación se ha desarrollado con arquitecturas de
microcomputador, con características añadidas de sus hermanos más grandes, ahora
dominantes en la mayoría de los segmentos de mercado.

Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el
artículo seminal de Burks, Goldstein, von Neuman, documentado en la revista )  
de septiembre-octubre de 196º, que fue escrito, como versión preliminar 1[ años más
temprano. (ver las referencias abajo). Para el momento en que cualquier persona tuviera
tiempo para escribir cualquier cosa, ya era obsoleto.

c    


De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La
    se remonta al temprano desarrollo de las redes de comunicación.
La idea de una red de computadoras diseñada para permitir la comunicación general entre
usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la
infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta.
Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo
largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases
de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se
introdujo la World Wide Web(WWW), que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial
de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una
penetración en los países en desarrollo, creando un acceso mundial a información y
comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva
infraestructura. Internet también alteró la economía del mundo entero, incluyendo las
implicaciones económicas de la burbuja de las .com.

Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método


de la computadora central o unidad principal, que simplemente consistía en permitir a sus
terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años
cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en
Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros
investigadores de Santa Mónica (California) trabajando en demostración automática de
teoremas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider,


comprendió la necesidad de una red mundial, según consta en su documento de enero,
1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).

"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha"
las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados
avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider1

En octubre de 196º, Licklider fue nombrado jefe de la oficina de procesado de información


DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de
Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas.
Como parte del papel de la oficina de procesado de información, se instalaron tres
terminales de redes: una para la System Development Corporation en Santa Monica, otra
para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto
Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se
haría evidente por los problemas que esto causó.

"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por
tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en
Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en
la otra terminal para contactar con él.

Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que
fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."

Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications


Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York
Timesº

Como principal problema en lo que se refiere a las interconexiones está el conectar


diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos
trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que
Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard
Kleinrock (MIT) lo han inventado simultáneamente.è

    es una técnica que nos sirve para hacer un uso eficiente de los enlaces
físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los datos propiamente
dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de
la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los
paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

ÿ     


    
 
  
  



    

       
 
      
 

  
     

     


 
` 
    
  

  


  
       

 
 
   
    
   
  

 



      

 
 

    

!
  

" 
   
  
    #   

 


$ 

% &'((
 



  
  
 
     
  
  !
  

) 
* 
+ ,
  ) 
-.//01.2.34

 
 
 $ 



  #  
#  
   
  
      *


  
       
) 

"

+ ,
  
    "

) 
*
 
 
  

 
 
 

 
  
 
 

500   
 

 


   ! #  

     
  

 
  

!
 
ÿ 
  .300      #  



  
   
       


   
 
 
 
  6 
  
  


 
  
  
   
 
 
  

 !
 
.275 

   #+ 
ÿ  8
  !   
 



 




 
   
 




 
" 
0 9 
 
 
  
 
 
 "  

6
  #    !  
 6
 


 
  .230
$  

   
 * 
:

 

 $
  
 !
$ 

  #  "   
 !
 # 
; 
   
  
      $

    
 
 
        

    
 
 
 
 
 #  
.<<0

 "  
   

=
 = 
 
  $ 

   

    
    
    
 
  = 
  $      $ 
 "  
    

 
  $ 
.<90
     

   $ 
 
 

 "    

    
  
#  
 

  
>  # 

 &(&

  
 !
    ? 
+ 

 $
   
       
 ( !
$ 


 
    

 
       
 
  
 
 ;    
 
  + 
    
  
   8 8 + -.<./1.</54 

 # +     
!
 
  !


       
  
  " 
 
 
#   
   
         
   
 @
  

 !

   "   
"  
   
"  
 

  
 ( "   

  

  
  
 





    
          
     

 

   
     





  
 

  
 
 $  
     
   
 && 

  
 
   




 
  ? 

  

!      
 # 

 

   
"
     



 

  #  
  

   

   
      $ 
 
  
 

#    

   
  
  
 
    
  

    
   
  ! $ 

 

.977   
 
 
           




  
 
= A 8,

  !
 
= !    
  
 

 
  

; ,( 
  
  
 
   
   $  ; ,(  
#  

  


   $ 
  


  
 
 

    


     
  

  
  8
 

 
  /

  
       
    

 
 

 

     
"  
 !
 
     
 
     

 $  

  
  
.972 ÿ ,
 
:; 
  !
 
ÿ
!  %8

 $ )(8?? 
 

    
! 
 
          


 

   

 $ 
      $ 

   

  
 


 ((*
 ;  -.9B91.97/4 
 

" 
  

  
+

ÿ ,  

 

  

 
$


 
   



 $  C
G  =  
 

.97B

G  
    ./00!!    
! " 
   
 ! D

    

   8 >   
   
 

  
  
  

 .9B9  


 


 
   
8  ? +
  "       
 

 $  


( A %
? 

- 4 
    !
  
 
 



  

   

  
   

   

?   

   # 

 $  -
 # )(8?
 

 

  G  
4
.97/  )(8?

6 

  $
  

 
 

 
 8  1+
-
 #8+?   


G  
4 !  


 $
.93B!  #   

 )(8?
" .<000!! 
! " 
"  !
  
!  


  
   
   
 
    
  
" 

     

%
  $ 
 
 )(8?  
 


   

    
  
 

  
6   1
   

  ' )
    

  


 
    
   

   
 
  


!
  

 
 
 

 

$ 
 " 
 !

 
  

 
! !
 
 
  
 
8 

 #  
.9/0
 
   
  
 
 $

!





$ 

  !
 

 


 "    !! ?      
   



"  

 ! 6      
   

$
 


 

  

     
 
     


  

 $   



 

  "   
  



   
   $ 

 
   
G  

8 

 #  
.920  
$
 
  -?(4
   $ 
  $ 
!     

 6    
 


  




$       
  
 $  
 
$ 


 
     



    
  
 ! $
 

  
  
 #  
.930    $ 
 


 $   
  -%( $  
 
% 
(

4 
 

 

 $    
  -'%( $  
'
 
% 

(

4 !  

   


      
 6  
  
 

 

>

 

 



 

   
 !
      

 
  

!
  

 
      
"  
  
    


      $ 
ÿ
 *

 $ -.9/.1.9/<4
-+ 4
?  
"  ÿ  
C
%
        
! " 

"  
  
"  ! 

 ! 

  
;  

  %
  

 
  )(8?
 



-B0
  4
8   


"  !  

   
 
B00!    

 

  

8 


    $ 
    #  
    
  #   " 

 
 
 
 " 
     
   


   
?      



 
 
E

" 
   

 
    

 
ÿ   $ 

 
   " 
   

  

 
   
    $ 
    
 
8   
 
 

             
?    


! )('8?   
 




 


  8
.9/5
D  $       ! 
 !
  
 


  
 $ 
  $ 
    



%
  

 $ -.9/91.9274
->  
4
?     
! " 
         

 6  
 

 $ 

 
 !!      " 

 " 
  ÿ   
  !  
 
  " 


 
 


 

" 

  

 "    

 
         
  
?  
"  ÿ  
C
>    

    

  
 

    


  



          
 $ 
   
 $ 
  
  $ 
  
%     
   
  
"
    ! " 
;   
 !
  
  
 
  



   

;
  
 
 6


 
(  

  

C  
;
     ! 

       
 
  
 


   
 " 
# 
#  
(  $ 



  

8
    
 
   
   
   

 

   $  


    

   !
-   
   4
8 
 
 

 
   
  $ 
 $    $ 
  

>

 

 $ -.9271.93.4
? 
  -4
?  
"  ÿ  
C
? 
  
    
.9/<  ,F 
? 
     $ 
 $ 








   

  -4
;
  


" 
8
 

$ 

  
8

  
  
8
    
  





 
 


 
*

  $ 

 

   $ 
   !

?           A 


!
 
 
?    
%

B20(+;
>

 
 C%
   
 

 
 

 ?    
   

  
 

 
      $ 
+  
 

;    $ C?    

  
 !  ÿ   

 
 

>
 ?    C 
      !  

  
     


   


 

!
  
 

  



E
! $ 

# 
(  
$ 

 
8 $ 
  
C
ÿ 
 (   

   $ 

=  
8  8   $ 
 

      
?  

 $ -.93.1.9<54
-;  
  4
  
  C
 
 

$ 
   
  


  

  
   $      $ 

  

  
   
  

  
  




 
   

  
  
  
   
     



 
  
   
  
#   $!





   #  

;
   
 $  C%


  
  
 
  6
  #  


 
  

  

 $  

  8
  


  !



    
 

 
  
  $ 



%
 
  

 

 C
 
  ! 
  

 

!  
  

 $ 
 
  

  
$  

 
  

 

  

   





 A 
  A 


   


  
  
 
   $ 
?  
"  ÿ  

;  
  C
     (
?       
 

 
 
 -.93.4
;  
  C? (
  

6

   
%    

 

 ?    
!   
 
   
   
6 


  





%
     
    
  


E


 
 


 
* 
 $ 
 
 ?    
;
  

 $   
%
 
  

 

 
*

  $ 
   
C 
 
 
   

    
  
   !  C;
 =  ? 
   $ 8  
8   $ 
 ( 

" 

;  
 
;    

 
 
 
      !"
 $ 
 (

 8  

   ?     
G(

 = G     
    
   
H  
    


     
 ?      
 

 


 
 
 

  
   
! 


-   $ =
"  4

   ?    
  
  
! 

  

 
 



  ?     

   

  


     
  

 

  
 

  
 
! 
 
     
 
 


 
 
  


  

#   

!  

   $ 


 

?  
"  ÿ  
C
;  !
  
;     $ 
 



8
    

  
;  
  -ÿ 
  


  4

 
)  

 

   $ CÿEH*H-ÿ    4(%ÿ- ÿ 
 4
;   !    ! 



 
       
!
 

  
 
?   
  $ 


 


    $   



 
   
 
  $ 




 6
   

 
?  
"  
 
 
 
  

 
 
 

= 
 (

 8  
 


 

 
   

C
%
  
 
 
 

  
 + 
 -
      $ 4   

  


  
 
 -
 "
  

 
 


 4
 
 

 
        
     



  


        

 
  

 
   

   

 
6  


 ! 
  
 
 


  

     
    

 


 
  
   
 
 

 
  
  $ 
 
 
%
           

 
    

  " 

     
 
     
  
!
 
  
  
   

 
  
 
 

 
   

  

 
  
? 


     -  

 $  4
    

  
      
 
$  
  

  

 C     


# 

  
  
   # 


  



 
  
 
E $  
?
 

  

  
     

   E 
   !  
 

 



 
   

  

    ?      

    $ 

   
 E 



 6
 

   $  "
! 


   

   $ 
E     



!
$ 

 
 
  $ 

 C 
     
" 
  
   
 


E
 

 ' 
   


 

 !  

   
!       


     
 !   
  
  


 
   
   
    
 $ 

 c .1 (nacido el º8 de octubre de 19[[),1 más conocido como  


1, es un empresario y filántropoè estadounidense, cofundador de la empresa de
software Microsoft, productora del sistema operativo para computadoras personales más
utilizado en el mundo, Microsoft Windows.

Está casado con Melinda Gates,1 y ambos ostentan el liderazgo de la Fundación Bill y
Melinda Gates, dedicada a reequilibrar oportunidades en salud y educación a nivel local,
especialmente en las regiones menos favorecidas,[ razón por la cual han sido galardonados
con el Premio Príncipe de Asturias de Cooperación Internacional º006.è 6 Î

Es el segundo hombre más rico del mundo según la revista Forbes (º010) con una fortuna
de [è mil millones de dólares.

  
[ocultar]

Ê 1 Biografía
Ê º Véase también
Ê è Referencias
Ê  Enlaces externos

 !
William Henry Gates III nació el º8 de octubre de 19[[. Es hijo de William Henry Gates II,
un destacado abogado, y de Mary Gates, una profesora de la Universidad de Washington y
directora del First Interstate Bank. Con ellos y su hermana, dos años mayor, vivió en la
ciudad de Seattle, en el estado de Washington. Hasta sexto grado fue alumno regular de un
colegio público.

Cursó estudios en la escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya
una computadora en el año 1968, así que Gates tuvo la posibilidad de contactar pronto con
la máquina y aficionarse a la informática. También en Lakeside conoció a Paul Allen, con
quien más tarde fundaría Microsoft.

Creó la empresa de software Microsoft el  de abril de 19Î[, siendo aún alumno en la


Universidad Harvard. En 19Î6 abandonó la universidad y se trasladó a Albuquerque, sede
de Altair, para pactar con esa empresa la cesión de un lenguaje para computadoras, el
Basic, al [0% de las ventas. Al año siguiente, se enteró del éxito de la empresa Apple y de
que necesitaban un intérprete de Basic.
Bill Gates en el IT-Forum de Copenhague, año º00.

En 1980, se reunió con representantes de IBM en Seattle. Consiguió venderles el sistema


operativo *')+*, aunque él aún no lo tenía y luego lo compró a muy bajo precio a un
joven programador. IBM necesitaba ese sistema operativo para competir con Apple, razón
por la cual la negociación era flexible. Microsoft quiso los derechos de licencia,
mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó,
considerando que lo que produciría dividendos sería el hardware y no el software. Unos
días después, Microsoft compró los derechos de autor del ,)+* a Tim Paterson, que
trabajaba para la Seattle Computer Products, por [0.000 dólares, que vendió a IBM como
MS-DOS (Microsoft DOS). Lo que llama poderosamente la atención fue que IBM no
comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que se
vendiera junto con un IBM-PC. Lo que pocas veces se ha dicho es que por esos tiempos la
madre de Gates, Mary Maxwell, era directiva de la empresa United Way conjuntamente
con el CEO de IBM, John Opel. [ -
  ]

Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente
la interfaz gráfica y el "ratón" fueron desarrollados por Xerox PARC) en su ordenador Lisa,
se propuso conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve
Jobs, fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple.
Ofrecía mejorar sus hojas de cálculo y otros programas. Amenazaba con vender su material
informático a IBM, con lo que obtuvo una alianza Apple-Microsoft. Microsoft obtuvo
legalmente la tecnología del entorno gráfico y del ratón, y sacó al mercado Microsoft
Windows, como directo competidor de Macintosh.

Al comenzar el tercer milenio, el sistema operativo Microsoft Windows (en todas sus
versiones) se utiliza en la mayor parte de ordenadores personales del planeta.

Bill Gates está segundo en la lista anual de las mayores fortunas personales realizada por la
revista Forbes, con bienes calculados alrededor de los [è mil millones de dólares
estadounidenses en º010 superado por Carlos Slim con [è,[ mil millones. En 199,
adquirió un manuscrito de Leonardo da Vinci por è0 millones de dólares.
El 16 de junio de º006 hace pública su intención de abandonar sus labores diarias al frente
de Microsoft hacia º008 para dedicarse por entero a la fundación.8 9 La transición de
responsabilidades será progresiva para evitar afecciones negativas en el desarrollo diario de
la empresa, continuando como Presidente Honorario de la misma. El día ºÎ de junio de
º008 abandona sus labores al frente de Microsoft cediendo el control de la empresa a Steve
Ballmer; inicialmente Bill Gates tendrá dedicado su tiempo al Î0% con la Fundación Bill y
Melinda Gates y el otro è0% a la empresa.10

     !   
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
£#ë   -
.       /0 # .
    
 /0 #       % 
 (.

Se denomina     !   (,) a la rama de las Ciencias de la Computación1 º è


dedicada al desarrollo de agentes racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de
percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno
(proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una
elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado
(este concepto de racionalidad es más general y por ello más adecuado que inteligencia para
definir la naturaleza del objetivo de esta disciplina).

Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se


encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen
acciones o resultados que maximizan una medida de rendimiento determinada, basándose
en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.

Existen distintos tipos de conocimiento y medios de representación del conocimiento, el


cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo
agente utilizando técnicas de aprendizaje.

También se distinguen varios tipos de procesos válidos para obtener resultados racionales,
que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco
principales tipos de procesos son:

Ê Ejecución de una respuesta predeterminada por cada entrada (análogas a actos


reflejos en seres vivos).
Ê Búsqueda del estado requerido en el conjunto de los estados producidos por las
acciones posibles.
Ê Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
Ê Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de
animales y humanos).
Ê Razonamiento mediante una lógica formal (análogo al pensamiento abstracto
humano).

También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y


producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos
eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un
software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemas, planificación automática,


la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento
de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA
actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la
milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia
como ajedrez de computador y otros videojuegos.

` `  
  


  
`
 

 
         `  

 
  !"#$
%& %'()%*))( *+% ( '') 


,  - 
 . 
 / .012 
 .   

   ` ` . 
        
    - #    3  
 
     

` 
4  
`
 
  
   
     5 6      ')74.-  3 
8 1.9 0   3       - 
  
   
-   
 
    

` 
  
     -  -        
. 

 
  
 :3
 
 
  
8 1;
       -  
  
 6 
 .   
-  
-     `   
   -  
       3

3 
 

  
,

 

 
  

  .-<3       - 
,  = 
0 
 3   - 
-  
  6



`
  8 1 -  /   
    
6

   

  9  
6  
   .
-  
     
  -   
 1
   

:9 -
    ;
>- 
      
  
`
 
  


3     ` ` .
   ( 
  
    
`
  3
     
 .

 
6

 

  - 
 
 3     > 
  
 
          
.           
 

  
 
? 8  -   
< 

 

   
  
` .      
  
 
  
> 
 
 -  

6 
 . 
     
 


  
  .  .. . 3

   

5  
  

 
    .   

  /.   .
-    

 


:5 -   
  
   
  ;
2   -  6. 
   
  ,6.
     
    
    
     6 
 .
  
     - 7      
       

(). 
  
6 <   
` ` .
   
   

  
    
    3 '


  
 7      


Disputa científica entre el paradigma computacional y el de redes


neurales

¿Es el hombre un computador? La verdad es que, hoy por hoy, con los
resultados de la ciencia en la mano, es muy difícil atreverse a responder que
sí. Sin embargo, también es verdad que la computación, bien se trate de
modelos seriales o conexionistas, puede ayudar a entender muchos aspectos
funcionales de la mente humana. En cualquier caso, la actual tendencia de las
ciencias humanas a reducir al hombre a un computador tiene incuestionables
consecuencias, ya que una idea ³robótica´ del hombre sería difícilmente
compatible tanto con el humanismo que da sentido al orden social, como con
la idea religiosa de que el hombre es un ser constructor personal responsable
de su comportamiento. Por Javier Monserrat.

U !  !     



2 
La disciplina que trata sobre los sistemas de información (SI) está pasando
una crisis de identidad. Para la resolución de la misma algunos autores están
utilizando ideas procedentes de distintas tradiciones filosóficas. Por otra
parte, los SI y sus efectos constituyen un motivo de reflexión inevitable para
la filosofía actual. Estos dos factores han impulsado una aproximación entre
la disciplina de los SI y la filosofía, así como un incipiente diálogo entre
ambas. Empieza, pues, a perfilarse un campo que podríamos llamar filosofía
de la informática, en el que aparecen cuestiones ontológicas, epistemológicas,
metodológicas, axiológicas y otras tradicionalmente filosóficas. En esta
contribución presento una agenda tentativa para la filosofía de la informática.
Trato de aclarar la naturaleza de la misma, cuáles son sus riesgos, las
herramientas intelectuales con las que puede contar, y propongo algunos
núcleos temáticos esenciales.
La filosofía la informática debería ser también una filosofía  la
informática. La relación ha de ser, pues, un diálogo genuino, y no una mera
reflexión filosófica sobre un objeto extraño. La filosofía puede, en efecto,
aportar claridad sobre la naturaleza y efectos de la informática, en una
perspectiva histórica y contemporánea. Puede, así mismo, colaborar en la
elaboración de una visión de conjunto que capte las relaciones de la
informática con otros campos del conocimiento y la acción humana. También
puede contribuir a la discusión metodológica y a la clarificación de conceptos
clave (sistema, información, modelo...).
 / Filosofía de la Informática, Sistemas de Información,
Metodología, Ontología, Epistemología, Axiología.
Ô 

Podríamos preguntarnos por qué hace falta una conexión entre informática y
filosofía. Quizá la mejor respuesta es la siguiente: "la alternativa a la filosofía no
es la ausencia de filosofía, sino una mala filosofía" [è, p.199]. Cuando nos
negamos a hacer preguntas filosóficas, a discutirlas abiertamente, el resultado es
que damos por buenos una serie de supuestos ontológicos, epistemológicos y
axiológicos, pero de modo poco consciente, irreflexivo y acrítico.
La conexión entre filosofía e informática puede construirse de diferentes maneras.
La filosofía contemporánea tiene la tendencia a convertirse en "filosofía de", en
reflexión filosófica sobre un cierto campo de conocimiento o de actividad humana.
Así, se ha desarrollado una filosofía de la ciencia, una filosofía del arte o de la
tecnología... A veces esta reflexión filosófica ha resultado muy ajena al objeto
estudiado, y ha aportado más bien poco al desarrollo del mismo. En el caso de la
informática habría que tratar de evitar este error. Para ello nada mejor que darle al
"de" una significado amplio: una filosofía la informática debería ser también
una filosofía  la informática [1, p.11] [è, p.º00], es decir, una reflexión
filosófica que aportase algo al desarrollo de la informática, que resultase de alguna
ayuda para los investigadores en SI y contribuyese a la claridad conceptual. Este
objetivo sólo es posible si la reflexión filosófica se conduce como un diálogo entre
disciplinas, entre los profesionales de ambas. No basta con que los informáticos
interesados lean unos pocos textos filosóficos y traten de adaptar las ideas a sus
problemas, no es suficiente con que los filósofos observemos los resultados y
efectos de la investigación informática. El intercambio directo de puntos de vista
entre las dos comunidades es un requisito metodológico imprescindible para que la
filosofía de la informática tenga algún sentido y utilidad.
En la investigación filosófica se da una aparente aporía, parece que uno debiera
saber ya desde un comienzo cuál va a ser el resultado final de la misma. Aquí nos
proponemos tratar sobre la disciplina de los SI. Deberíamos, pues, saber sobre qué
hablamos. Pero resulta que una buena parte de los problemas filosóficos tienen que
ver precisamente con la identidad del objeto estudiado. Por ejemplo, cabe
preguntarse si de veras existe
     de los SI, o se trata de un mero
agregado de ciencias de la computación más ciencias de la administración, o de
una simple aplicación de las ciencias de la computación a problemas de
administración. Por supuesto, cabe preguntarse si lo que hasta el momento hemos
llamado disciplina de los SI es o no
   . Y ésta será una de las principales
cuestiones filosóficas con las que debamos enfrentarnos. Así mismo, son
cuestiones de interés filosófico la clarificación de los conceptos de    y de
  . Así pues, no podemos comenzar por una definición de "sistema", otra
de "información" y otra de "ciencia de los sistemas de información", porque una
buena parte del trabajo que resta por hacer consiste precisamente en aclarar dichos
conceptos y en decidir si estamos o no ante una ciencia, incluso si estamos o no
ante una disciplina propiamente tal. Pero, por otra parte, ¿cómo comenzar la
investigación sin saber siquiera cuál es el objeto investigado? La única posibilidad
consiste en aceptar provisionalmente unas estipulaciones iniciales y trabajar a
partir de las mismas, aunque durante la investigación tengamos que modificar
nuestros conceptos.
Así pues, partamos de los conceptos más o menos difusos e intuitivos que todos
tenemos de "sistema" y de "información", y convengamos, para empezar, en que
un sistema de información será "un grupo de componentes interrelacionados
(hardware, software, procedimientos, personas, bases de datos) que colaboran para
%
 (/  /   1   
     
1      / 1   2  " [9, p.[]. Aceptemos, al
menos provisionalmente, que hay una disciplina de los SI [9, pp.º-è]. Y tomemos
el término "informática" como sinónimo de "disciplina de los sistemas de
información" [[, p.11].
Ahora ya podemos comenzar con las preguntas acerca de si la informática es o no
una verdadera disciplina, acerca de su carácter científico, de su método, de sus
relaciones con otras disciplinas y de sus conceptos clave. Para captar la pertinencia
de estas preguntas tenemos que hacer un poco de historia. Este tipo de cuestiones
aparecen cuando un campo de estudio está sufriendo un proceso de crisis. En el
caso de la informática se trata, obviamente, de una crisis de crecimiento debida su
origen reciente y al desarrollo explosivo que ha conocido en las últimas décadas, al
número cada día más elevado y diverso de líneas de investigación abiertas [6], a su
creciente influencia sobre la vida de las personas y sobre la sociedad, a su
importancia económica, cultural... Así pues, en lo que sigue, haremos un breve
apunte histórico que nos traiga hasta la crisis actual de la informática y hasta el
contexto posmoderno en el que dicha crisis se produce (apartado º). Nos
preguntaremos por la naturaleza científica de la informática (apartado è), y por sus
relaciones con otras disciplinas (apartado ). Las preguntas planteadas en los
apartados º y è actuarán como vectores a través de los cuales aparecerán
cuestiones ontológicas, epistemológicas, axiológicas y metodológicas, que están,
obviamente, vinculadas a la naturaleza científica de la informática. Finalmente,
preguntaremos por algunos de sus conceptos clave (apartado [). En todos estos
frentes no se pretende dar respuesta a los problemas, sino más bien hacer un
recorrido, sin pretensión de exhaustividad, que nos permita apreciar la agenda
filosófica que queda abierta.

También podría gustarte