Documentos de Académico
Documentos de Profesional
Documentos de Cultura
COMPUTADORAS
DESARROLLO DE LAS COMPUTADORAS
Desarrollo de las computadoras, es importante porque actualmente se ha hecho un instrumento básico
en todas las áreas de desarrollo de la humanidad (laboral, entretenimiento, educación, etc.) Tener el
conocimiento de su origen, saber el motivo por el cual fue construida, además de tener una noción del
alcance que tendrá a futuro el desarrollo de la tecnología computacional.
Al respecto de este punto, a principios de la década de los 80, era prácticamente imposible
encontrar un hogar que tuviera una computadora. Este panorama ha cambiado radicalmente,
al punto que es prácticamente imposible encontrar un lugar en el mundo en donde una
computadora no se encuentre realizando una tarea.
Todo se inició en los albores de la década del 40 con ENIAC, y la última etapa de la quinta
generación de computadoras fue anunciada como la de las «computadoras
inteligentes» basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y
que finalizó en un estrepitoso fracaso; a partir de ahí, la cuenta de las generaciones de
computadoras es un poco confusa.
Generaciones de la computadora
En este post estudiaremos como se han ido sucediendo las generaciones de la
computadora. Partiendo de 1943 hasta nuestros días.
En 1943, un proyecto británico, bajo el liderazgo del matemático Alan Turing, puso en
operación una serie de máquinas más ambiciosas, las Colossus, pues en vez de relés
electromecánicos, cada nueva máquina usaba 2.000 válvulas electrónicas.
Colossus trabajaba con símbolos perforados en una argolla de cinta de papel, que era
insertada en la máquina que tenía lectura fotoeléctrica, comparando el mensaje cifrado
con los códigos conocidos hasta encontrar una coincidencia. Procesaba 25.000
caracteres por segundo.
Era la primera computadora digital electrónica en gran escala y fue proyectada por John
W. Mauchly y J. Presper Eckert. El ENIAC era mil veces más rápido que cualquier
máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50
divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100
mil componentes, incluyendo 17.468 válvulas electrónicas.
Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus
incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados.
Observando este inconveniente, Eckert, modificó el funcionamiento de ENIAC haciendo que
las válvulas funcionaran a una tensión menor que la necesaria, reduciendo así las fallas
debido al sobrecalentamiento del ambiente.
Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un
conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000
válvulas sustituidas por año. ENIAC contaba con 500.000 conexiones soldadas, y como
podremos observar por las innumerables válvulas de vacío que la componían, el consumo
eléctrico era en extremo elevado.
En 1947, John Bardeen, William Shockley y Walter Brattain inventan el transistor, que en
pocos años cambiaría por completo el panorama de las computadoras.
La entrada y salida de información era realizada por una cinta metálica de 1/2 pulgada de
ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran
normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que,
consumía 14.000 W.
Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del
UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits,
ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine,
el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.
Entre 1945 y 1951, el sistema Whirlwind, del MIT, fue la primera computadora que
procesaba información en tiempo real, con entrada de datos a partir de cintas perforadas
y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir.
Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar
dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos
milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de
segundo, y, una máquina de tercera generación en menos tiempo aún.
En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término
software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital
de 100 dólares, se transformó en la primera compañía de software con acciones negociadas
en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la
americana DEC, Digital Equipament Corporation.
En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para
microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la
Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y
Wozniak crean el microcomputador Apple, a RadioShack el TRS-80 y la Commodore el
PET. La plantilla Visicalc de 1978/9, primer programa comercial, de Software Arts.
La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc.
necesarios para el funcionamiento del sistema y un traductor para el lenguaje de
programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K
pero, era expandible hasta 16K.
El ordenador era suministrado con un cable para la conexión al televisor y otro para la
conexión con un grabador de «cassettes» musical (norma Philips). El transformador de
corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran
grabados en un cassette magnético y eran también leídos desde uno. El teclado no tenía
teclas. Los caracteres ASCII eran impresos en una membrana.
Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de
64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta
attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5″ 1/4 con 204 KB
o con opción a 408 KB de capacidad, un monitor de 5″ (24 líneas por 54 columnas) en
blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de
teclas, uno alfanumérico con los caracteres ASCII y otro numérico.
Disponía de conectores para un monitor externo, puertos serie RS-232C y paralelo IEEE-
488 o Centronics. El sistema era alimentado por una batería propia recargable con una
autonomía de 5 horas, por una batería externa de automóvil o por un transformador de
corriente eléctrica alterna a continua.
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le
siguió una versión PC-AT. IBM PC-XT En la década de 80, fue creado el IC LSI (Integratede
Circuit Large Scale Integration), que en español significa, “Circuito Integrado en Ancha
Escala de Integración”, donde fueron desarrolladas técnicas para aumentarse cada vez más
el número de componentes en el mismo circuito integrado. Algunos tipos de IC LSI
incorporaban hasta 300.000 componentes en un único chip.
El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible
hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de
4,77 MHZ. Era construido con tres módulos separados: CPU, monitor y teclado. El monitor
era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor
con 16 colores.
La CPU además del procesador albergaba una unidad de disquete de 5″ 1/4 con una
capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con
10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas,
10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres
acentuados. Poseía una salida para impresora y el PC-XT disponía de un interfaz para
comunicaciones asíncronas.
El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft
para IBM. El lenguaje de programación que utilizada era el BASIC. Sólo cerca de dos años
después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados
con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando
para el efecto la penetración en las empresas donde tenía instalado grandes mainframes y
“pequeños ordenadores”.
Surgieron en el transcurso del uso de la técnica de los circuitos LSI (Large Scale
Integration) y VLSI (Very Large Scale Integration). En ese periodo surgió también el
procesamiento distribuido, el disco óptico y la gran difusión del microcomputador, que pasó a
ser utilizado para procesamiento de texto, cálculos auxiliados, etc.
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache,
para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros
modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.
Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar
hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante
con la aparición del Windows 95.
Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a
la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando
aún más su performance. Este avance en la velocidad y capacidad de procesamiento están
ligados firmemente a la aparición en el mercado de los procesadores de Intel Pentium, el
primero de ellos, el Pentium I en el año 1997, el Pentium II en 1999 y finalmente el Pentium
IV, en el año 2001.
Actualidad
Hoy en día sólo han quedado dos combatientes en el terreno de los procesadores para
computadoras, Intel y AMD. Entre ambos fabricantes cubren casi la totalidad de
las necesidades de proceso de cómputo en ámbitos como el hogar, la oficina y la
industria, y han puesto en el mercado CPUs con velocidades y rendimientos imposibles de
imaginar tan sólo una década atrás.
Entre los más destacados productos de estas firmas podemos mencionar los procesadores
Intel Core, en sus variantes i3, i5 e i7 de dos o cuatro núcleos y velocidades de reloj que
superan ampliamente los 3.4 Ghz. En cuanto a AMD, su modelo Fusion es uno de los
diseños más avanzados, ya que logra combinar en la misma cápsula de la CPU al chip
gráfico. Otro acierto de la firma es el Phenom II, el cual puede llegar a montar en su
interior hasta 6 núcleos corriendo a 3.6 Ghz.
Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso
de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de
procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de
procesadores especializados en las tareas de vídeo y sonido.
Esta manía de enumerar las generaciones de computadoras parece que se ha perdido. Ya
no suceden, como ocurrió en las cuatro primeras generaciones, la sustitución de una
generación de computadoras por las siguientes. Muchas tecnologías van a sobrevivir
juntas, cada una en su sector de mercado.
Es una realidad que los chips son cada vez más chicos, rápidos y eficientes. ¿Esta será la
característica de la séptima generación de computadoras?
Por otra parte, con la inclusión de nuevos conceptos y elementos, con la séptima generación
de computadoras los hogares han ido reemplazando los equipos para la reproducción de
música y los televisores convencionales por computadoras, gracias a las nuevas
prestaciones que las mismas comenzaron a ofrecer a partir de finales de la década de los
noventa.
Esto ha sido posible debido a que en la séptima generación de computadoras, las mismas
han logrado un importante avance en el ámbito digital, gracias a la expansión de la
capacidad de los discos duros, por lo que a partir de allí, la computadora hogareña se
convirtió en un verdadero centro de entretenimiento.
Entre las principales características que pueden mencionarse que han sido incorporadas
con la llegada de la séptima generación de computadoras, podemos mencionar la
expansión de la mensajería instantánea y el comercio electrónico, la realidad virtual, el uso
de redes inalámbricas tales como WiFi y Bluetooth, el reconocimiento y comandos por
voz, el uso de memorias compactas como los discos duros externos USB.
Este tipo de computación beneficiará, con el paso de los años, a muchos ámbitos, no sólo al de la
investigación o el desarrollo, sino que también será una parte más que importante de nuestra vida,
ya que permitirá desarrollar tareas que al día de hoy son imposibles de llevar a cabo debido a la
relativa poca potencia de cálculo de las computadoras modernas.
Los beneficios de la computación cuántica
Este mayor poder de cómputo permitirá, entre otras cosas, una transformación total de cómo
hacemos las cosas los seres humanos, y no cabe ninguna duda que con el paso de los años en
buena medida dependeremos de su funcionamiento para poder llevar adelante nuestras actividades.
En este punto, sólo el tiempo dirá si es una buena idea o no.
Esta transformación por supuesto implica que cada vez más se magnifique el uso de nuestros datos
para poder brindarnos servicios más puntuales, así como también para ofrecernos beneficios para
nuestro trabajo o actividad diaria. Un ejemplo de ello es la llamada “Analítica aumentada”, la cual
intenta encontrar una nueva mirada sobre la forma en que los datos recolectados sean procesados y
ordenados, aun lo más simples y mundanos, de una manera en que puedan ser más útiles.
Si estos datos son usados con precisión, pueden mejorar en mucho el rendimiento de la mayoría de
los servicios que utilizamos en la actualidad, desde YouTube hasta el Home Banking. Se considera
que hasta el momento, el proceso de la incontable cantidad de datos de todos los habitantes
que usan servicios digitales a diario es algo que excede a la informática moderna, y por este
motivo se busca en la computación cuántica un modo de encontrar la solución a esta problemática.
Otro punto en donde la computación cuántica puede ser el futuro de la informática es en el ámbito
de la Inteligencia artificial, ya que la tecnología cuántica podrá trabajar con miles de millones de
datos con mucha mayor facilidad que en la actualidad, lo que facilitará mucho el análisis de los
mismos sean mucho más directos y que las respuestas de los diferentes mecanismos que utilicen
la inteligencia artificial puedan ser mucho más rápidos y precisos.