Está en la página 1de 29

ESCUELA SUPERIOR DE COMERCIO MANUEL BELGRANO

NIVEL PREGRADO

Analista Universitario de Sistemas Informáticos

Computación y Tecnología I

Unidad Didáctica Nº 1: Introducción a la computadora digital.


Curso: 1ero “A” y 1ero “B”.
Docente: Profesora Alejandra Atencio.

AÑO LECTIVO 2020


Índice

LA SOCIEDAD DE LA INFORMACIÓN .....................................................................................3


DIFICULTADES DE LA SOCIEDAD DE LA INFORMACIÓN ..................................................... 4
INFORMÁTICA ......................................................................................................................... 5
DATO E INFORMACIÓN .......................................................................................................... 5
CARACTERÍSTICAS DE LA INFORMACIÓN........................................................................ 5
UNIDADES DE MEDIDA DE LA INFORMACIÓN .................................................................. 6
LA SEGURIDAD DE LA INFORMACIÓN ..............................................................................7
PROCESAMIENTO DE DATOS ............................................................................................7
PROCESAMIENTO DE DATOS Y SISTEMAS DE INFORMACIÓN ...................................... 7
LA COMPUTADORA. ............................................................................................................... 8
CARACTERISTICAS DE UNA COMPUTADORA .................................................................. 9
CLASIFICACIÓN DE LAS COMPUTADORAS ........................................................................ 10
Analógicas.......................................................................................................................... 10
Digitales ............................................................................................................................. 10
Híbridas .............................................................................................................................. 10
CLASIFICACIÓN DE UNA COMPUTADORA SEGÚN EL PROCESAMIENTO DE DATO ........ 11
Microcomputadoras ............................................................................................................ 11
Minicomputadores .............................................................................................................. 11
Macrocomputadores ........................................................................................................... 12
Supercomputadores ........................................................................................................... 12
LA ERA DE LAS COMPUTADORAS....................................................................................... 13
PRIMERA GENERACIÓN (1951-1958) ............................................................................... 13
SEGUNDA GENERACIÓN (1959-1964).............................................................................. 15
TERCERA GENERACIÓN (1965-1970) .............................................................................. 17
CUARTA GENERACIÓN (1971-1981) ................................................................................ 18
QUINTA GENERACIÓN (1982-1989).................................................................................. 19
ANTECEDENTES................................................................................................................... 20
ARQUITECTURA DE LAS COMPUTADORAS: ....................................................................... 26
SOFTWARE ........................................................................................................................... 27
TIPOS DE SOFTWARE: ..................................................................................................... 28
HARDWARE........................................................................................................................... 28
Dispositivos o periféricos de Entrada .................................................................................. 28
Dispositivos o periféricos de Salida ..................................................................................... 29
Dispositivos o periféricos mixtos ......................................................................................... 29
Dispositivos o periféricos de almacenamiento ..................................................................... 29
BIBLIOGRAFÍA ....................................................................................................................... 29

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 2


LA SOCIEDAD DE LA INFORMACIÓN
Desde hace un tiempo escuchamos con frecuencia que las bases en las sociedades
más avanzadas están cambiando, o lo que es lo mismo, que las relaciones económico-sociales
de los países desarrollados están en pleno proceso de cambio y adaptación a un nuevo modelo
de producción llamado sociedad de la información.
En este nuevo modelo la información se une a la fuerza del trabajo, a la energía y a la
materia prima como ingrediente necesario y principal para la producción de bienes y servicios.
Aunque la información en sus distintas aplicaciones (conocimiento de la tecnología,
administración, control de procesos, etc.) siempre ha jugado un papel muy importante en la
producción de bienes y servicios, ahora puede existir en forma independiente de los
profesionales, administradores, técnicos y trabajadores que la generaron, y así, se la valoriza
como un bien de cambio.
Debido a numerosos aspectos, la sociedad de la información es el siguiente paso
evolutivo o la extensión lógica del anterior modelo. La sociedad industrial. Por ejemplo, se
asegura que la sociedad de la información permitirá producir más bienes materiales y servicios
tradicionales como nunca antes. Esto es posible gracias a que la tecnología de la información
nos permite producir, distribuir y aplicar los conocimientos necesarios para aumentar la
productividad.
Hace un siglo, alrededor del 5% de la mano de obra de los países más desarrollados
se dedicaba a trabajos de información: creando, distribuyendo, recogiendo y modificando
información. Hoy, dependiendo de las distintas definiciones que hacen los expertos de este
tema, se considera que entre la mitad y dos tercios de la fuerza trabajadora de los países
industrializados se ocupa de tareas relacionadas con el manejo de información.
A medida que la información juega un papel más importante en la producción, se van
presentando retos a ciertas arraigadas suposiciones en lo que respecta a los conceptos de
recursos, economía y escasez. Por ejemplo, si una persona come una naranja, nadie más
puede comer esa naranja. Igualmente, si una fábrica consume una tonelada de hierro y un
millón de vatios de electricidad para lograr su producción, ninguna otra fábrica podrá utilizar
ese hierro y esa electricidad.
En cambio, el recurso información es renovable y dinámico. Así, un software (programa
de computadora) puede regalarse, venderse o usarse repetidamente, y aún el 100% de la
esencia del producto, es decir el conocimiento que representa, persiste.
En la nueva era de la información también se ponen en cuestión los conceptos de
tiempo y distancia. Usando Internet, una señora de Córdoba o cualquier otra ciudad puede
"curiosear electrónicamente" los modelos de temporada que ofrecen en la red las boutiques
adheridas -situadas en Buenos Aires, Paris o Roma- y usando su tarjeta de crédito comprar
aquellos vestidos que más le gustan sin moverse de su casa. La competencia del nuevo
ambiente para las boutiques locales cobra un nuevo significado.
A medida que la sociedad de la información impone nuevas tecnologías los mercados
deben redefinir los productos que ofrecen; así los bancos incorporan operatorias que usan
"transferencia electrónica de fondos" (EFT), las industrias de punta formalizan las
transacciones comerciales con sus proveedores a través del "comercio electrónico" (EDI).
Estas tecnologías permiten a las empresas agilizar y abaratar los procesos relacionados con la
administración de su operatoria comercial y, en definitiva, ser más competitivas.
En síntesis, las políticas de composición de precios están siendo alteradas y, por lo
tanto, la naturaleza de los negocios está cambiando. Casi se podría decir que el negocio
primordial de los bancos de hoy es ofrecer servicios de procesamiento por computadora a un
amplio rango de transacciones financieras.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 3


Está claro que en la sociedad de la información la computadora es el vehículo del
cambio. Esta tecnología nos posibilita almacenar, manejar y tener acceso a mucha más
información en menos tiempo. Pero, nos surgen algunos interrogantes:
⇨ ¿Aumentará la capacidad de los hombres para aplicar sabiamente la información?
⇨ ¿Mejorará nuestra aptitud para tomar decisiones acertadas el hecho de poder
disponer de mayor información al momento de realizarlas?
Quizá la conclusión más inmediata que podemos extraer al mirar hacia la sociedad de
la información es su condición de inevitabilidad. No se puede detener. Cuando el hombre
aprendió a navegar los océanos dejó de decir que la tierra era plana, cuando el conocimiento
se empezó a difundir a través de la imprenta, el escriba, junto con sus plumas y pinceles,
devino en obsoleto. Una vez creadas, pocas tecnologías pueden ser detenidas, pero su curso
puede canalizarse.

DIFICULTADES DE LA SOCIEDAD DE LA INFORMACIÓN


En el nuevo modelo social, la producción del saber se ha incrementado en forma
exponencial, al punto que ni siquiera los especialistas en cualquier disciplina pueden jactarse
de estar al tanto de las últimas novedades en su materia. La proliferación de trabajos
científicos, de revistas y de libros dedicados a la ciencia, los negocios y otros aspectos menos
relacionados con la producción económica, como la llamada industria del ocio, es tal que se
hace imposible obtener una visión de conjunto que permita integrar los datos generados por las
múltiples diferentes fuentes.
Los tratados se desactualizan durante su redacción y las nuevas ideas aparecen,
dispersas y relativamente inconexas, en multitud de comunicaciones y artículos cuya cantidad
abruma a quien pretenda leerlos. Estos, a su vez, son pronto cubiertos por una nueva oleada
de trabajos que pretenden actualizar aquellos artículos que no alcanzamos a leer por falta de
tiempo.
Podríamos sintetizar en tres los inconvenientes que trae aparejado el nuevo modelo:
La cantidad de información disponible sobre cada sector del conocimiento es tan
grande que su disponibilidad real, es decir la posibilidad de que una persona llegue a abarcarla,
tiende a disminuir. A este resultado contribuye la circunstancia de que la información que
interesa en cada momento se encuentra dispersa en un mar de datos que no son relevantes en
el mismo contexto.
.Los conocimientos disponibles en diferentes ramas del saber, aunque se refieran a
temas relativamente conexos, carecen de puntos orgánicos de contacto. Aún más, los códigos
lingüísticos son de aplicación reducida y específica para cada especialidad del saber. Esto
impide que a veces los resultados de una investigación, aunque se hallen teóricamente al
alcance de los protagonistas de otro trabajo, puedan incidir en el desarrollo del mismo.
.La universalidad del conocimiento, es decir, la posibilidad de que una persona logre
abarcar los principales saberes de su época, se ha tornado materialmente imposible. En
nuestra era asistimos a una creciente especialización que hace que el hombre de ciencia sepa
cada vez más acerca de cada vez menos, hasta el extremo de saber todo acerca de nada. Esta
observación no pasaría de ser una ironía si fuera posible unir luego los fragmentos del
conocimiento, dispersos entre una multitud de especialistas, para reconstruir la imagen de la
realidad. El problema reside en que los fragmentos no siempre encajan entre sí como las
piezas de un rompecabezas; y en que la especialización, integra el actual paradigma de la
producción científica, hace que cada participante pierda de vista el conjunto por su necesidad
de considerar con especial detenimiento el sector que le es propio.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 4


INFORMÁTICA
La INFORMÁTICA es la ciencia que busca la máxima eficiencia y economía en el
tratamiento de la información mediante la utilización de máquinas electrónicas automáticas.
Los sistemas informáticos de los que se ocupa la Informática están integrados por el
conjunto de máquinas, programas informáticos y técnicas de trabajo que se utilizan para
procesar datos.
Uno de los principales problemas que surgieron a la hora de automatizar la información
fue la forma de introducir y almacenar los datos en los ordenadores.
El lenguaje que utilizamos para comunicarnos está constituido por combinaciones de
letras y números, con los que formamos las palabras y las cantidades. Pero el ordenador no es
capaz de emplear este sistema de comunicación. El ordenador es una máquina, y tan sólo
entiende dos estados: cuando pasa la corriente eléctrica (impulso eléctrico) y cuando no pasa
corriente (no hay impulso eléctrico).
Para poder introducir datos en un ordenador es preciso adaptar nuestro sistema de
comunicación al único lenguaje que la máquina es capaz de reconocer.
Los datos que recibe un ordenador deben darse en forma de impulsos eléctricos, que
acostumbramos a representar con un 1 si hay impulso y con un 0 si no hay impulso. Por este
motivo, debemos transcribir nuestro lenguaje a combinaciones de ceros y unos 1, es decir, con
el sistema binario o base 2.

DATO E INFORMACIÓN
Si bien en el uso práctico, dato e información son usados como sinónimos,
necesitamos diferenciar sus significados. Datos son aquellos elementos usados como base de
una decisión, cálculo o medida de un proceso. Información es un mensaje útil y necesario para
una persona determinada.
Los datos son hechos simples, la materia prima de la información, como por ejemplo:
horas de trabajo, número de documento, saldo, nombre del cliente, etc. Los datos se
representan por medio de símbolos, sólo pueden considerarse como información en un sentido
muy limitado.
En cambio la información son datos que ya han sido procesados o manipulados, por
ejemplo: los datos de las horas trabajadas, junto con el costo del salario horario y el nombre del
trabajador sirven para el cálculo de la información del sueldo a pagar a un empleado. Lo que
diferencia datos de Información es el punto de vista de las personas, o más precisamente cómo
le sirven los datos a las personas; si sirven para tomar decisiones es información.
En otras palabras, la información consiste en conocimientos importantes producidos
como resultado de operaciones de procesamiento de datos; es decir, conocimientos adquiridos
por las personas para mejorar su comprensión y lograr objetivos específicos.

CARACTERÍSTICAS DE LA INFORMACIÓN
Si queremos que la información obtenida como resultado del procesamiento de datos
sea valiosa para la operación y control de una empresa, debe satisfacer tres condiciones:
● Ser correcta
● Ser oportuna
● Ser significativa
Información correcta: La información debe tener el grado de exactitud necesario para
responder a los requerimientos de quien la solicitó y así poder basar sus decisiones en ella.
Debemos tener en cuenta que no siempre "correcto" es sinónimo de "exacto".

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 5


Por ejemplo si el presidente de una empresa desea saber las utilidades netas del
último ejercicio y éstas fueron 18.547.340,20 pesos, para él la información correcta podría ser
18.540.00 pesos. En este caso la información es correcta, porque el grado de exactitud es
definido por la persona usuaria de la misma, pero no es exacta. Otro caso sería que la misma
información la pidiese el contador de la empresa para detectar una diferencia contable,
necesitaría entonces que la información fuese exacta, es decir, $18.547.340,20. En esta última
situación obtenemos información correcta y exacta.
Información oportuna: La información correcta debe estar disponible para la toma de
decisiones en el momento adecuado; ni antes ni después. Disponer de información anticipada
es muy difícil cuando no imposible, además es muy probable que esté desactualizada al
momento de ser usada.
Información significativa: La información producida por el sistema de procesamiento de
datos debe tener un significado claro para las personas que la utilicen. Esta es una condición
en la que se presentan tres cuestiones importantes:
1. La información debe ser apropiada y relevante con respecto a las necesidades de
ese usuario en particular.
2. La información debe ser comprensible: esto implica que el formato, el contenido y el
nivel de detalle deben permitir una fácil lectura.
3. La información debe estar organizada de forma tal que constituya una base para
formular un diagnóstico de la empresa y de su entorno económico y competitivo.

Otras características
⇨ Ser completa
⇨ Ser concisa

Información completa: implica la necesidad de integrar todos los datos relacionados a


un tema disponible en puntos dispersos de la organización, con el fin de proporcionar a quien
debe decidir toda la información sobre una situación determinada.
Información concisa: surge a partir de los problemas generados por la búsqueda de
la condición anterior, es decir al buscar que la información sea completa es frecuente proveer
datos en exceso, es decir, más de la que pueden aprovechar (fenómeno de saturación de
datos), donde se mezclan información importante con datos inútiles para el análisis de la
situación en cuestión. La nueva tendencia en la confección de informes gerenciales aconseja
presentar información concisa, que resuma los datos pertinentes y haga resaltar las
excepciones con respecto a las actividades normales o planeadas.

UNIDADES DE MEDIDA DE LA INFORMACIÓN


Las principales unidades de medida de bits son:
Bit (de Binary digiT). Representa un dígito binario.
Byte (B). Es el conjunto formado por ocho bits.

● Kilobyte (k.B). Son 1.024 bytes .


● Megabyte (MB). Son 1.024 Kilobytes.
● Gigabyte (GB). Son 1.024 Megabytes.
● Terabyte (TB). Son 1.024 Gigabytes.
● Petabyte (PB). Son 1.024 Terabytes.
● Exabyte (EB). Son 1.024 Petabytes.

Existen unidades mayores al exabyte que con la evolución de la tecnología están


empezando a emplearse como son : Zettabyte (1.024 Exabytes) y Yottabyte (1.024 Zettabytes).

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 6


LA SEGURIDAD DE LA INFORMACIÓN
La seguridad de la información, según la ISO 27001, se basa en la preservación de su
confidencialidad, integridad y disponibilidad, así como la de los sistemas aplicados para su
tratamiento.
● Confidencialidad: la información no se pone a disposición ni se revela a individuos,
entidades o procesos no autorizados.
● Integridad: mantenimiento de la exactitud y completitud de la información y sus
métodos de proceso.
● Disponibilidad: acceso y utilización de la información y los sistemas de tratamiento de
la misma por parte de los individuos o procesos autorizados cuando lo requieran.

PROCESAMIENTO DE DATOS
En el procesamiento de datos, la información es el resultado de datos organizados en
una forma útil para las personas que la reciben. Los datos son procesados, entendiendo por
"proceso" a la selección, el tratamiento y la combinación de los datos, con el objeto de obtener
información. Podemos concluir entonces diciendo que información es el producto final del
procesamiento de datos.
Si consideramos que el procesamiento de datos es la manipulación de datos para
obtener información, entonces podemos distinguir seis etapas básicas: Los datos, luego de ser
obtenidos, deben ser llevados a un punto central para ser procesados. Los datos, en este caso,
denominados de entrada o alimentación (1) pueden ser previamente clasificados (2) para hacer
que el procesamiento sea más fácil y rápido. Durante la etapa de procesamiento (3) se
ejecutan todas las operaciones necesarias para convertir los datos en información significativa.
Luego, esta información puede ser archivada (4) temporal o permanentemente para
procesamientos futuros.
Cuando la información está completa, se ejecuta la operación de salida o emisión (5),
en la que se prepara la información destinada a una persona o grupo de personas y que servirá
como base para la toma de decisiones.
Por último, la etapa de control (6) sirve para asegurar que los datos fueron procesados
en forma correcta y efectiva.
En síntesis podríamos reagrupar estas etapas en las siguientes.

Entrada Proceso Salida

1) Entrada 2) Clasificación 5) Salida o Emisión


Control 3) Procedimiento 6) Control
4) Archivo
Control

Observe que la función de control no constituye una etapa independiente, sino que está
presente en todas las etapas del procesamiento de datos.

PROCESAMIENTO DE DATOS Y SISTEMAS DE INFORMACIÓN

Para interpretar que se entiende por procesamiento de datos y sistemas de


información, primero debemos definir algunos conceptos. Los datos son conjuntos de símbolos
que representan un objeto concreto o abstracto, mientras que la información es la

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 7


consecuencia de procesar los datos para que tengan un significado. Así, la información permite
disminuirla incertidumbre y facilita la toma de decisiones más acertadas. Procesar datos implica
que se relacionen entre sí o que formen parte de un contexto, o ambas situaciones, por
ejemplo, 30º C es un dato aislado que si se contempla en el contexto del pronóstico del clima
nos permite preparamos para una jornada de calor, pero si se trata de la temperatura corporal
nos indica que es preciso tomar una aspirina y llamar al médico.
Los datos que procesa una computadora no tienen significado para ella, sino que lo
tienen para el usuario que los recibe y puede interpretarlos en su propio contexto. De lo
expresado antes se desprende que no todos los datos representan información, pero que la
información implicó la elaboración de un conjunto de datos. Los términos sistema de
información o sistema de informática se utilizan para referirse al conjunto coordinado de
elementos, datos y procesos, cuya interacción permite la obtención de la información, en el
caso de sistemas automatizados se utiliza como "unidad de procesamiento" la computadora
(hardware + software), o bien un conjunto de computadoras relacionadas entre sí. En un
sistema de información deben coordinarse los procesos y los datos del sistema que administra
la computadora y los procesos y los datos del usuario. Siempre todos cooperan entre sí para la
elaboración de la información (procesamiento de datos o cómputo de datos). Un proceso
especifica la actividad interna del sistema y estará representado por una secuencia de
instrucciones pertenecientes a uno o varios programas relacionados, de manera
que verifique la serie finita de operaciones definida en un algoritmo Por lo
tanto, los datos de entrada al proceso" (input) se transformarán en "resultados" (output), en
general, luego de que alguna de estas operaciones los afecte:

 Cálculo
 Comparación
 Clasificación(ordenamientos, intercalaciones)
 Transformación(por ejemplo, de datos numéricos a gráficos)
 Transferencia
 Almacenamiento para usarlos con posterioridad)
 Consulta

Los datos de entrada son, internamente, una estructura binaria organizada que respeta
un convenio dispuesto de antemano, denominado código. Este permite establecer una relación
entre dígitos binarios (símbolos de la computadora) y los símbolos que el usuario utiliza para
construir datos: números letras, caracteres especiales, auditivos gráficos o visuales. Toda
operación que se realice sobre los datos debe practicarse en cierto orden; así, los resultados
de una operación pueden ser usados por otras, o sea, en orden secuencial. La secuencia
lógica de pasos se describe con la confección de un programa. Las salidas también son
información codificada en binario (lenguaje poco amistoso para el usuario) y, para que se
represente en símbolos fáciles de comprender, se decodifican La decodificación convierte el
código binario a código de usuario (letras, números, puntos, comas, etc.).

LA COMPUTADORA.
Una computadora es un dispositivo electrónico, diseñado para aceptar datos de
entrada y realizar operaciones sobre ellos (organizadas en una secuencia lógica y
predeterminada por un algoritmo), para elaborar resultados que se puedan obtener como
salidas. Un algoritmo computacional se determina por una secuencia de operaciones finita
que permite resolver un problema computacional. Se representa con instrucciones que la
computadora puede interpretar y ejecutar. Al conjunto de instrucciones que representa un

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 8


algoritmo se lo denomina programa; expresado de otra manera, un programa es la
representación de un algoritmo en un lenguaje de programación.
Una computadora cuya palabra proviene del latín computare, que significa: calcular;
determina indirectamente una cantidad por el cálculo de ciertos datos, o en su caso cuenta o
considera una cosa, en general o de manera determinada, como equivalente, en cantidad o en
calidad, a cierto valor. También a la computadora se le denomina como ordenador o
computador.
En términos simples, una computadora es un dispositivo o sistema electromecánico
integrado por componentes electrónicos así como de elementos mecánicos, que recibe y
procesa datos con exactitud y sorprendente rapidez, para convertirlos en información útil para
los usuarios o personas que toman decisiones.
En la actualidad a los grandes equipos de cómputo se les considera como
dispositivos electrónicos.

Éste equipo computacional además de realizar rutinas o programas informáticos o


de cómputo (proceso), necesita de datos específicos; a estos datos, que en conjunto se les
conoce como "datos de entrada" (que en inglés es Input) los cuales deben ser suministrados, y
que son requeridos al momento de la ejecución, para proporcionar el producto final del
procesamiento de datos, que recibe el nombre de datos de salida o resultado(s), que en ingles
es "Output".

CARACTERISTICAS DE UNA COMPUTADORA


La computadora -también llamada computador u ordenador- es un dispositivo diseñado
para procesar datos.
No es la primer herramienta creada por el hombre para trabajar con datos: en la
antigüedad encontramos a los ábacos, luego la regla de cálculo para los ingenieros, la máquina
de sumar y restar para la oficina, las calculadoras y otros, que fueron ya utilizados por los
hombres para facilitar su tarea en el procesamiento de datos. Lo que distingue estos antiguos
dispositivos de las computadoras es su posibilidad de almacenar programas.
Si dijimos que la computadora y todo el equipo conectado a ella se denomina hardware
y que las instrucciones que le dicen lo que tiene que hacer se llaman software, entonces un
programa es un conjunto de instrucciones para llevar a cabo una tarea específica y forma parte
del software. Estas instrucciones o programas son almacenados dinámicamente en la
computadora, de acuerdo a las necesidades de procesamiento de cada momento, permitiendo
así a estos dispositivos realizar distintas tareas según el programa que tienen cargado en ese
momento.
Sin embargo, podemos establecer características diferenciales de una computadora
respecto de otros dispositivos diseñados para procesar datos.
Ellas son:
● Alta velocidad de cálculo
● Posibilidad de almacenamiento de datos
● Posibilidad de almacenar un conjunto de instrucciones
La alta velocidad de cálculo, debida fundamentalmente al uso de componentes
electrónicos, posibilita la realización de cálculos que con anteriores herramientas resultaban
imposibles por el tiempo que llevaba la tarea.
Pero sólo una alta velocidad de cálculo no es suficiente para resolver un problema, sino
que es imprescindible contar en tiempo y forma con los datos para resolverlos. Por esta razón,
la segunda característica, el almacenamiento de datos, resulta esencial. Los datos
almacenados internamente en la computadora se transfieren a una parte constitutiva de la
misma para efectuar los cálculos necesarios a velocidades muy superiores a las que un

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 9


operador de máquina de calcular podría llegar a establecer. El resultado de tales operaciones
puede luego ser guardado nuevamente en una unidad de almacenamiento para su uso
posterior .
Por último, lo que hace que un dispositivo de esta naturaleza sea una computadora es
su capacidad de almacenar sus propias instrucciones y ejecutarlas, lo que se conoce como el
concepto de programa almacenado. El almacenamiento de programas y el control de ejecución
de los mismos constituye la tercera característica y la fundamental. Esto produce la definitiva
independencia del procesamiento de datos respecto del operador de la máquina.
Estas características de la computadora, además de permitir obtener resultados en
forma más veloz, hacen que estos resultados sean más confiables, dado que eliminan las
posibilidades de error propias de la intervención humana, en especial cuando se realizan
cálculos largos y tediosos.
En síntesis, se puede definir una computadora como un instrumento que posibilita el
procesamiento de información a alta velocidad permitiendo el almacenamiento interno de datos
y programas.

CLASIFICACIÓN DE LAS COMPUTADORAS


Analógicas
Las primeras computadoras analógicas se implementaron para estudiar un modelo
semejante (análogo) a una ecuación; el resultado se elaboró tras la medición del valor que
asumían las salidas del modelo. Sin embargo, el sistema adolecía de dos desventajas
importantes: por un lado, la falta de exactitud en la salida, a causa del carácter continuo de esta
magnitud, y por el otro, el modelo construido, que representaba a una única aplicación y no
servía para otra.
La ventajas más destacada que ofrece esta computadora es su capacidad de procesar
datos no discretos (temperaturas, presión, altura), además de permitir la simulación de modelos
en la etapa de desarrollo de un proyecto, así, en un modelo más pequeño que el real las
variables se representan con magnitudes proporcionales, lo que genera la consecuente
disminución de los costos de desarrollo.

Digitales
Estas computadoras se denominan digitales porque procesan "dígitos" binarios “ceros”
y "unos" que representan datos. Un dato es un binario que corresponde a un código. Entre las
ventajas que presentan podemos destacar que efectúan cálculos precisos y que
el modelo se arma sobre un programa intercambiable, lo que posibilita no tener que cambiar
partes físicas para modificarlo, sino sólo ingresar un programa nuevo.
Para procesar variables continuas y estudiar el modelo a fondo en este tipo de
computadoras, es necesario ingresar datos con diferencias infinitesimales motivo por el cual su
utilización en estos casos resulta inadecuada.

Híbridas
Una variable analógica puede asumir infinitos valores dentro de un rango y se utiliza
para representar cantidades "naturales", como la temperatura la presión o la distancia. Sin
embargo, a efectos de una medición que pueda ser interpretada por los seres humanos, se las
convierte a valores discretos, por ejemplo, se mide la temperatura en grados o la distancia en

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 10


metros o pulgadas. Esto elimina el carácter "infinito" de los posibles valores que la variable
pueda asumir.
Los sistemas híbridos son una combinación de analógicos y digitales. Mientras que la
porción analógica se encarga de tomar los datos continuos (temperatura, presión, etc.), la parte
digital efectúa los cálculos. Estas computadoras se construyen para propósitos especiales, un
ejemplo actual es el GPS de nuestro auto.

CLASIFICACIÓN DE UNA COMPUTADORA SEGÚN EL PROCESAMIENTO


DE DATO
Una clasificación siempre incluye una cuota de arbitrariedad, y en este caso aún más,
ya que debemos considerar la dinámica propia de los elementos a clasificar, influidos por el
constante cambio que hace que las categorías hoy vigentes pierdan entidad con cada
"revolución" tecnológica.
Las clasificaciones de computadoras que se basan en precio y tamaño se vuelven
rápidamente obsoletas debido a la constante aparición de nuevas tecnologías. De todas
maneras presentamos una clasificación corriente en el mercado de las computadoras:

Microcomputadoras:
Equipamiento más pequeño diseñado para propósitos generales. Poseen todos los
elementos funcionales que se encuentran en cualquier computador, sea cual fuere su tamaño y
capacidad. Se caracterizan por estar diseñadas para uso personal, por ello se los conoce como
"PC", abreviatura de "Personal Computer"(Computadora Personal).
Las microcomputadoras se difundieron masivamente en las empresas especialmente
para realizar las tareas de automatización de oficinas, como por ejemplo la elaboración de
hojas de cálculo, procesamiento de texto, mantenimiento de bases de datos personales, etc.
Gracias a la tecnología del microprocesador, los PC son suficientemente pequeños
para ser contenidos en la superficie de un escritorio, incluso en un portafolios. Las
microcomputadoras pueden funcionar en forma independiente o conectarse con otras
microcomputadoras, formando redes, o integrarse a sistemas de computadoras más grandes
para expandir sus capacidades de procesamiento.
La disponibilidad de programas de bajo costo y de fácil operación desempeña un rol
importante para la difusión y aceptación de las microcomputadoras por el público general. Este
fenómeno se refleja incluso en el actual desplazamiento de sus canales de comercialización.
Estos están pasando de los tradicionales negocios especializados en informática a los
supermercados de electrodomésticos y otros dedicados a la distribución de artículos de
consumo masivo. El PC IBM, introducido en 1981, representa el equipamiento símbolo de esta
categoría. Es la computadora que fijó los estándares para todos los productos "compatibles" y
la que fomentó la fabricación de los PC "clones". En la actualidad existe una gran variedad de
marcas y modelos de PC, lo cual es una muestra de su difusión y, en definitiva, del éxito de
este producto.

Minicomputadores
A diferencia de los sistemas "micro, identificados con los PC y orientados a atender a
un solo usuario, los sistemas "mini" estaban diseñados para atender en forma simultánea las
necesidades de proceso de varios usuarios a la vez. Las minicomputadoras actuales rivalizan
con las computadoras grandes, y se usan, entre otras aplicaciones, para procesamiento de
palabra, automatización industrial, servidores de bases de datos departamentales, servidores
de comunicaciones, etc.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 11


Las PC fueron desplazando a las minis
Dentro de esta categoría de equipamiento, dos familias de minicomputadores se
pueden considerar como las estándares: los modelos VAX producidos por Digital y los modelos
AS 400 fabricados por IBM.

Macrocomputadores
Conocidos también como "mainframes".
Agrupa a los grandes computadores tradicionales. Diseñados para operar atendiendo a
cientos y miles de usuarios con capacidad de procesamiento significativamente superior a las
categorías anteriores.
Procesan a una alta velocidad más cantidad de tareas simultáneas que las "minis".
Algunos de ellos utilizan varios procesadores y se especializan en trabajos con datos en forma
concurrente.
Las Macrocomputadoras son sistemas costosos, complejos, grandes y de muy alta
performance, capaces de controlar cientos de dispositivos de entrada y salida. Las grandes
empresas, instituciones de gobierno, bancos, universidades, dependen de los mainframes
debido a su inmensa capacidad de procesamiento. Así, por ejemplo, los mainframes se usan
para controlar los cientos de miles de reservaciones efectuados cada día en las líneas aéreas,
las innumerables operaciones realizadas en la Bolsa, etc.
Las macrocomputadoras producen mucho calor, por lo que necesitan de sistemas
especiales de acondicionamiento para la temperatura y humedad de su ambiente de trabajo.
También requieren de un numeroso personal técnico para su operación y tareas de
mantenimiento, mucho mayor que el necesario para los equipos de rangos menores.
Por lo tanto, no sólo su costo de adquisición es más alto, sino también su costo de
operación.
El dominio dentro de esta línea de equipamiento fue establecido por IBM a través de la
familia 370 a principios de la década de los' 70 y por consiguiente definió los estándares en
esta línea de computadoras.
Apoyados en la difusión de esta línea de computadores muchos fabricantes (Hitachi,
Fujitsu, Siemmens) produjeron "clones" (equipos que funcionan en forma idéntica al original) y
productos periféricos compatibles con la arquitectura 370.

Supercomputadores
Son los computadores más grandes, rápidos y caros que se fabrican. Pueden trabajar
con varios procesos de cálculo simultáneamente, procesando en un minuto lo que tomaría
mucho tiempo a una computadora personal. No se producen masivamente sino por pedidos
especiales.
La mayoría de las supercomputadoras se usan para trabajos científicos,
particularmente para crear modelos matemáticos del mundo real. Este proceso, llamado
simulación, es especialmente útil en sismología, predicción del clima, exploración y explotación
del petróleo, programación y control de viajes espaciales, investigación científica y otros usos
especiales.
Cray es el fabricante más conocido en este rango de equipamiento; su producción es
de sólo algunas decenas de equipos anuales y trabaja por pedidos unitarios para sus
"especiales" clientes.
Las tecnologías desarrolladas para este rango de equipamiento son las bases
utilizadas por los científicos de los países más avanzados (EEUU, Japón, Alemania) para
desarrollar las computadoras de la quinta generación.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 12


LA ERA DE LAS COMPUTADORAS

Desde 1950 hasta 1953, todas las computadoras electrónicas eran equipos exclusivos
de los científicos, ingenieros y militares. Esto, porque los primeros equipos computacionales
habían sido diseñados para ambientes militares y académicos, donde los recursos económicos
eran aportados por gobiernos. Esto hacía que ningún equipo de hasta ese entonces había
servido en el comercio o iniciativa privada.
Con los logros obtenidos por las computadoras, grandes empresas estaban
preparándose para entrar en el ramo comercial, ya fuesen como productores o como usuarios.
El desarrollo que ha sufrido la computación en el rubro comercial hasta la actualidad se
ha dividido en seis generaciones distintas. Cada etapa se ha distinguido por su elemento lógico
electrónico principal que se ha utilizado en su tiempo. Este elemento lógico, está referenciado a
los componentes lógicos usados para facilitar las funciones de los circuitos electrónicos dentro
del computador.
Cada nuevo elemento lógico siempre ha conducido a mejoras para que las
computadoras significativamente siempre sean más rápidas, más pequeñas, menos costosas,
más flexibles y, capaces de almacenar más que las de las generaciones anteriores.

PRIMERA GENERACIÓN (1951-1958)

En 1951, en junio, inicia la


primera generación de computadoras
comerciales. Esto a consecuencia de que
la Oficina del Censo de los Estados
Unidos de América ha adquirido un
computador llamado UNIVAC I (Universal
Automatic Computer I). Este sistema
computacional es el hijo mental de los
pioneros de la ENIAC (J. Presper Eckert
y John Mauchly), los cuales forman su
propia empresa al ver el gran potencial Computadora Univaci
comercial de estos equipos.
Posteriormente se convierte en subsidiaria de Remington-Rand (Sperry Corporation), que
comercializaba la computadora bajo su propio nombre.
La UNIVAC I, se distinguió desde un inicio con respecto a sus predecedoras de ser la
primera computadora electrónica fabricada por una compañía de máquinas de negocios,
específicamente para aplicaciones comerciales de procesamiento de datos. Por lo que ahora
ya se disponía de una máquina de propósito general para procesar nóminas y trabajos pesados
y rutinarios contables.
Era una computadora que pesaba 7 257 kilogramos (kg) (16 000 libras,
aproximadamente), estaba compuesta por 5 000 tubos de vacío (válvula de vacío), y podía
ejecutar unos 1 000 cálculos por segundo, procesaba los dígitos en serie. Podía hacer sumas
de dos números de diez dígitos cada uno, unas 100 000 por segundo.
Funcionaba con un reloj interno con una frecuencia de 2.25 MHz, tenía memorias de
mercurio, las cuales no permitían el acceso inmediato a los datos, pero tenían más fiabilidad
que los tubos de rayos catódicos, que son los que se usaban normalmente en ese tiempo.
Realizaba una suma en 120 µseg, una multiplicación en 1 800 µseg, y una división en 3 600
µseg.
La entrada consistía en una cinta magnética con una velocidad de 12 800 caracteres
por segundo, tenía una tarjeta que convertía la información desde tarjetas perforadas a cintas

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 13


magnéticas con una velocidad de 200 caracteres por segundo. La salida podía ser por cinta
magnética a 12 800 caracteres por segundo, o por una impresora con una velocidad de 600
líneas por minuto.
El atributo más sobresaliente que presentaron las computadoras de la primera
generación fue el empleo de los tubos de vacío (válvulas de vacío o bulbos). Considerando que
este componente lógico remplazó las partes electromecánicas, las cuales presentaban serios
problemas de operación. Generaban calor excesivo los bulbos por lo que tenían que ser
enfriados por una gran cantidad de unidades de aire acondicionado, también estos tubos de
vacío eran grandes lo que hacían que las computadoras fuesen de dimensiones colosales, y
estaban propensos a fallas frecuentes.
La tarjeta perforada de 80 y 90 columnas se utilizó para procesar datos desde el siglo XIX,
empleándose en estos equipos de cómputo por seguir siendo el medio principal de
entrada/salida en los sistemas computacionales. Las velocidades de procesamiento de dichas
tarjetas eran relativamente bajas en comparación con las del disco o la cinta magnética, pero
estas dos últimas tecnologías tuvieron su maduración hasta las siguientes generaciones.
Gran cantidad de computadoras de esta generación utilizaban tambores magnéticos
giratorios para el almacenamiento interno. Los programas y datos podían ser leídos de tarjetas
perforadas y almacenados en el tambor, junto con los cálculos intermedios y los resultados
finales. Estos dispositivos de almacenamiento contenían partes
móviles. Y sus memorias internas eran bastante lentas a
comparación de las que se utilizarían en las próximas
generaciones.
Las aplicaciones comerciales típicas de las
computadoras de esta generación eran: nómina, facturación y
contabilidad. Sus primeros programadores tenían que trabajar con
el lenguaje máquina, donde las instrucciones de este lenguaje
constan en su totalidad de cadenas formadas por lo dígitos 0 y 1
(denominados bits). Cada 0 ó 1 en una instrucción: activa o
desactiva un circuito de la computadora. Una instrucción en Tambor magnético
lenguaje de máquina se vería de la siguiente manera:
0101100001110000000000001000000

Por lo que un programa podía constar de varios cientos de líneas como este
ejemplo, significando que la programación en aquel entonces era difícil y que los errores eran
frecuentes.
Es por ello que en 1952, la Dra. Grace Hopper de la Universidad de Pensilvania,
logra el primer adelanto en lenguajes de programación al crear un lenguaje que evitaría a
personas la tediosa tarea de programar en lenguaje de máquina, al producir el lenguaje
ensamblador.
Los lenguajes ensamblador hicieron posible la codificación de instrucciones
abreviadas, al utilizar palabras mnemo (facultad para recordar), para ello. El equivalente en
lenguaje ensamblador de la instrucción en lenguaje de máquina es:L REG ,A

Donde:

1. <L> significa <carga> (del inglés load) y sustituye a <01011000> que son los
primeros 8 bits.
2. <REG> significa <registro de almacenamiento 7>y sustituye a <0111> que son
los siguientes 4 bits.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 14


SEGUNDA GENERACIÓN (1959-1964)
En la segunda generación de computadoras, los tubos de vacío son sustituidos por
otro elemento lógico denominado transistor. Este nuevo componente electrónico fue más rápido
en su funcionamiento, más pequeño y más confiable, generaba menor calor, a la vez que su
consumo de energía eléctrica era bajo, a comparación con los de la generación anterior.

Como resultado estas computadoras de la segunda generación, eran más rápidas,


más pequeñas, más confiables y con respecto a su operación su costo fue menor, a
comparación con las de la primera generación.

Sistema de computación de la segunda generación

Otro desarrollo notable e importante fue el surgimiento de la cinta y el disco


magnético, el almacenamiento interno en núcleos magnéticos (redes) en lugar de tambores
giratorios para el almacenamiento primario (estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse datos e
instrucciones), el diseño del hardware modular y los lenguajes de programación de alto nivel.
En esta generación el potencial de la cinta magnética como medio de
almacenamiento se desarrolló lo suficiente, todo esto con la finalidad de poder competir con la
tarjeta perforada. En la generación anterior ya se utilizaba.
El almacenamiento en disco magnético también se introdujo en esta época, aunque
su potencial tecnológico se desarrolló la tercera generación de computadoras. La característica
de este elemento de almacenamiento con respecto a la cinta magnética, fue el de permitir un
acceso directo a los datos, lo cual hizo más rápidas la entradas y la salida de información
(aplicaciones).
Este elemento secundario de almacenamiento (disco magnético) facilitó las
aplicaciones comerciales que en la actualidad no existirían.
Un ejemplo claro son las operaciones del tipo bancarias que se realizan las 24
horas del día de lunes a domingo, en las instituciones bursátiles; otro ejemplo son en las
actividades de investigación, donde la computadora es una gran herramienta. Todo esto a
consecuencia de que las velocidades de procesamiento son críticas en aplicaciones de elevado
volumen de datos, en las cuales las personas necesitan información rápidamente.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 15


También los pequeños núcleos magnéticos (en forma de rosca o de toros), que
están eslabonados en rejillas dentro de la computadora comenzaron a sustituir a los tambores
magnéticos como dispositivos de memoria interna en una gran cantidad de equipos en esta
generación, esto porque los núcleos ofrecían velocidades de acceso al almacenamiento mucho
mayor que el dispositivo de la primera generación, por no presentar partes móviles (sin
rotación), con la cual el tiempo de procesamiento era menor.
En esta generación los fabricantes de computadoras introdujeron el diseño modular,
esto a consecuencia de que cuando fallaban los componentes, estos tenían que ser
reemplazados en forma individual, ya que anteriormente se emplea bastante tiempo para la
reparación, o en su caso sustitución, lo cual implicaba dinero para la empresa que había
adquirido el equipo computacional.
Para el diseño modular, los componentes relacionados entre sí se agrupaban
tarjetas portátiles. Si una tarjeta fallaba, se reemplazaba totalmente. Este nuevo sistema vino a
facilitar el diagnóstico y la corrección de malos funcionamientos. Con esta implementación se
vinieron a reducir los costos de mantenimiento y reparación de las computadoras.
El software, conjunto de instrucciones que hace que la computadora realice tareas y
la programación, dieron un importante desarrollo durante esta generación, con el surgimiento
de los lenguajes de programación de alto nivel a finales de los años de 1950.
Anteriormente, el programador tenía que especificar cada paso que la computadora
debía de seguir en cada operación, ya fuese utilizando el lenguaje de máquina o el lenguaje
ensamblador. La ventaja de los de alto nivel es que solo con una instrucción sencilla podía dar
el mismo resultado. Por ejemplo: A = B + C
Otra característica importante de los recientes lenguajes de programación es el de
utilizar palabras y expresiones simples, a comparación de los anteriores.
Aparecieron en el mercado de la programación lenguajes de programación de alto
nivel, entre los primeros estaba el FORTRAN y el COBOL. El primero, que significa traducción
de fórmulas en español (en ingles FORmula TRANslation )fue desarrollado por IBM para
aplicaciones científicas; y, para el segundo, cuyas palabras acrónimas en inglés son: COmmon
Business -Oriented Language; y, en español Lenguaje Común Orientado a Negocios, que fue
creado en el año 1960, con el objetivo de crear un lenguaje de programación universal que
pudiera ser usado en cualquier sistema computacional, y que estuviera orientado
principalmente a los negocios (informática de gestión). Este último fue desarrollado con apoyo
del gobierno estadounidense. Ambos lenguajes se siguen utilizando en la actualidad.
Al ir ganando popularidad los nuevos lenguajes de programación, los
programadores a menudo encontraban que los programas diseñados por ellos mismos para su
sistema computacional, no funcionaban en los equipos hechos por otro fabricante. Esto a
consecuencia de que a principios de los primeros años de 1960, existían numerosos modelos
de computadores incompatibles entre sí.
A menudo, cuando una empresa cambiaba de un tipo de equipo computacional a
otro, se tenía que volver a escribir sus programas por completo. Con esta problemática, nace el
Instituto Estadounidense de Normas (ANSI), el cual comienza a establecer reglas para
estandarizar los lenguajes de programación para las computadoras. Gracias a esto, se hizo
posible escribir programas en una computadora los cuales con un mínimo de modificaciones,
podían ejecutarse en otra.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 16


TERCERA GENERACIÓN (1965-1970)
El descubrimiento en 1958, del
primer Circuito Integrado (Chip) por el
ingeniero Jack S. Kilby de Texas Instruments,
así como los trabajos que realizaba, por su
parte, el Dr. Robert Noyce de la empresa
Fairchild Semiconductors, acerca de los
circuitos integrados, dieron origen a la tercera
generación de computadoras.
Estas computadoras emergieron
con el desarrollo de los circuitos integrados
(pastillas de silicio) en las cuales se colocaban
miles de componentes electrónicos, en una
integración en miniatura. Las computadoras
nuevamente se hicieron más pequeñas, más
Circuitos Integrados
rápidas, desprendían menos calor y eran
energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban
diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los
circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de
los programas, y estandarizar sus modelos.
A mediados de 1964, IBM, diseñó una familia de seis computadoras compatibles
ascendentes, la que fue la línea del Sistema/360 que consistía en 6 computadoras que podían
hacer uso del mismo software y de los mismos periféricos. El sistema también hizo popular la
computación remota, con terminales conectadas a un servidor, por medio de una línea
telefónica.
El sistema 360, fue el primero en usar microprogramación, creando el concepto de
arquitectura de familia. También fue el primer computador en usar la palabra byte para referirse
a 8 bits (con cuatro bytes se crea una palabra de 32 bits). Esta arquitectura de computación fue
la que a partir de este modelo siguieron todos los computadores de IBM.
Este sistema computacional, fue una de las primeras computadoras comerciales
que usó circuitos integrados, podía realizar tantos análisis numéricos como de administración ó
procesamiento de archivos.
Otro desarrollo notable e importante fue el surgimiento de la cinta y el disco
magnético, el almacenamiento interno en núcleos magnéticos (redes) en lugar de tambores
giratorios para el almacenamiento primario (estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse datos e
instrucciones), el diseño del hardware modular y los lenguajes de programación de alto nivel.
Con su tecnología SLT (Solid Logic Technology), esta máquina causó tal impacto en
el mundo de la computación que se fabricaron más de 30 000, al grado que IBM llegó a
conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC
6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía
la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips). Se empiezan a
utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales,
enormes discos rígidos, etc. Algunos sistemas todavía usaban las tarjetas perforadas para la
entrada de datos, pero las lectoras de tarjetas ya alcanzaban velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 17


podían todavía correr sus programas. Las computadoras trabajaban a tal velocidad que
proporcionaban la capacidad de correr más de un programa de manera simultánea
(multiprogramación). Porejemplo la computadora podía estar calculando la nomina y aceptando
pedidos al mismo tiempo.
Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar
competir directamente con IBM la empresa Digital Equipment Corporation (DEC) redirigió sus
esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que
las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda
generación pero alcanzaron sumador auge entre 1960 y 1970. Los clientes ahora esperaban
múltiples opciones de equipo, y una trayectoria de migración. Ya que las compañías no podía
esperarse por mucho tiempo un factor de la industria con una sola computadora sencilla e
inflexible.
A mediados de esta generación la industria manufacturera en el ramo
computacional observaba la demanda de servicios computacionales de toda aquella
organización que no podía darse el lujo de adquirir una computadora a gran escala. Por lo que
vaticinaron que el tiempo compartido sería la mejor opción. Ya que dicho tiempo compartido,
serviría para que varios usuarios compartieran simultáneamente, los recursos de una sola
computadora central grande.
Para ello, los usuarios tendrían sus propias terminales que estarían
conectadas a la computadora central.
En esta generación, gigantes industriales como GE, RCA y XEROX, que habían
hecho de las computadoras una empresa secundaria se retiraron a gran escala de este campo
manufacturero. Esto a consecuencia de que se habían hecho muy costosos.
Considerando el desarrollo del circuito integrado, el concepto de familias y las
minicomputadoras, existieron otros avances importantes que caracterizaron a la tercera
generación: el sistema operativo y, los avances continuos del software. Cada nuevo programa
fue creado en respuesta a las necesidades de cada mercado de usuarios, el BASIC (Beginners
All-purpose Symbolic Instruction Code: código de instrucción simbólica de propósito general
para principiantes), el cual fue desarrollado por John Kemmen, Tomas Kurctz y, Bill Gate el 1º
de mayo de 1964 con una computadora Altair en respuesta a la necesidad de un lenguaje que
fuese fácil de aprender y de utilizar. El desarrollo del RPG (Report Program Generator:
generador de programas de informe), señala una nueva tendencia en lenguajes de
programación; este nuevo programa, el usuario o el programador, simplemente declara al
sistema de computación el formato que debe de tener el informe y no cómo debe producirlo.

CUARTA GENERACIÓN (1971-1981)


Gran cantidad de adelantos relacionados
con la computación se caracteriza esta cuarta
generación. Entre estos está la microminiaturización,
la memoria interna a base de simiconductores, los
sistemas de administración de base de datos y los
lenguajes amigables fáciles de emplear por el usuario.
En el primer año de la década de 1980,
después de los circuitos integrados, aparece la
“integración a gran escala”, la cual integró cientos de
miles de componentes en un sólo chip de silicio el cual
puede contener decenas de miles de circuitos; la
microminiaturización, hizo posible una de las Ordenador (chip) con arquitectura X86
compatible

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 18


innovaciones más importantes de esta generación: el microprocesador. Logrando así una
reducción significativa del tamaño de las computadoras.
El microprocesador es sólo un chip de silicio en cuya superficie se encuentran los
circuitos de una computadora completa. Estos componentes electrónicos hicieron
posible una nueva clase de computadoras: las microcomputadoras o computadoras personales
(PC’s).
Posteriormente, se dio el gran salto hacia la integración a Ultra-Gran Escala,
integrando ahora millones de componentes. La habilidad para logran tal integración condujo a
una gran disminución en tamaño y en precio de las computadoras. Esto también aumentó la
potencia, eficiencia y confiabilidad, como la microcomputadora Apple de Steve Jobs y su
desarrollo por Mcintosch.
En 1981, IBM introdujo su computador personal (PC) para uso en el hogar, oficina y
colegios. Por ello se vio una expansión en su uso en los tres campos mencionados, con la
aparición de computadoras compatibles. El número de computadoras personales
prácticamente se incremento al doble, de dos millones en el año de 1981 a cerca de 5.5
millones en el año de 1982. Diez años más tarde, se estuvieron usando cerca de 65 millones
de PC’s.
El elemento lógico de la tercera generación de computadora fue el circuito integrado, el
cual seguiría operando en la cuarta generación aunque sus circuitos integrados fueron más
pequeños, más rápidos y menos costosos. Sin embargo, la gran diferencia entre estas dos
generaciones, es que en la cuarta generación empieza la era del usuario.

QUINTA GENERACIÓN (1982-1989)


Hay que mencionar dos grandes avances tecnológicos, que sirvieron como parámetro
para el inicio de la quinta generación: la creación en 1982 de la primera supercomputadora con
capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde
1968 con supercomputadoras; que en 1976, funda la Cray Research Inc.; y, el anuncio por
parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el
acuerdo con seis de las más grandes empresas japonesas de computación, que debería
terminar en 1992.
Su objetivo era el desarrollo de una clase
de computadoras que utilizarían técnicas de
inteligencia artificial al nivel del lenguaje de
máquina y serían capaces de resolver problemas
complejos, como la traducción automática de una
lengua natural a otra (del lenguaje japonés al
lenguaje inglés). El proyecto que duró diez años,
no obtuvo los resultados esperados, las
computadoras siguieron operando igual, ya que
había muchos casos en los que, o bien era
imposible llevar a cabo una paralelización del
mismo, o una vez llevado a cabo ésta, no se Supercomputadora CRAY-1
apreciaba mejora alguna, o en el peor de los
casos, se producía una pérdida de rendimiento.
Hay que tener claro que para realizar un programa paralelo primero se debe identificar
dentro del mismo, partes que puedan ser ejecutadas por separado en distintos procesadores.
Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe
recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 19


El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la
capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el
trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a
cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a
los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de
los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar
módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
por lo que se sumaron los países tecnológicamente más avanzados para no quedar
atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al,
Artificial Intelligence).
Las computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes, teniendo la
capacidad de comunicarse con un lenguaje natural e irían adquiriendo la habilidad para tomar
decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e
inteligencia artificial.
Para ello, el almacenamiento de información se realiza en dispositivos magnéticos
ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o
Digital Versatile Disk) como estándar para el almacenamiento de video y sonido. La capacidad
de almacenamiento de datos crece de manera exponencial posibilitando guardar más
información en estas unidades, que toda la que había en la Biblioteca de Alejandría. Los
componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración,
denominadas VLSI (Very Large Scale/ Integration) y ULSI (Ultra Lar- ge Scale Integration).

ANTECEDENTES
Desde que hizo aparición el hombre en la tierra hasta la actualidad, siempre ha estado
procesando datos. El hombre primitivo tuvo la necesidad desde un inicio de emplear los dedos
de sus manos para contar y, el de utilizar su memoria para comparar sus cantidades actuales
con respecto a las contadas anteriores. En épocas de los egipcios y romanos se ven obligados
a llevar registros y controles de sus propiedades, esto, aplicando las técnicas contables que
empleaban en el intercambio comercial con extranjeros, esto a consecuencia de que sus
memorias no tenían la capacidad de retener la información requerida.
Es por ello, que para resolver este problema, hubo la necesidad de auxiliarse de
medios o instrumentos que facilitaran la
resolución de operaciones complicadas. En
Asia Menor es inventado un instrumento de
cálculo (ábaco) que utiliza cuentas que se
deslizan a lo largo de una serie de alambres o
barras de metal o madera fijadas a un marco
para representar las unidades, decenas,
centenas, unidad de mil, decena de mil,
centena de mil, etc., utilizado por mercaderes
en la Edad Media a través de toda Europa y el
mundo árabe. Fue reemplazado en forma
gradual por la aritmética basada en los
números indo árabes. Perdió uso al inventarse
el lápiz y el papel, es el precursor de la Abaco chino
calculadora digital moderna. Después de esto y durante muchos años quedó interrumpido el

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 20


desarrollo de mecanismos de proceso.
A partir de siglo XVII, aparecen nuevos procedimientos matemáticos que
desarrollaron a la par nuevas herramientas tecnológicas que ayudarían al hombre en lo
referente al cálculo. Es por ello, que en 1642, el filósofo y matemático
Blaise Pascal a los 19 años de edad fabrica, la primera máquina sumadora de la historia
llamada Pascalina, precursora de las calculadoras de hoy con la intención de ayudar a su
padre, alto funcionario de las finanzas nacionales de Francia.
La Pascalina, fue la primera máquina mecánica capaz de realizar operaciones como la
adición y la sustracción. Su funcionamiento mecánico y basado en engranes (rueda dentada),
estaba basado en un antiguo diseño de los griegos para calcular las distancias que recorrían
los carruajes.
Posteriormente en 1671, Leibnitz (filósofo y matemático), considerado como uno de los
grandes pensadores del siglo XVII y XVIII, y con
la introducción de la rueda dentada escalonada,
construye su calculadora de pasos, la cual podía
efectuar las cuatro operaciones aritméticas, con
la idea de sumas y restas repetidas.
En 1801, el tejedor francés Joseph Marie
Jacquard, fue un inventor francés conocido por
automatizar, mediante el uso de tarjetas
perforadas, el llamado telar de Jacquard el cual
era mecánico. Cada tarjeta perforada
correspondía a una línea del diseño, y su
colocación junto con otras tarjetas determinaba La pascalina
el patrón. Este dispositivo tuvo influencias
posteriores en el desarrollo tecnológico de las computadoras, por su concepto de
almacenamiento de información en las tarjetas perforadas.,
Para 1812, Charles P. Babbage, gran matemático inglés y científico de la
computación, diseñó y comenzó la construcción de su máquina diferencial, capaz de calcular
logaritmos con veinte decimales, pero ésta nunca fue terminada. El propósito de la máquina,
era tabular polinomios usando un método numérico llamado el método de las diferencias.
Entre 1833 y 1842, Babbage, intentó construir otra máquina que fuese programable
para hacer cualquier tipo de cálculo, no sólo los referentes al cálculo de tablas logarítmicas o
funciones polinómicas. Esta fue la máquina analítica.
El diseño estaba basaba en el telar de Joseph Marie Jacquard, el cual usaba tarjetas
perforadas para determinar como una costura debía ser realizada. Babbage adaptó su diseño
para conseguir calcular funciones analíticas: tenía dispositivos de entrada basados en las
tarjetas perforadas de Jacquard, un procesador aritmético, que calculaba números, una unidad
de control que determinaba qué tarea debía ser realizada, un mecanismo de salida y una
memoria donde los números podían ser almacenados hasta ser procesados; y, por último los
resultados se obtendrían en forma impresa o gráfica en su unidad de salida.
Es importante resaltar que antes de morir en 1871, la construyó parcialmente ya que en
esa época no existían los elementos tecnológicos para construir su máquina. Su hijo en 1910,
terminó de construir dicha máquina diseñada por su padre.
Se considera que la máquina analítica de Babbage fue la primera computadora del
mundo, ya que Adda Augusta observó que este aparato tenía memoria, con lo cual ayudó a
realizar el primer programa para computadora.
El 29 de febrero de 1860, nace Herman Hollerith en Buffalo (Nueva York, Estados

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 21


Unidos de América). Inventó las máquinas estadísticas de tarjetas o fichas perforadas de 80
columnas, que alcanzaron un notable éxito en los trabajos de cómputo y clasificación de
grandes volúmenes de información.
En 1879, se gradúa en la Escuela de Minas de la Universidad de Columbia, en donde
el profesor W. P. Trowbridge le ofrece el puesto de ayudante consiguiéndole un trabajo en la
oficina del censo del gobierno estadounidense. Allí le ofrecen la oportunidad de ayudar a
resolver el problema del censo de 1880, había tantos habitantes que era muy tardado hacer las
tablas a mano.
En 1882, entró a trabajar en el MIT (Massachusetts Institute of Technology: Instituto
Tecnologíco de Massachuset), donde enseñó ingeniería mecánica durante un año. Hasta el
1884, sigue en el MIT, pero luego pasa a trabajar en la oficina de patentes de la Unión
Americana, donde aprovecha para registrar hasta 30 patentes relacionadas con sus inventos.
En 1889, la Oficina de Censos vuelve a realizar un nuevo concurso para obtener el
equipamiento idóneo para el censo de 1900. Hollerith revalidó su victoria con facilidad. No
obstante, con el aumento de la población negándose a reducir sus tarifas, muchas voces se
alzaron contra Hollerith, principalmente las del Gobierno. Para el censo de 1910, el nuevo
superintendente del censo Simon Newton Dexter North, decide prescindir de los servicios de
Hollerith. Las patentes sobre la máquina tabuladora parecían hacer inviable el diseño de un
equivalente que no violase la legalidad. Pero North, con la ayuda del ingeniero eléctrico
James Powers, logrando presentar un diseño que terminó con el monopolio de Herman
Hollerith.
En 1910, Hollerith, vende su empresa (la Tabulating Machine Company, fundada en
1896), a Charles R. Flint, aunque siguió ejerciendo de asesor en su exempresa hasta 1921. En
1911, esta empresa se fusiona con otras 2 empresas: la Computing Scale Corporation y la
International Time Recording Company; con esto surge la empresa Computing Tabulating
Recording Corporation (CTR). Posteriormente pasa a manos de Thomas Watson en 1914. En
1924, cambia su nombre por el de International Business Machines Corporation (IBM).
IBM, rápidamente, se convierte en la empresa líder en la fabricación y comercialización
de equipos de tarjetas perforadas; es por ello que a mediados de la década de 1930 contaba
con el 80% de las acciones del mercado en éste rubro, esto a consecuencia de que las
máquinas mecánicas del siglo XIX, fueron desplazadas por los dispositivos electromecánicos,
tal es el caso del tabulador creado por Herman Hollerith.
Estos nuevos equipos (dispositivos electromecánicos) simplemente son máquinas
accionadas por electricidad. Representaron un gran avance sobre sus anteriores operados en
forma manual: la pascalina, el telar de Jacquard, la máquina diferencial y la analítica, la
máquina tabuladora, los cuales tenían algunos defectos serios de diseño y construcción. Por
ejemplo: su velocidad de operación la cual estaba limitada a consecuencia del tiempo de
alineación de sus partes móviles que tardaban bastante. Asimismo, el movimiento repetido de
las partes mecánicas causa desgate entre ellas, lo cual hacía que estos equipos estuvieran
propensas a fallas.
A finales de la década de 1930, el Dr. John Atanasoff de la Universidad Estatal de Iowa
en los Estados Unidos de América (EUA), fue la primera persona en diseñar y construir una
máquina de cálculo. El deseaba una máquina que pudiera ayudar a los estudiantes en el
tedioso trabajo de resolver ecuaciones lineales simultáneas.
Para 1935, el Dr. John Vincent Atanasoft, matemático y físico concibe la idea de
construir una máquina electrónica de bulbos, con la finalidad de reducir el tiempo de cálculo
que requerían sus estudiantes, durante sus largos y complicados procesos que les dejaba en
sus clases de Física Teórica.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 22


En los primeros meses de 1939, Atanasoff, recibe una subvención por parte de su
universidad con la cual logra pagar los servicios de Cliford Berry (estudiante graduado) y la
adquisición de algunos materiales para su proyecto.
Atanasoff y Berry, construyen una máquina a la que llamaron ABC (Atanasoff- Berry
Computer: Computadora de Atanasoff y Berry). Podía resolver como máximo un sistema de
ecuaciones lineales de 29 ecuaciones y 29 variables. Para ello contaba con 300 tubos de vacío
(bulbos), siento estos sus componentes electrónicos principales.
La ABC fue la primera computadora electrónica digital, pero no era una máquina de
propósito general a gran escala. Esto porque sólo podía hacer un trabajo a la vez y resolver
tipos limitados de problemas matemáticos. Pero, no obstante, poseía muchas de las
características básicas de diseño de las computadoras más poderosas que la sucedieron.
En 1939, decide realizar su sueño, auxiliándose de Clifford Edward Berry, estudiante
graduado en física. Diseña y construye dos computadoras electrónicas digitales, las primeras
de la historia, estableciendo las bases electrónicas de la computadora digital actual.
Una es un prototipo construido para poner a prueba las ideas de Atanasoff; y, la otra
fue el primer computador electrónico y digital automático nombrada como: Atanasoff Berry
Computer (ABC).
Atanasoff fue pionero por muchas razones. En el ABC la función de memoria (el
almacenamiento de datos) era independiente de la función de cálculo, y esta última función se
realizaba de manera digital y no analógica, esto es que para realizar las funciones de control y
de cálculo aritmético usaba conmutadores electrónicos en vez de mecánicos, siendo el primero
en realizarlo de esta manera.
El ABC manipulaba números binarios, y para almacenarlos utilizaba condensadores
(en un principio por cuestiones económicas), esto representó un problema ya que los
condensadores se descargaban de forma natural perdiendo así los datos que guardaban.
Atanasoff ingenió la solución: un circuito de refresco.
El primer ordenador electrónico de propósito general, el ENIAC (Electronics Numerial
Instructions Automatic calculator), tenía partes basadas en el ABC, ya que John Mauchly, unos
de sus creadores, estuvo visitando a Atanasoff mientras construía el ABC en 1941, y conoció
así los detalles de la máquina. Sin embargo Mauchly siempre negó que las ideas de Atanasoff
hayan influenciado a la hora de construir la ENIAC.
Pero quizá uno de sus mayores logros conseguidos en el ABC fue el desarrollo del
circuito lógico sumador-restador al que denominaba "caja negra" que realizaba sumas o restas
por medio de las reglas lógicas, la cual estaba compuesta por válvulas termoiónicas. Tanto la
entrada como la salida se efectuaban a través de tarjetas perforadas. La máquina tenía una
precisión mayor que la mayoría de sus hermanas de la época como el Analizador Diferencial
de Bush.
Este equipo revolucionario, aportó diversas innovaciones en el campo de la
computación: un sistema binario de 0 y 1 para representar valores numéricos (notación
matemática en base dos) en las operaciones aritméticas, memoria regenerativa y distinción
entre la memoria y las funciones de cálculo. El ABC, fue el primer computador moderno en
utilizar aritmética en binario y emplear circuitos electrónicos, que hoy en día se utilizan en todos
los computadores; debido a su relación directa con los circuitos electrónicos, el sistema binario
se usa internamente en casi todos los ordenadores actuales. Este computador fue el primero
en implementar tres conceptos claves presentes en los equipos modernos:

1. Uso del sistema binario para representar todos los números y datos.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 23


2. Realizar todas las operaciones usando la electrónica en lugar de ruedas,
3. La computadora separada del sistema de almacenamiento o memoria.

Además, usaba memoria regenerativa, del mismo modo que la RAM (Random Access
Memory: memoria de acceso aleatorio) de los computadores actuales. No era un computador
de almacenamiento, lo que la distinguía de las más tardías y de uso general como eran los
equipos computacionales de 1949, como la ENIAC y, la EDVAC (Electronic Data Variable
Automatic Computer).
Con el inicio de la Segunda Guerra Mundial, el proyecto se paralizó en 1942, no
llegando a estar en pleno funcionamiento. Pero a pesar de ello el ABC tuvo una gran influencia
en el desarrollo de las computadoras. Pero en Europa, durante el conflicto bélico
principalmente en Alemania, la mecanización del cálculo dio un impulso muy importante. Con el
propósito de establecer la trayectoria de las bombas voladoras V-1 y V-2, los científicos
(matemáticos) tenían la necesidad de realizar innumerables cálculos, invirtiendo una gran
cantidad de tiempo.
En 1942, la Alemania nazi, logra construir la primera calculadora electrónica de que se
tiene noticia, esto gracias a la lámpara de Galeana. Constaba de 1 500 lámparas y de una gran
cantidad de componentes electromecánicos.
Estaba diseñada con el principio de la peineta del telar, que leía mecánicamente los
rollos perforados, la cual fue sustituida por lámparas encendidas (perforaciones) y apagadas
(no perforaciones) que podían conectarse entre sí mediante cables eléctricos, con lo que
permitía por primera vez establecer conexiones con otras máquinas ajenas como: las máquinas
mecánicas para sumar, restar, multiplicar, dividir, exponenciar y escribir.
Con este fundamento en 1943, construye y presenta el profesor Howard H. Aiken, de la
Universidad de Harvard la calculadora automática, con la subvención de IBM. La Mark-I o
Harvard Mark, fue el primer ordenador electromecánico construido en la propia Universidad.
Tenía 760 000 ruedas y 800 kilómetros de cable y se basaba en la máquina analítica de
Charles Babbage.
Empleaba señales electromagnéticas para mover las partes mecánicas. Esta máquina
era lenta (tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos no se
podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos complejos de
ecuaciones sobre el movimiento parabólico de proyectiles.
Era una máquina grandiosa, medía aproximadamente: 15.5 metros de largo, 2.40
metros de alto y 60 centímetros de ancho. Pesaba aproximadamente unas cinco toneladas.
Pero lo más impresionante fueron unas cubiertas de cristal que dejaban que se viera y
admirara todo el interior de su maquinaria.
En 1944, es puesta en pleno funcionamiento, usándose para el cálculo de tablas de
balística durante el final de la Segunda Guerra Mundial.
La Mark-I, recibía sus secuencias de instrucciones (programas) y sus datos a través de
lectoras de cinta perforada de papel y los números se transferían de un registro a otro por
medio de señales eléctricas. Su cableado interno era de más de 800 kilómetros a pesar de
medir sólo 15 metros de largo, contaba con más de tres millones de conexiones. Los resultados
producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de tarjetas, en
la más pura tradición de IBM.
Aunque tenía componentes electromecánicos era una máquina automática eléctrica.
Era capaz de realizar 5 operaciones aritméticas (suma, resta, multiplicación, división y
referencia a resultados anteriores). Su interior estaba compuesto por 750 000 piezas de

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 24


diferentes variedades (ruedas rotatorias para los registros, relevadores…).
Estaba compuesta de más de 1 400 interruptores rotatorios de diez posiciones en el
frente de la máquina para visualizar los valores de los registros constantes que se le
introducían. Pero además de los registros constantes la máquina contenía 72 registros
mecánicos. Cada uno de los registros mecánicos era capaz de almacenar 23 dígitos, los dígitos
que se usaban para el signo era un 0 para signo positivo y un 9 para el signo negativo.
La posición del punto decimal estaba fija durante la solución de un problema, pero
podía ajustarse previamente de manera que estuviera entre dos dígitos cualesquiera. La
máquina contaba también con mecanismos que permitían efectuar cálculos de doble precisión
(46 decimales), mediante la unión de dos registros, en una forma análoga a la Máquina
Analítica de Babbage.
La Mark-I marcó el inicio del involucramiento de IBM en el diseño de computadoras de
propósito general.
En una ocasión después de haber dado inicio a su proyecto de la Mark-I, Aiken revisó
los escritos de Babbage. Su impresión fue tal al comprender la visión que este personaje tan
importante en los inicios de los computadores, se había anticipado a su era. La Mark-I era, la
realización de la máquina analítica.
Cuando Aiken e IBM seguían trabajando en la Mark I, otros personajes importantes se
encontraban analizando el uso de una nueva tecnología en el diseño y construcción de
computadoras como es la electrónica, la cual la haría obsoleta cuando por primera vez se
pusiera en operación. Esto a consecuencia de que las computadoras con componentes
electrónicos, en diferencia con las máquinas electromecánicas, no tienen partes móviles,
también otra característica importante es que fueron mucho más rápidas en su proceso con
respecto a las anteriores.
La Segunda Guerra Mundial, creó una repentina demanda de capacidad de cálculo. El
ejército estadounidense presentaba una urgente necesidad de tablas precisas que indicaran a
los operadores balísticos los parámetros a considerar para un buen desempeño en sus tiros,
principalmente de cañón y de cohetes.
Para ello, J. Presper Eckert (ingeniero electricista) y John Mauchly (físico), presenta a
la armada de los Estados Unidos de América la propuesta de una computadora electrónica que
podía realizar aquellos arduos cálculos necesarios para sus tablas de cálculo. Este proyecto
fue respaldado por las autoridades gubernamentales en aquel entonces, siendo utilizada por el
Laboratorio de Investigación Balística del Ejército de los Estados Unidos de América.
En 1946, fue presentada la computadora de Eckert y Mauchly, la cual fue denominada
como ENIAC (Electronic Numerical Integrator Automatic Calculator: integrador y calculador
numérico electrónico), considerándola como el primer computador electrónico digital de
propósito general a gran escala del mundo. Aunque este honor se le debe a la computadora Z3
construido en 1941. Además está relacionada con la Colossus Mark II, que fue usado para
descifrar el código alemán de la computadora enemiga durante la Segunda Guerra Mundial y
destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un
museo británico. Era totalmente digital, ejecutaba sus procesos y operaciones mediante
instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras
contemporáneas de procesos analógicos.
La ENIAC, fue construida en la Universidad de Pennsylvania, ocupaba una superficie
de 167 m² y operaba con un total de 17 468 válvulas electrónicas o tubos de vacío, 7 200
diodos de cristal, 1 500 relés, 70 000 resistencias, 10 000 condensadores y 5 millones de
soldaduras. Pesaba 27 toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1 500 conmutadores
electromagnéticos y relés; requería la operación manual de unos 6 000 interruptores, y su

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 25


programa o software, cuando requería modificaciones tardaba semanas de instalación.
Elevaba la temperatura del local a 50o C y consumía 140 Kilowatts de electricidad
cuando se encontraba en operación. Para efectuar las diferentes operaciones era preciso
cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales
telefónicas, de allí el concepto de conmutador. Este trabajo podía demorar varios días
dependiendo del cálculo a realizar.
Esta computadora podía calcular trayectorias de proyectiles, lo cual fue el objetivo
primario al construirla. En 1.5 segundos era posible calcular la potencia 5 000 de un número de
hasta 5 cifras, podía resolver 5 000 sumas y 360 multiplicaciones en 1 segundo.
La ENIAC, independientemente de que en esa época era un adelanto importante, aún
se encontraba a un paso atrás de las computadoras modernas. Siempre que se requería una
nueva serie de operaciones, los operadores tenían que modificar los circuitos y reabrir los
interruptores, actividad (proceso) que podía tomar varias horas.
Es por ello que el matemático húngaro John von Neumann, concibió la idea de cómo
resolver este inconveniente. Indicó que se podría diseñar una computadora en la cual las
instrucciones de procesamiento pudieran introducirse junto con los datos por procesar. Tanto el
programa como los datos podrían ser almacenados en la memoria del computador.
En este nuevo sistema computacional (computadora con programa almacenado), los
operadores sólo tendrían que introducir un nuevo conjunto de instrucciones cuando quisieran
que la computadora ejecutara un nuevo programa, por lo que no tendrían que modificar los
circuitos de la máquina.
Con este nuevo concepto de programa almacenado, nace la idea del software y de los
programas escritos. Es por ello que la primera computadora (calculadora) con programa
almacenado, llamada EDSAC de Electronic Delay Storage Automatic Calculator (calculadora
automática con almacenamiento diferido electrónico), es construido en Inglaterra en 1949.
En 1950, es construida la segunda computadora con programa almacenado en los
Estados Unidos de América, denominada como la EDVAC (Electronic Discrete Variable
Automatic: computadora automática electrónica con variable discreta). Con estos dos equipos,
se instituye la etapa de la revolución de las computadoras y el crecimiento explosivo de la
industria de la computación comercial.

ARQUITECTURA DE LAS COMPUTADORAS:


La tarea fundamental de una computadora digital es realizar cálculos o comparaciones
entre datos u operandos. La palabra digital implica que el valor de los datos es discreto y
limitado y se representa con combinaciones de 0 y 1, o sea, son máquinas binarias Los datos
son agrupaciones de bits que, como ya señalamos, al aplicar distintas técnicas de codificación
se convierten en números y letras Los comandos e instrucciones que controlan la operación de
la computadora también se codifican en binario, de modo tal que los bits constituyen el alfabeto
de la computadora.
Una computadora es un sistema que incluye módulos de hardware y de software El
hardware es el conjunto de dispositivos electrónicos y electromecánicos que constituyen la
estructura física de la computadora. Es la porción "dura", lo tangible (hard = duro, hardware =
ferreteria). En tanto que la parte lógica o "logicial", se denomina software, que es el nombre
que identifica al conjunto de programas para procesar datos en un equipo de computación.
Esto es, su parte lógica (soft = blando). Sin el software, el hardware no podría procesar
dato alguno o quedaría limitado a una tarea fija, como decíamos en procesadores de propósito
específico. Un término más, que involucra ambos conceptos, es firmware y se utiliza para
identificar los dispositivos físicos programados, como puede ser la programación de los

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 26


múltiples usos que presta un electrodoméstico, o sea que se fusionan los conceptos de
hardware y software.
Por ejemplo, cuando se enciende la computadora se pone en funcionamiento el primer
elemento software, un programa que lo hace apto para que el usuario lo pueda utilizar. En una
PC (o Personal Computer), parte de este programa de arranque se define a nivel físico
(firmware) junto con otros servicios dedicados a la atención rápida de entrada o salida de
información, por ejemplo, servicio de atención del teclado.
Si se tiene claro que el esfuerzo empleado en el desarrollo de computadoras tiene
como objetivo el tratamiento automático de datos, es imprescindible, entonces, conocer los
fundamentos de los datos y sus formatos.
Cómo decíamos en las computadoras digitales las entidades (datos e instrucciones)
constituidas por agrupaciones de bits. Bit es el acrónimo de binary digit (digitobinario) y es la
unidad mínima de información Por ejemplo, si en un formulario se pide que marque “con una
cruz" la opción verdadera y "deje en blanco” las que considera falsas, las opciobes verdaderas
serán identificadas con un "1" en el campo de "opción marcada" y las falsas con "0".
Hay dos valores de bits diferentes. "0" y "1", que tienen el significado numérico ovbio,0
y 1. También se puede pensar en significados alternativos off y on, falso y verdadero, no y si:
cerrado y abierto. Sin embargo, puede resultar difícil imaginárselos. No se pueden ver ni tocar,
además, si usted compra una computadora nadie le vende los bits para con ella. Estos
razonamientos llevan a la conclusión de que los bits "Viven" dentro de su computadora, y esa
es la realidad. Internamente la computadora está compuesta por dispositivos electrónicos que
actúan como conjuntos de llaves o Interruptores, que permiten el paso de ciertos niveles de
tensión. La "vida" de los bits depende de que la computadora esté conectada a una fuente de
alimentación, de modo que un bit 1 se pueda representar con un nivel de tensión Por lo general
se dice que un 1 logico se corresponde con un nivel de tensión alto o high y que "un 0 lógico se
corresponde con un nivel de tension bajo o low.
Un byte es una combinación de 8 bits. Asi como el bit es el grano de arena la unidad
me pequeña en la construcción de un dato para procesar en la computadora, el byte, es el
ladrillo el bloque de construcción real de datos. Cuando se hace referencia a medio byte, o 4
bits, se utiliza el término nibble. Es bastante común hacer referencia a esta medida, por
ejemplo, en la representación de números empaquetados se habla de nibble menos
significativo y nibble más significativo (el menos significativo de un byte corresponde al grupo
de 4 bits de "extrema derecha" del conjunto de ocho bits)
Asimismo, la unidad elemental de representación de un dato es el byte, con el que, por
ejemplo, se puede representar "la letra F" de "femenino" La unidad elemental de
representación de información es el bit, por ejemplo, un bit "uno" puede indicar que el género
de una persona "es verdad" que es "femenino" y "cero" "que es falso" que lo sea. En este caso
el bit se considera el valor de verdad de un dato y, por lo tanto, "nos da información Las
computadoras necesitan procesar pequeños grupos de bytes (2.4.8). La unidad de trabajo o
procesamiento de CPU se denomina palabra de CPU (tenga en cuenta que este término nada
tiene que ver con el significado que estamos acostumbrados a darle a “palabra” en español).
Su longitud tiene relación con la longitud de los registros asociados a la CPU y puede
tener, o no, la misma cantidad de caracteres que el contenido de una posición de memoria
(denominado también "palabra de memoria”).

SOFTWARE
El software o los programas son el conjunto de instrucciones que le dicen a la computadora
qué debe hacer. Sin ellos, la computadora es una máquina inútil. Hay diferentes clases de
software pero las dos principales categorías son:

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 27


TIPOS DE SOFTWARE:
Software de base:
Son los sistemas operativos y los lenguajes de programación. Por ejemplo: Windows 7, Linux,
etc.

Software de base.

Software de aplicación:
Son los programas para tareas específicas. Por ejemplo: Word, Paint, etc.

Software de aplicación.

Los periféricos son dispositivos que se conectan a la computadora –técnicamente a la placa


madre– para permitir la interacción entre el usuario y la computadora mediante el ingreso y
egreso de información.
Esta máquina tiene dos partes bien diferenciadas, que reciben los nombres de hardware y
software, detalladas a continuación:

HARDWARE
El hardware (o soporte físico): Es un conjunto de elementos físicos (máquinas,
circuitos, etc.); es decir, son todos aquellos elementos de naturaleza física y tangible. Dentro
del hardware podemos encontrar:

Dispositivos o periféricos de Entrada:


Son dispositivos a través de los cuales le suministramos a la computadora los datos
correspondientes, para que con los programas que ella tenga almacenada, los procesen
y nos devuelvan la información que queremos. Estos dispositivos transforman la información
suministrada por nosotros, en datos (en binario, lenguaje de maquina) que pueden ser
procesado por computadoras.

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 28


Dispositivos o periféricos de

Dispositivos o periféricos de Salida:


Son dispositivos a través de los cuales la
computadora nos da los resultados de los programas.
Estos dispositivos convierten la información binaria que
llega de la computadora de acuerdo con el código de
Entrada/S en caracteres escritos legibles por el usuario.
Dispositivos o periféricos de
Salida.
Dispositivos o periféricos mixtos:
Son aquellos que pueden cumplir funciones tanto de entrada como de salida. Por ejemplo,
discos rígidos, lecto-grabadoras de CD/DVD, discos externos, memoria flash, tarjetas de red,
módems, etc.

Dispositivos o periféricos de almacenamiento:


Se encargan de guardar los datos de los que hace uso la
CPU para que ésta pueda hacer uso de ellos una vez que
han sido eliminados de la memoria principal, ya que ésta se
borra cada vez que se apaga la computadora. Pueden ser
internos, como un disco duro, o extraíbles, como un CD.

Otros dispositivos o
periféricos.

BIBLIOGRAFÍA

 Raffin, A. (2019) Apunte Teórico de Computación y Tecnología 1. Apunte de la cátedra.


U.N.C. Escuela Superior de Comercio Manuel Belgrano. Revisado y actualizado por la
profesora Atencio, A. (2020). Lectura obligatoria.

 Quiroga Patricia. Arquitectura de computadoras. Argentina. 2014.

 Ortiz González Francisco Raúl. Evolución de las computadoras. Universidad Autónoma


de México. Disponible en:
http://gc.scalahed.com/syllabus/cloud/visor.php?container=L1IS101_1274_848_36405_
0&object=Fundamentos.pdf

Computación y Tecnología I | Profesora Alejandra Atencio | 1er Año | Página Nº 29

También podría gustarte