Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
Junta de Andalucía
Auxiliares Técnicos
Opción Informática
Convocatoria
Actualizado para la n de 2
promulgada por Or,de
de septiembre de 20 09 turno libre
/2009).
(BOJA n.º 178, de 10/09
AUXILIARES TÉCNICOS
OPCIÓN INFORMÁTICA
DE LA JUNTA DE ANDALUCÍA
!
*'
/
/
0
)
(
*
*
(
#
+,-
.,,-
*
'
$
%
&
'
& (
)
$
(
!"
#
/
'#
!"#
'(
) *+, --- -./
AUXILIARES TÉCNICOS
OPCIÓN INFORMÁTICA
DE LA JUNTA DE ANDALUCÍA
TEMARIO
AUTOR
Este volumen recoge los quince temas del programa para las oposiciones a las plazas
de Auxiliares Técnicos de la Junta de Andalucía, Opción Informática, totalmente actualizado
y ajustado, de modo pormenorizado, a cada uno de los contenidos solicitados en esta
convocatoria.
La estructuración del texto pretende que los conceptos expuestos, objeto de estudio,
sean asimilados de modo coherente y preciso, cuidando el encuadre y desarrollo de cada
apartado.
El resto de los temas aparecen recogidos en un volumen común a todas las categorías
de la Junta de Andalucía, que es el Temario y Test de Igualdad de Género para las Oposiciones
de la Junta de Andalucía.
Tema 12. Medidas de seguridad de una instalación y de los soportes de información 471
Tema 15. Redes de ordenadores. Redes de área local. Redes de área extensa. Internet 567
TEMA
1
ESQUEMA INICIAL
1. Introducción
3. Comunicación y codificación
1. INTRODUCCIÓN
El conocimiento de términos como información, ordenador o programa es imprescindible para
iniciarse en la ciencia de la Informática. Estos conceptos son la base para construir ideas más
complejas y además se utilizarán con frecuencia en el resto del temario; por tanto es muy importante
adquirir una visión de conjunto de nuestros primeros conocimientos informáticos.
En la literatura informática es frecuente el uso del inglés
para denominar estos conceptos. Encontraremos palabras como
software, hardware o Windows, así como otras formadas por
iniciales o siglas como RAM (Random Access Memory), ROM
(Read Only Memory) o USB (Universal Serial Bus). Para algunos
de estos términos no existe su correspondiente versión en espa-
ñol; para otros, aun existiendo, su forma original en inglés está
tan extendida que es comúnmente aceptada sin traducción.
La existencia de tanta terminología anglosajona se debe
principalmente a que ha sido en los Estados Unidos donde más
investigación y desarrollo se ha producido a lo largo de la breve
historia de la Informática. Nosotros, en la medida de lo posible,
utilizaremos conjuntamente sus traducciones al español, pero
sin olvidar que en ocasiones resulta más claro el uso del original
en inglés.
Por otra parte, la cantidad numérica que estamos expresando tiene sentido porque previamente
se nos ha preguntado la edad; es decir, el dato aportado expresa una característica concreta de un
sujeto de más identidad (nosotros mismos). Esta era la segunda condición para poder hablar de un
dato propiamente dicho.
Un dato está íntimamente ligado al contexto en el que se sitúa. Por ejemplo, el número 27 en sí
mismo aporta poca información, ya que de forma aislada no sabemos si es el número de zapato de
una persona, su edad o los euros que lleva en su bolsillo. Cuando situamos este dato en el contexto
adecuado adquiere todo su significado. En el ejemplo anterior, el contexto consistía en una pregunta
sobre nuestra edad.
El significado completo de un dato (o la información que representa) depen-
de de dos factores, la propia información del dato y el contexto en el que
se sitúa.
La ecuación expuesta a continuación es muy importante, y resume las ideas de estas páginas:
los datos por sí mismos no aportan información útil si no se les aplica una interpretación
lógica, la cual es facilitada por el contexto:
Si continuamos con el ejemplo anterior, cuando proporcionamos nuestra edad transmitiremos una
información breve y muy concreta, como vimos antes, esta es la primera condición de un dato.
En nuestra conversación ambos interlocutores hablan castellano, por lo que nuestra exposición
del dato queda clara. No obstante, un ordenador no entiende este dato si no lo expresamos de una
forma más adecuada a su naturaleza. Al introducir nuestra edad mediante el teclado, el ordenador la
almacena en su memoria en forma de señales digitales (que estudiaremos posteriormente), es decir,
le damos un formato específico que puede ser “entendido” por el ordenador. Esta era la segunda
condición.
El dato se encuentra ahora en la memoria del ordenador, listo para ser procesado electrónica-
mente, cumpliéndose así la tercera condición de la definición.
Aunque los datos pueden usarse como entidades individuales, con frecuencia aparecen asocia-
dos en estructuras más o menos complejas. Un buen ejemplo es nuestro documento nacional de
identidad, donde encontramos un conjunto de datos relacionados sobre nuestra persona: nombre,
dirección, fecha de nacimiento, etc.
En un DNI encontramos una serie de datos individuales formando una estructura más compleja.
La agrupación lógica de datos es una idea esencial en informática.
La idea de agrupar los datos en estructuras más complejas es muy importante en ciertas ramas
de la informática, sobre todo en aquellas relacionadas con la gestión de grandes ficheros (bases de
datos) y con la representación de la información.
Esto nos lleva a redefinir el concepto de información en nuestro nuevo entorno informático:
En informática, la información consiste en un conjunto de datos interrela-
cionados y ordenados según una estructura específica. Esta información puede
almacenarse, procesarse y transmitirse electrónicamente, además de transformar
su formato para su introducción y compresión por un ser humano (mediante un
teclado, pantalla, listado de impresora, etc.).
La información sigue un camino general en informática:
1. La información es introducida en un ordenador por algún medio (un teclado, una tarjeta
electrónica, incluso mediante una orden oral). Ciertos elementos periféricos del ordenador
traducen dicha información a formato electrónico manejable por el ordenador.
2. La información es almacenada en la memoria del ordenador, donde se le aplica un proceso.
3. Los resultados se vuelven a traducir para que los usuarios podamos comprender las conse-
cuencias del proceso de la información original y obtengamos nuevos conocimientos (me-
diante un monitor, un listado, etc.).
Proceso o procesamiento: tratamiento y transformación de la información
que se produce en un ordenador con objeto de obtener resultados útiles para el
ser humano.
3. COMUNICACIÓN Y CODIFICACIÓN
La comunicación entre los seres vivos es una característica fundamental y necesaria de la vida,
siendo a la vez consecuencia directa de ésta. La definición básica de comunicación consiste en
un intercambio de información.
Los mecanismos de comunicación son muy numerosos y diversos, no obstante podemos hacer
una primera clasificación general: los creados por la propia naturaleza y aquellos otros frutos de la
inventiva humana.
En efecto, ya identificamos formas de comunicación en los más primitivos organismos vivos, que
utilizan ciertas moléculas como mensajeros químicos. En el otro extremo se sitúa la capacidad del
habla del ser humano, única en la naturaleza. Por otra parte, como ejemplo de una comunicación
artificial podemos señalar la producida entre un satélite y una base receptora terrestre.
Actualmente el hombre es el máximo exponente de todos los organismos comunicadores, ya que
además de los medios naturales que posee (la capacidad del habla antes comentada), utiliza todo tipo de
dispositivos artificiales para comunicarse. Las razones más importantes de esta diversidad de medios son
la naturaleza eminentemente sociable de la raza humana y la inteligencia creativa que poseemos, factores
que nos conducen al desarrollo de sistemas de comunicación cada vez más perfectos y sofisticados.
Desde una perspectiva humana, la comunicación puede definirse como sigue:
Comunicación: descubrir, manifestar o hacer saber a otra persona una cosa.
Desde el ámbito de la informática, existe otra definición más adecuada:
Comunicación: transmisión de información entre diversas entidades organiza-
da según ciertas reglas básicas.
Esta sencilla definición encierra aspectos significativos:
– Transmisión de información: en el sentido más amplio del término según veíamos en el
apartado anterior.
– Entre diversas entidades: (nótese la generalización del término). Se incluye igualmente
una persona, un dispositivo electrónico o en general cualquier cosa capaz de transmitir in-
formación.
– Organizada según ciertas reglas básicas: que detallan en qué formato se estructura la
información, qué medio se utiliza para su transmisión y otros aspectos que detallaremos más
adelante. Estas reglas en la comunicación se denominan protocolo.
Para que cualquier tipo de comunicación pueda efectuarse deben existir ciertos elementos:
– Un emisor que origina la comunicación.
– Un mensaje generado, codificado y transmitido por el emisor.
– Un medio o canal por el cual viaja el mensaje.
– Un receptor que recibe el mensaje, lo decodifica y lo analiza.
El emisor y receptor tienen ciertas características que caben resaltar:
– Realizan una comunicación bidireccional; la infor-
mación fluye en ambos sentidos y emisor y receptor
intercambian sus papeles. Esto ocurre por ejemplo en
una conversación, cuando hablamos y escuchamos
a la otra persona alternativamente. La comunicación
también puede existir entre un único emisor y varios
receptores, tal es el caso de un programa de radio, o
viceversa, por ejemplo una carta enviada por varios
amigos.
– Emisor y receptor pueden estar separados en tiempo
y espacio. Por ejemplo, podemos leer obras de anti-
guos autores griegos ya desaparecidos, o hablar por
teléfono con un amigo que vive en Australia.
El concepto de codificación es muy importante en la comu-
nicación. El mensaje que contiene la información puede codifi-
carse de diversas formas. Por ejemplo, dos indios podrían co- La codificación del mensaje
municarse mediante señales de humo, cuyo significado ambos es fundamental para com-
conocen. Un soldado, sin embargo, no entendería el mensaje. prender su significado.
El mensaje está codificado en forma de señales de humo que
el soldado desconoce, pero no por ello deja de ser válido para
los indios.
El medio utilizado en la comunicación es un factor importante en la codificación, aunque no
definitivo. Por ejemplo, al leer las páginas de este libro, el medio lo constituye el papel y la tinta, sin
embargo, cuando mantenemos una conversación con otra persona, el medio lo constituye el aire y
las ondas sonoras que viajan por él. En ambos casos el sistema de codificación empleado es el cas-
tellano, pero se han utilizado distintos medios.
Veamos otro ejemplo que incluye todos los conceptos estudiados: cuando el lector lee estas
páginas (medio o canal) asimila su contenido porque están escritas en castellano (sistema de
codificación) conocido por el autor (emisor) y por el lector (receptor). Si estas ideas estuviesen
codificadas con símbolos chinos no existiría comunicación, a no ser que el lector conociese dicho
lenguaje.
NOTA: podemos comunicar sin problemas nuestra edad a un alemán, a un
francés y a un inglés, siempre que utilicemos el medio escrito. Efectivamente, to-
dos esos receptores sabrían interpretar un número en un papel. Sin embargo no
ocurriría lo mismo si el medio que se usa es la voz, ya que entonces codificamos en
nuestro propio idioma, que pueden no compartir los receptores.
En los modernos sistemas de comunicación pueden aparecer niveles de codificación más profun-
dos, los cuales el emisor y receptor no tienen por qué conocer.
Imaginemos a dos personas hablando por teléfono. Si utilizan el lenguaje castellano están reali-
zando un primer nivel codificación. Por otra parte se está utilizando un medio más complejo que es
la red telefónica que realiza una segunda codificación. Efectivamente, en el micrófono del emisor
está ocurriendo una transformación de las ondas sonoras en impulsos eléctricos, estos viajan por el
cable hasta alcanzar el otro teléfono, momento en el que se produce la transformación inversa: en el
auricular del receptor los impulsos eléctricos se convierten en ondas sonoras.
Esta segunda codificación se debe al cambio de medio (de ondas sonoras a impulsos eléctricos),
y su existencia puede ser totalmente ignorada por el emisor y el receptor sin que la comunicación se
vea afectada.
!"
"
A nivel macroscópico, es decir, desde un punto de vista humano, todas las magnitudes en la
naturaleza varían de forma continua a lo largo del tiempo. Una variación continua significa que no
existen cambios bruscos en la magnitud medida. Siguiendo con el ejemplo de la habitación, podemos
asegurar que la temperatura no bajará de +20 ºC a –15 ºC de forma inmediata, sino a lo largo de un
periodo más o menos largo de tiempo.
Una magnitud o señal es analógica cuando es continua en el tiempo.
Como antes comentábamos, todas las magnitudes de la naturaleza son analógicas y se pueden
representar en una gráfica como una línea continua, sin cortes ni interrupciones.
Por otra parte, el hombre, en su evolución tecnológica, ha introducido un nuevo tipo de magnitud
que no se comporta de esta forma. Son las magnitudes discretas.
Una magnitud o señal es discreta cuando varía a lo largo del tiempo tomando
valores definidos, nunca toma valores intermedios.
De forma coloquial podemos decir que varían “a saltos”. En la siguiente gráfica observamos una
de estas magnitudes que cambia entre los valores 0 y 3.
Obsérvese que los cambios se producen pasando directamente de un valor al siguiente. No existe
ningún intervalo de tiempo en el que la señal tome un valor intermedio. En el intervalo t1 el valor es
0 y en t2 el valor es 1, pero no existe ninguno donde el valor sea 0,5.
Variación de una señal digital a lo largo del tiempo. Una señal digital es una
magnitud discreta que sólo toma dos valores posibles: A o B.
Por otra parte, pero muy relacionado con lo que acabamos de aprender, tenemos el sistema
binario.
El sistema binario es un sistema de numeración que utiliza la base dos.
La anterior definición significa que el sistema binario representa cualquier cantidad con sólo dos
dígitos. El ser humano utiliza el sistema decimal, que consta de 10 dígitos (del 0 al 9), con los cuales
podemos igualmente expresar cualquier cantidad.
Matemáticamente hablando, ambos sistemas poseen muchas similitudes y comparten nume-
rosas propiedades. Por ejemplo, el binario posee toda la gama de operaciones aritméticas (suma,
resta, multiplicación, etc.) que realizamos en decimal. Además consta de algunas otras que le son
exclusivas y que toman nombres como NOT, XOR, etc.
IMPORTANTE: el sistema binario es el sistema de numeración utilizado por
los ordenadores. La base del sistema binario (como su propio nombre indica) es el
dos, lo que significa que sólo tiene dos símbolos: el 0 y el 1, frente a los diez del
sistema decimal.
Si el sistema binario posee los mismos principios que el decimal, con el que estamos más
familiarizados, ¿por qué los ordenadores utilizan el sistema binario y no el decimal? La respuesta
radica en que los circuitos que forman los ordenadores trabajan exclusivamente con señales
digitales.
Parece obvio que el sistema binario es ideal para codificar las señales digitales. En efecto, la
correspondencia es inmediata: el sistema binario, como su propio nombre indica sólo consta de dos
símbolos. Paralelamente las señales digitales sólo alcanzan dos valores.
Generalmente se utiliza el dígito 0 para representar el nivel bajo de la señal binaria, y el 1 para el
alto. De esta forma, la señal de la figura anterior puede ser codificada mediante la secuencia binaria
01010101.
La tabla anterior nos lleva a pensar sobre la correspondencia entre ambos sistemas. Efecti-
vamente, toda cantidad puede ser expresada con sistemas de numeración de cualquier base. La
dificultad que encontramos en comprender las cantidades expresadas en binario radica en la fuerte
costumbre que tenemos de utilizar exclusivamente el sistema decimal.
La siguiente tabla muestra la correspondencia entre los sistemas decimal, binario y hexadecimal
(este último con base 16 y también muy utilizado en informática):
Sistemas de numeración
Decimal Binario Hexadecimal
0 0 0
1 1 1
2 10 2
3 11 3
4 100 4
5 101 5
6 110 6
7 111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F
La correspondencia entre los sistemas de numeración permite afirmar que cualquiera
de ellos es perfectamente válido para representar cualquier cantidad numérica.
NOTA Sobre la tabla anterior: no hay que confundir la lectura de las cantida-
des; 4 en decimal se lee “cuatro”, pero su equivalente en binario (100) no se lee
“cien”, sino “uno-cero-cero”.
El sistema binario puede codificar cualquier número, empleando para ello cadenas de ceros y
unos. Estas cadenas aumentan su longitud a medida que la cantidad representada crece. Por ejem-
plo, el número 4 es 100 en binario, pero 2002 es 11111010010
En informática necesitamos facilitar el manejo de estas cadenas binarias, para ello se agrupan
conjuntos de dígitos binarios. Esta medida simplifica además el diseño de los circuitos digitales y las
operaciones binarias.
Cuando se aplicó toda esta teoría al diseño de los circuitos digitales, se observó la necesidad de
asociar los bits en grupos, con objeto de simplificar algunas operaciones y facilitar los diseños de los
circuitos electrónicos. Las agrupaciones más importantes son las siguientes:
Actualmente los componentes más utilizados, los transistores, han evolucionado y se agrupan en
circuitos integrados muy pequeños y complejos. Esto se consigue mediante un importante proceso
de miniaturización e inclusión en pequeñas pastillas de silicio. Estas se protegen del exterior en una
cápsula de plástico, constituyendo los chips o circuitos integrados.
Por el interior de los chips circula una corriente eléctrica de bajo voltaje que activa su funciona-
miento. Al ser circuitos digitales sólo admiten dos valores de voltaje eléctrico.
Representación y tablas de la verdad de las puertas lógicas que forman los circuitos
de un ordenador digital. La primera columna de cada tabla muestra el nombre de la puerta lógica
y el símbolo por el que se representan. El resto de las columnas constituyen las tablas de la verdad, donde A y B
son las señales de entrada (nótese que la puerta NOT sólo tiene una entrada).
Los sistemas complejos se componen de otros más sencillos, como el motor de la figura.
Este es un principio muy importante en informática, pues permite abordar sistemas muy
complejos mediante el estudio, diseño y combinación de otros más sencillos.
CURIOSIDAD: los ordenadores son los sistemas artificiales más complejos que
existen. El cuerpo humano, sin embargo, es un sistema infinitamente más com-
plicado que el más potente ordenador, pero no es producto de la inteligencia del
hombre, sino de millones de años de evolución natural.
Aplicando el razonamiento anterior, podemos afirmar que un ordenador es un sistema que se pue-
de dividir a su vez en subsistemas más sencillos. Desde nuestro contexto informático podemos definir:
Subsistema o módulo: unidad intercambiable que realiza una función concre-
ta y que está acoplada al resto del sistema mediante unas conexiones especiales.
El uso de módulos aporta grandes ventajas al diseño de dispositivos electrónicos. Un buen ejem-
plo lo constituyen los equipos de música, donde podemos ver el amplificador, el giradiscos o el re-
productor de compactos como módulos interconectados por medio de cables y clavijas. Es muy fácil
(si tenemos el dinero necesario) sustituir nuestro viejo amplificador por otro más moderno; tan sólo
hay que desenchufar el viejo y conectar el nuevo. El sistema completo, el equipo de música, sigue
funcionando perfectamente aunque hayamos sustituido uno de sus módulos. Este principio cobra
especial importancia en el ámbito de la informática.
En general, si se conoce la función de un módulo y sus conexiones, éste se puede ser sustituido
por otro que cumpla las mismas características, sin importar su marca, fabricante o tecnología. Esta
idea es muy importante en diversos aspectos de la informática actual, desde el diseño y la construc-
ción de ordenadores hasta en las modernas técnicas de programación.
Los módulos necesitan mecanismos de conexión con otros módulos. Una interfaz es un punto
de contacto entre dos módulos o entre un módulo y el exterior del sistema. Los cables y conectores
que unen el amplificador con el giradiscos son una buena muestra de interfaz entre módulos.
Las interfaces de un sistema con el exterior son muy importantes, ya que definen la forma de
comunicarnos con dicho sistema. Por ejemplo, cuando deseamos escuchar la música más fuerte
actuamos sobre la interfaz adecuada: giramos el mando del volumen.
Si aplicamos todas estas ideas al mundo de la informática, podemos pensar en un ordenador
como un sistema compuesto por cierto número de módulos o subsistemas conectados entre sí me-
diante sus correspondientes interfaces. Esta es la idea principal sobre la que basar el estudio de la
estructura y el funcionamiento de un ordenador.
Las flechas señalan las conexiones o interfaces de diversos componentes o subsistemas informáticos.
Aunque el término algoritmo esté muy ligado a la informática, puede aplicarse a cualquier tarea de la
vida cotidiana. Por ejemplo, veamos el algoritmo que seguimos para lavarnos los dientes por las mañanas:
1. Entramos en el cuarto de baño.
2. Abrimos el tubo dentífrico.
3. Cogemos el cepillo.
4. Aplicamos la pasta.
5. Cerramos el tubo dentífrico.
6. Cepillamos durante dos minutos.
7. Nos enjuagamos la boca.
El ejemplo anterior describe una tarea muy humana, pero igualmente pueden describirse proce-
sos técnicos más complejos. Cuando los algoritmos se traducen a un lenguaje apropiado para que los
ordenadores lo entiendan, hablamos de programas.
PROGRAMA: conjunto de instrucciones que controla el funcionamiento de un
ordenador para conseguir resultados.
A continuación presentamos un algoritmo sencillo que describe el proceso para sumar dos nú-
meros y el programa correspondiente.
Para que el programa resultante sea correcto, el algoritmo que sirve de punto de partida debe
reunir una serie de características, por ejemplo, que tenga un número finito de pasos, o que en algún
momento llegue a un final. El estudio de los algoritmos, sus propiedades, tipos, etc. se denomina
Algorítmica, y es una ciencia muy relacionada con la informática.
La traducción de un algoritmo a su correspondiente programa de ordenador se hace mediante
un lenguaje de programación. El lenguaje de programación tiene una sintaxis propia que regula la
escritura de las instrucciones en un formato adecuado.
Por ejemplo en el programa que vimos anteriormente, la instrucción para introducir un número
en el ordenador era INPUT seguida de una variable (debemos pensar en esta variable como el lugar
donde se almacena dicho número, en nuestro caso se llama A). Por tanto la sintaxis completa de esta
instrucción se puede resumir:
INPUT + <Variable>
Otros lenguajes de programación tienen distintas sintaxis, formas diferentes de expresar la ante-
rior instrucción. Una analogía son los idiomas español, francés, inglés, etc.
Independientemente del lenguaje de programación utilizado, las instrucciones que componen los
programas se clasifican en los siguientes grupos:
– Instrucciones de entrada/salida: mueven información entre periféricos, memoria central o
microprocesador. Por ejemplo la instrucción INPUT mueve un dato del teclado a la memoria.
NOTA: una clasificación de los periféricos se basa en el sentido en que circula
la información que procesan: de entrada (por ejemplo un teclado), de salida (un
monitor o una impresora) y de entrada/salida (como los módems o las unidades
externas de almacenamiento).
distintos. En este grupo localizamos los procesadores de textos, editores gráficos, programas
de diseño, bases de datos, y un largo etcétera. Al igual que el grupo anterior, hace uso de
los recursos que ofrece el software del sistema.
Relación entre los tres grupos principales de software. Tanto el software de desarrollo
como el de aplicación trabajan utilizando los servicios proporcionados por el software de sistema, el cual
actúa directamente sobre el hardware. Los programadores utilizan el software de desarrollo para producir
nuevo software; los usuarios por su parte utilizan el software de aplicación obteniendo resultados.
11.1. INFORMÁTICA
La información es fruto de la comunicación. Cuando un emisor transmite un mensaje a través
de un medio hacia un receptor, el conocimiento de este último se incrementa. Desde una perspec-
tiva exclusivamente natural, esta característica supone un gran salto evolutivo. Un organismo capaz
de transmitir información compleja tiene más posibilidades de supervivencia que sus competidores;
aumenta su capacidad para la toma de decisiones correctas, para generar experiencias válidas y para
coordinar la vida en comunidad, entre otros factores.
Las ciencias dedicadas al tratamiento de la información son tan antiguas como la existencia del
propio hombre; estas ciencias se han ido potenciando y sofisticando a lo largo de la historia hasta dar
el gran salto tecnológico en la etapa electrónica.
El esfuerzo intelectual y económico dedicado a mejorar el tratamiento de la información y a la
automatización de tareas se debe fundamentalmente a las siguientes razones:
– Realización de funciones que el hombre, por sí solo, no puede realizar (comunicación a larga
distancia, radares, etc.).
– Realizar tareas que al hombre le requieren gran cantidad de tiempo, por ejemplo la elabora-
ción de cálculos muy complejos.
– Necesidad de obtener seguridad en la realización de ciertas tareas (mediciones muy exactas,
procesos libres de errores, etc.).
– Liberar al hombre de tareas muy monótonas o penosas, como los robots en las cadenas de
montaje.
La gestión de una empresa actual precisa una estructura de comunicación que le facilite informa-
ción base para las decisiones más eficientes, contribuyendo al logro de objetivos. Cuando el volumen
de datos a tratar es grande, el proceso de obtener información rápidamente y con un alto nivel de
verosimilitud sólo puede obtenerse por medios informáticos que automaticen los procedimientos.
trabajos en batch o por lotes. Los mainframes admiten entrada remota de trabajos, trabajan
en tiempo compartido, satisfaciendo las necesidades de los equipos situados en niveles
inferiores.
– En un segundo nivel se encuentra el sistema informático de unidades organizativas inferio-
res, por ejemplo el sistema informático de una delegación o de un departamento. Se conoce
como nivel de Informática departamental. Tradicionalmente el Sistema Informático De-
partamental ha estado constituido por ordenadores que interaccionaban con los mainframes
y con elementos del nivel inferior. Hoy día, en unas ocasiones, las redes locales pueden
constituir los Sistemas Informáticos Departamentales en lugar de los miniordenadores.
– El tercer nivel es el de la Informática personal constituido hoy por un único microordenador
o una estación de trabajo. El Sistema Informático personal dispone de herramientas especia-
lizadas para el trabajo personal e interacciona a través de las redes de comunicaciones con
los Sistemas Departamentales y Corporativos.
En una distribución horizontal todos los equipos tienen la misma categoría o por lo menos no
existe un equipo central en el primer nivel de la jerarquía. En realidad suelen existir un conjunto de equi-
pos interconectados que cooperan entre sí, pero sin que ninguno de ellos centralice la información.
La evolución previsible de estos sistemas de informática distribuida es hacia los sistemas de
informática repartida en la que únicamente existirán recursos –de capacidad de proceso, inteligencia
y de almacenamiento– repartidos por las unidades de la organización. El software general del sistema
permitirá actuar al componente que en un momento determinado sea necesario. Las funciones de
proceso, almacenamiento y control de los datos las realizará directamente el sistema de forma global,
optimizando la calidad del servicio y disminuyendo al máximo los costes.
ESQUEMA INICIAL
1. Concepto de ordenador
2. La información y el ordenador
2.1. Instrucciones
2.2. Datos
4. Antecedentes históricos
4.1. Primeros orígenes
4.2. Avances históricos hacia la informática actual
5. Generaciones de ordenadores
5.1. Primera generación (1940-1952)
5.2. Segunda generación (1952-1964)
5.3. Tercera generación (1964-1971)
5.4. Cuarta generación (1971-1981)
5.5. Quinta generación (1981-hasta la actualidad)
1. CONCEPTO DE ORDENADOR
La definición más sencilla de ordenador es la siguiente:
Ordenador: máquina digital electrónica diseñada para realizar tratamientos
automáticos de la información.
En primer lugar observamos que un ordenador es una máquina. Efectivamente, se encuentra
en la misma línea que un molino de viento, una máquina de vapor, o un frigorífico, aunque a nivel de
diseño y construcción un ordenador es mucho más complejo que los ejemplo citados.
Es importante resaltar el carácter artificial del ordenador porque, aunque se trate del más potente
del mundo, se parece más a cualquier máquina que al cerebro humano, sobre el cual no tiene com-
paración en complejidad y versatilidad (aunque sí en potencia y velocidad de cálculo).
La gran variedad de máquinas inventadas por el hombre se clasifican según diversos criterios.
Uno de ellos es la tecnología en la que se fundamentan. Un ordenador es una máquina digital, es
decir, procesa señales discretas. Al ser electrónico pertenece a una rama distinta de los molinos de
viento o las máquinas de vapor, que se mueven por fuerzas físicas. La electricidad es la fuerza motriz
en un ordenador.
NOTA: existen ordenadores analógicos que procesan magnitudes físicas con-
tinuas y que fueron diseñados para la resolución de problemas concretos. Son los
ordenadores analógicos. Hoy en día están en franco desuso y no tienen interés en
nuestro estudio.
Históricamente el tratamiento de la información es un concepto tan antiguo como el hombre,
aunque ha sido la era de la electrónica la que ha posibilitado el despegue de esta ciencia. En nuestro
contexto describe las tareas que los ordenadores son capaces de ejecutar. Casi todas las cosas que
podemos realizar con ellos suponen algún tipo de tratamiento de la información, desde escribir una
carta hasta enviar un robot al planeta Marte. Existen innumerables actividades económicas y pro-
ductivas directamente relacionadas con este concepto, por ejemplo una transacción bancaria puede
considerarse casi exclusivamente una actividad de este tipo.
Cabe citar otra de las características más relevantes de los ordenadores: son máquinas de pro-
pósito general, dada la cantidad de actividades distintas que pueden desarrollar (ya hemos visto que
la expresión “tratamiento de la información” abarca un amplio rango de funciones).
Una definición más compleja que abarca todo lo expuesto es la siguiente:
Ordenador: un ordenador es una colección de recursos que comprende dis-
positivos electrónicos digitales, programas almacenados y conjuntos de datos, que
son capaces de aceptar y procesar datos según dichos programas, produciendo
de forma automática resultados controlados por las descripciones formuladas en
dichos programas.
Esta definición necesita algunas aclaraciones. Ya se ha mencionado el concepto de programa,
aprovechemos ahora para concretarlo: un programa es un conjunto de instrucciones, en un formato
especial aceptable por un ordenador y que controlan su comportamiento. Se denomina almacenado
porque las instrucciones que un ordenador está ejecutando en un determinado momento se encuen-
tran dentro de éste.
Esta capacidad de almacenar un juego completo de instrucciones que más adelante podrán ser
ejecutadas es una de las características distintivas de los ordenadores, aunque de forma estricta
también un vídeo o una lavadora pueden realizarla.
Por otra parte, el “procesado de datos” puede abarcar un conjunto de actividades muy amplio:
ordenarlos, sumarlos, hallar la media, contar palabras, representar una función de forma gráfica, etc.
Estas actividades que pueden llegar a un extremo grado de complejidad no deben hacernos pensar
que un ordenador es un dispositivo inteligente. El ordenador procesa los datos siguiendo las instruc-
ciones de un programa, el cual ha sido concebido, diseñado y creado por un ser humano. El ordena-
dor, por tanto, es tan sólo una potente herramienta con una capacidad de cálculo mucho mayor que
la de una persona, pero carente totalmente de la inteligencia de ésta.
Otras de las características más relevantes de los ordenadores es que son máquinas de propósi-
to general, lo cual viene originado por la cantidad de actividades que pueden desarrollar (ya hemos
dicho que la expresión “proceso de datos” abarca un amplio rango de funciones).
Terminamos señalando que los ordenadores son las más complejas creaciones artificiales jamás
producidas. Los conceptos de módulo e interfaz son esenciales para poder tratar esta complejidad,
tanto desde el punto de vista hardware como software.
2. LA INFORMACIÓN Y EL ORDENADOR
El ordenador es una máquina que sólo trabaja en función de la información que se le facilita. Esta
información se divide básicamente en dos tipos:
2.1. INSTRUCCIONES
Son las órdenes que dictan al ordenador lo que ha de hacer en cada momento. Cada instrucción
sirve para ejecutar una operación determinada. Las podemos clasificar en cuatro grandes grupos:
– Instrucciones de entrada/salida: gobiernan los intercambios de información entre memo-
ria principal y periféricos.
– Instrucciones de tratamiento: ordenan la ejecución de operaciones aritméticas y lógicas.
– Instrucciones de manipulación: ordenan los trasiegos de información de una zona a otra
de la memoria; mueven y transforman la información.
– Instrucciones de bifurcación y control: influyen sobre la marcha de los programas, depen-
diendo, generalmente, de comparaciones.
Un conjunto de instrucciones ordenadas de forma lógica es lo que constituye un programa; éste
se puede considerar como un reglamento que rige el funcionamiento del ordenador. El programa es
la herramienta lógica que usa el ordenador para tratar la información.
2.2. DATOS
Los datos son la información a procesar por el ordenador siguiendo los pasos marcados en el
programa. Los resultados facilitados por el ordenador, como consecuencia del tratamiento de la in-
formación, también son datos.
Los datos pueden ser:
– Datos de Entrada: información que facilitamos al ordenador para que sea procesada.
– Datos de Salida o Resultados: información que nos ofrece el ordenador, una vez han sido
tratados los datos de entrada.
4. ANTECEDENTES HISTÓRICOS
Un hecho común a estas ciencias consiste en que a menudo los avances teóricos suelen ser
más rápidos que los prácticos. En efecto, este hecho es una constante en la historia de la ciencia, y
se debe principalmente a que la tecnología para poner en práctica las ideas teóricas es más difícil de
conseguir que la propia teoría. No hay que olvidar que las ideas y teorías provienen del pensamiento
lógico y del uso racional de la mente, mientras que los aspectos prácticos dependen casi exclusiva-
mente del desarrollo tecnológico disponible en un momento histórico dado.
Estas cuestiones han llamado la atención de los pensadores durante miles de años. Entre todas
las culturas antiguas fue la antigua Grecia la más relevante, ya que realizó una contribución enorme
en la sistematización del razonamiento (el aspecto teórico).
Entre los logros de los griegos podemos citar, por ejemplo, el desarrollo de la geometría como
un sistema de deducción lógica: en lugar de realizar experimentos con círculos y analizar los datos
(método práctico muy utilizado por los egipcios), los matemáticos griegos definieron el concepto de
círculo y derivaron las propiedades de éstos utilizando el razonamiento formal (método teórico).
Los griegos también consiguieron grandes avances en la clarificación de los criterios a seguir
para realizar un razonamiento correcto. Los trabajos de Aristóteles fueron los mayores exponentes en
este sentido, ya que sentaron las bases de la lógica formal; sin embargo, no se produjeron avances
revolucionarios en este campo hasta el siglo XIX.
Los babilonios y egipcios, en cambio, no fueron razonadores sistemáticos como los griegos. En
su lugar desarrollaron una gran cantidad de métodos de cálculo, con la intención de facilitar éstos
y basados, fundamentalmente, en los métodos de prueba-y-error. Algunos de sus logros fueron la
obtención de:
– Tablas de multiplicar.
– Tablas de cuadrados y cubos.
– Tablas de raíces cuadradas y cúbicas.
– Tablas de inversos.
– Tablas de exponenciales para poder obtener el interés compuesto.
Una fórmula para resolver ecuaciones cuadráticas.
Un método para completar el cuadrado.
Pero los egipcios no fueron lo únicos en desarrollar el cálculo de forma práctica; sobre el 3.500
a.C., en los valles del Tigris y Éufrates se construyó un artilugio a base de unos soportes de madera y
unas pequeñas piedras planas sujetas mediante varillas que servía para contar y realizar operaciones
matemáticas básicas, como sumas y restas. Posteriormente se le dio el nombre de Ábaco, término
proveniente de la palabra fenicia Abak. Se han encontrado también ábacos en China, llamados Suan-
Pan, y en Japón (Soroban), aunque ambos de forma más tardía (sobre el 2.500 a.C.).
CURIOSIDAD: la palabra cálculo tiene raíz latina calculus, que significaba pie-
dra (recuérdese la enfermedad denominada cálculo de riñón, en alusión a la piedra
que se forma en este órgano). La razón por la que se adoptó este término para de-
finir una de las más importantes ramas de las matemáticas, es que antiguamente
se utilizaban piedras para contar.
El ábaco estuvo vigente en Europa hasta el siglo XVI, dejando paso entonces a otras herramien-
tas más potentes. Sin embargo, en algunos países orientales el ábaco conserva toda su vigencia y
se utiliza comúnmente para realizar operaciones sencillas en mercados y escuelas. Esto muestra la
potencia de esta sencilla herramienta inventada hace más de 5.000 años.
Tuvieron que transcurrir muchos siglos para el siguiente descubrimiento de importancia trascen-
dental para las matemáticas (y por ende para la informática); se realizó a finales del siglo XVI y co-
mienzos del XVII, cuando François Viète (1540-1603) estableció las bases del álgebra, mediante la
utilización de letras para simbolizar valores desconocidos. Aunque en un principio pueda parecer que
este descubrimiento no revista demasiada importancia, fue el causante de todo el desarrollo posterior
de los distintos tipos de ecuaciones, fundamentales para el progreso de muchas ciencias.
En efecto, a partir de ese momento se vive una intensa sucesión de conquistas matemáticas
acompañada esporádicamente de nuevas herramientas prácticas, fruto de éxitos tecnológicos. En
1614 John Napier (1550-1616) idea y desarrolla la teoría de los logaritmos, que pronto se dispone
como una valiosa herramienta de ayuda al cálculo; además construyó un calculador basado en tar-
jetas (denominado Estructura de Napier) que puede considerarse como un dispositivo intermedio
entre el ábaco y las primeras calculadoras mecánicas.
Pocos años después, en 1620, Edmund Gunter (1581-1626) inventó un precursor de la regla de
cálculo, que tras varias modificaciones originó la propia regla del cálculo, cuyos principios han llegado a la
actualidad casi sin variaciones. La principal mejora la realizó en 1650 un científico llamado Patridge.
Galileo (1563-1642) realizó numerosas contribuciones valiosísimas al desarrollo de las ciencias.
Cabe destacar su aportación de un método conciso, compacto y no ambiguo de expresar sucesos
científicos, además de sentar las bases de la formulación matemática de las ciencias físicas.
Otro ilustre pensador, René Descartes (1596-1650), descubrió e impulsó la geometría analítica
que permitió la aplicación del álgebra a problemas de geometría y dinámica, abriendo las puertas de
varias ramas de la física.
En 1623, Wilhelm Schickard diseñó y construyó un dispositivo, denominado posteriormente la
Calculadora de Schickard o Reloj Calculante, que realizaba sumas y restas de forma totalmente au-
tomática. Aunque las operaciones de multiplicación y división no eran completamente automáticas, se
podían realizar también con gran efectividad. Este dispositivo se considera hoy en día la primera calcu-
ladora digital, aunque en aquellos tiempos no tuvo demasiada difusión y aceptación, sobre todo porque
su inventor y toda su familia murieron víctimas de una epidemia tan comunes en esas fechas.
CURIOSIDAD: en la época de Schickard las técnicas de fabricación no estaban
lo suficientemente avanzadas como para permitir que su calculadora mostrase toda
su potencia, por ello, a principio del siglo XX, ingenieros de la IBM construyeron la
máquina ideada por Schickard siguiendo exclusivamente los planos de éste.
Veinte años más tarde del desgraciado final de Schickard, Blaise Pascal (1623-1662), insigne
matemático y pensador francés, retomó su línea de investigación con cierto éxito, siendo actualmente
considerado (un tanto injustamente) como el inventor de la calculadora. Además esta calculadora de
Pascal sólo podía sumar y restar, por lo que técnicamente fue inferior a su predecesora.
Pascal construyó su calculadora sobre la base de un diseño teórico que consistía en un artilugio
de complicados conjuntos de ruedas dentadas y piezas mecánicas (este artilugio fue denominado
Pascalina en sus primeros momentos, aunque después tomó el nombre de Máquina Aritmética de
Pascal). Aunque la Pascalina en teoría debía ofrecer resultados satisfactorios, la tecnología de aque-
llos días seguía siendo inapropiada para producir las piezas con la precisión requerida, resultando por
ello una máquina de escasa fiabilidad. He aquí un buen ejemplo de cómo las ideas teóricas siempre
han ido por delante de las posibilidades de la tecnología para ponerlas en práctica.
De forma paralela a Pascal, el matemático inglés Samuel Morland inventa en 1666 otro dispo-
sitivo denominado Máquina Aritmética de Morland, cuyo funcionamiento, diseño y prestaciones se
acercaban mucho a la Pascalina.
Un contemporáneo de Pascal, y figura de igual importancia, fue Gottfried Wilhelm von Leibniz
(1646-1716), que acompañó de un poderoso pragmatismo a su condición de excelente pensador
teórico. Baste citar que fue, junto con Isaac Newton, el descubridor del cálculo infinitesimal, el cual
abriría muchas puertas a las ciencias. Una de las citas más relevantes de Leibniz fue la siguiente:
“Es una pérdida de tiempo que personas cualificadas pierdan horas como
esclavos en la labor de calcular, lo que podría ser delegado en cualquier otro si se
pudieran utilizar máquinas.”
Leibniz ideó un dispositivo que fue llamado la Rueda de Leibniz o Calculadora Universal, si
bien es verdad que tuvo como base los trabajos anteriores de Pascal, este dispositivo podía realizar
de forma automática sumas, restas, multiplicaciones y divisiones, llegando a superar con creces la
antigua calculadora de Schickard. Los principios técnicos y teóricos que Leibniz desarrolló fueron tan
trascendentales que hasta la segunda guerra mundial se construyeron máquinas basadas en ellos.
Otra no menos importante aportación de Leibniz a la ciencia de la computación fueron sus ideas
sobre lógica simbólica, expuestas en sus estudios sobre la posibilidad de utilización de máquinas
para la validación de hipótesis, la equiparación del razonamiento a la realización de cálculos y en sus
investigaciones pioneras sobre aritmética binaria.
El francés Charles-Xavier Thomas (1785-1870), basándose en el modelo de Leibniz, construyó
una de las primeras máquinas calculadoras que funcionó correctamente, hasta tal punto que su co-
mercialización resultó un verdadero éxito. Se llevó al mercado con el nombre de Aritmómetro.
De forma independiente, Mathieu Hahn construye en 1779 un curioso dispositivo basado en
un modelo circular que era capaz de realizar las operaciones aritméticas básicas: sumas, restas,
multiplicaciones y divisiones.
Aun así podemos apreciar en el siglo XVIII cierta relajación de los impulsos investigadores que do-
minaron el siglo anterior, tendencia que cambia al entrar en el siglo XIX, el cual abre un período donde
proliferan los avances en computación. Esta vez la constante perfección de los métodos de cálculo y
el desarrollo de la sistematización del razonamiento originaron teorías revolucionarias e innovadoras,
sentándose definitivamente los pilares de la moderna informática.
El primer gran invento del siglo XIX, lo aportó el francés Joseph Marie Jacquard en 1805, cuan-
do, después de ciertos intentos fallidos, consigue fabricar un telar automático controlado por tarjetas
perforadas que actúan sobre las agujas tejedoras, haciendo que éstas dibujasen figuras en el tejido.
Esta máquina puede ser considerada como el primer dispositivo programable del mundo, y su perfec-
ción llegó hasta tal punto que se pudo realizar con ella un retrato en tela del propio Jacquard.
En 1791 nacía en Inglaterra Charles Babbage que, con el tiempo, llegaría a ser una gran figura
de la ciencia de la computación. Entre sus méritos podemos destacar su condición de profesor en
Cambridge, su participación en la fundación de la prestigiosa Royal Astronomical Society además
de ser el primer receptor de su medalla de oro, galardonando su trabajo titulado “Experiencias en la
aplicación de maquinaria en los cálculos de tablas matemáticas”. Este estudio lo llevó a la práctica
mediante la construcción de dos máquinas: la Máquina de Diferencias y la Máquina Analítica, que
en cierta manera pueden ser consideradas las primeras computadoras de la historia (curiosamente su
fuente de energía era una máquina de vapor).
De ambas máquinas, la Máquina Analítica estaba conceptualmente muy cerca de los modernos
ordenadores de propósito general, incluyendo un “almacén”, que correspondería a la actual memoria,
y de una muela, que vendría a ser el procesador.
Babbage diseñó la programación de su sistema mediante una serie de cartones perforados,
idea que tomó del telar de Jacquard. Las tarjetas de Babbage, sin embargo, contenían instrucciones
y datos que utilizaba la Máquina Analítica, la cual, por otra parte, nunca llegó a funcionar correcta-
mente debido a la imprecisa tecnología del momento. De nuevo tenemos otro ejemplo de la falta
de paralelismo entre el desarrollo teórico y el tecnológico, sin embargo su diseño fue revolucionario
por su complejidad basándose en un intrincado mecanismo de ruedas dentadas controlado por los
mencionados cartones perforados.
Esquema de la máquina analítica de Babbage. Esta máquina se ideó para resolver tablas de logaritmos
y cálculos trigonométricos, y por su diseño y estructura se considera a Babbage como el primer padre de la informática.
cular de máquina abstracta (máquinas de Turing). Inicialmente estas ideas supusieron un importante
avance teórico, aplicándose en la práctica una década después.
Otra persona que estuvo fuertemente involucrada en el diseño de computadoras digitales electro-
mecánicas fue Howard T. Aiken (1900-1973). En 1937 identificó cuatro características que debía po-
seer una computadora de uso científico y que no poseían las máquinas de gestión de aquella época:
– La posibilidad de manipular tanto números positivos como negativos.
– La capacidad de utilizar determinadas funciones matemáticas.
– La capacidad de operar de forma totalmente automática.
– La capacidad de realizar cálculos extensos en su secuencia natural.
En 1944 Aiken y sus colaboradores, junto con un grupo de ingenieros de la cada vez más po-
derosa IBM, diseñaron y construyeron una máquina electromecánica que ponía a su disposición las
características citadas anteriormente. Entre sus logros podríamos citar la capacidad de multiplicar dos
números en seis segundos y la de dividirlos en doce. Los programas estaban codificados en una cinta
de papel. Fue la primera computadora electromecánica y fue denominada popularmente Mark-I.
CURIOSIDAD: la Mark-I medía 16,6 metros de largo por 2,6 metros de alto, su
peso se aproximaba a 70 toneladas, poseía 800.000 piezas móviles y la longitud
total de los cables utilizados en su construcción alcanzaba 800 kilómetros.
Bell Telephone Laboratories, la empresa creada por Alexander Bell (inventor del teléfono), cons-
truyó una máquina de similares posibilidades que fue terminada con éxito en 1940. Algunas otras
versiones mejoradas se construyeron a lo largo de esos años, todas basadas en tecnología electro-
mecánica, teniendo el relé como componente principal de conmutación.
En 1938, Claude E. Shannon, del Instituto Tecnológico de Massachusetts (el prestigioso MIT),
contribuyó al desarrollo de la informática con otro éxito notable. Shannon demostró que el análisis de
circuitos de conmutación complejos podía realizarse mediante el álgebra de Boole, lo que supuso un
enlace muy importante entre la teoría y el diseño de los futuros ordenadores.
NOTA: el término BIT (Binary Digit) fue acuñado por Shannon en esas fechas, cuando publica sus
estudios sobre la teoría de la comunicación.
En 1940 un físico llamado John V. Atanasoff, profesor de la Universidad de Iowa (Estados
Unidos), y un alumno suyo, Clifford E. Berry, construyen la primera computadora digital totalmente
electrónica, las piezas electromecánicas en sus circuitos fueron sustituidas por válvulas. La llamaron
ABC (Atanasoff Berry Computer). Esta computadora utilizaba aritmética binaria y estaba construida
con el único propósito de resolver sistemas de ecuaciones lineales, principal interés de Atanasoff, por
lo cual no se consideró nunca como una herramienta decisiva de propósito general.
Aun así, la ABC ejerció una influencia decisiva sobre dos científicos de la Escuela Moore de Inge-
niería Eléctrica: John W. Mauchly y John Presper Eckert, diseñadores de la primera computadora
digital a gran escala. Esta computadora, llamada ENIAC, fue diseñada y construida entre 1943 y
1945 y contenía 18.000 válvulas y 1.500 relés. Entre los miembros del equipo que construyeron la
ENIAC se encontraban Atanasoff y Berry, cuyas experiencias con la ABC resultaron fundamentales.
La ENIAC estaba basada en válvulas de vacío, técnica que aceleró los cálculos mil veces respecto
a la MARK-I, ya que era capaz de sumar dos números en dos diezmilésimas de segundo. Aun así la
ENIAC ocupaba una superficie de 160 metros cuadrados, pesaba casi 30 toneladas y tenía aproxima-
damente 17.500 válvulas que consumían 200.000 watios, razón por la cual, la primera vez que entró
en funcionamiento, las luces de la ciudad de Filadelfia se oscurecieron.
CURIOSIDAD: el ejército de los Estados Unidos utilizó con frecuencia la ENIAC
para el cálculo de las trayectorias de los proyectiles de artillería.
Un matemático del Institute for Advanced Study de la Princeton University (Estados Unidos),
se interesó mucho por la construcción de la ENIAC. Su nombre era John von Neumann (1903-1957),
y puede ser considerado un genio en todos sus sentidos: fue doctor en matemáticas, graduado en física
experimental y química cuando contaba sólo con veintidós años. Al cumplir los veintitrés ya era un renom-
brado matemático en todo el mundo, colaborando con Hilbert (otro famoso matemático) en sus estudios
sobre la axiomatización de las matemáticas y realizando importantes estudios sobre lógica formal.
Por otra parte Von Neumann estaba muy interesado en la resolución de ciertos problemas plan-
teados por los modelos matemáticos de dinámica de fluidos que exigían cálculos complicados y
tediosos. Por todo ello, Von Neumann conjugó en sus logros en computación dos antiguos intereses
de la historia de la ciencia: la sistematización de la lógica (aspecto teórico) y la posibilidad de realizar
cálculos de forma rápida y fiable (aspecto práctico).
En agosto de 1944 Von Neumann fue incluido en el proyecto de la ENIAC, formando parte de un
comité que dictó los fundamentos del diseño de una nueva máquina, la EDVAC, con la que se preten-
dían corregir las deficiencias de la ENIAC. El diseño de la estructura lógica de este nuevo dispositivo
cayó bajo la responsabilidad de Von Neumann, siendo durante este trabajo cuando ideó muchos de
los postulados e ideas más importantes de la informática actual, entre los que se incluyen:
– Una notación para describir los aspectos lógicos de los circuitos de un ordenador, la cual
fue adaptada de un método utilizado anteriormente en medicina para describir el sistema
nervioso.
– Un conjunto detallado de instrucciones para la EDVAC.
– El concepto de programa almacenado, idea por la cual éste y los datos que utiliza pueden
almacenarse en memoria.
– El primer programa almacenado que ordenó y mezcló los números de una lista.
– La noción de secuenciamiento de operaciones basada en la idea de que, aunque una com-
putadora trabaje muy deprisa, una tarea puede subdividirse en una secuencia de pasos,
realizables uno detrás de otro. Esta idea fue decisiva en la simplificación de la circuitería de
la EDVAC en relación a la de la ENIAC.
– Al contrario de la ENIAC, que utilizaba aritmética decimal, la EDVAC utilizaba notación binaria
tanto para el almacenamiento como para la manipulación de números e instrucciones.
El diseño de computadoras evolucionó rápidamente en varias direcciones desde la construcción
de EDVAC, ya que las contribuciones de Von Neumann fueron tan trascendentales que forman las
bases de diseño de los modernos ordenadores; de hecho, hoy en día, en ciertos ámbitos, se utiliza el
término de máquina de Von Neumann para referirnos a ellos.
A partir de ese momento termina la etapa “prehistórica” de la informática. Nuevos desarrollos
como la comunicación de señales en paralelo, el uso de soportes magnéticos y la introducción de los
núcleos de ferrita como elementos principales de la memoria, abren nuevas etapas, que pasamos a
describir a continuación.
5. GENERACIONES DE ORDENADORES
Desde mediados del siglo XX hasta finales de la década de los ochenta, los avances tecnológicos
se suceden sin cesar. A lo largo de este período diferenciamos ciertas etapas denominadas genera-
ciones de ordenadores, que vienen definidas principalmente por los siguientes aspectos:
– La tecnología vigente en un momento dado.
– Las técnicas de programación utilizadas.
– El impacto de la informática en la sociedad.
Por otra parte, y debido al increíble ritmo de desarrollo de los últimos diez años, esta forma de cla-
sificación ha perdido la efectividad que tenía. Actualmente es muy difícil separar una etapa de otra.
– La sustitución del cableado por circuitos impresos, otro factor importante en el aumento de
la velocidad de los ordenadores, pues se disminuye la distancia que tienen que recorrer las
señales eléctricas.
– La aparición de los primeros periféricos que simplifican el diseños de los sistemas hard-
ware.
– La rápida expansión de los ordenadores por empresas y universidades, ampliándose sus
aplicaciones a los campos administrativos y de gestión.
– La necesidad de desarrollar nuevos métodos de programación más asequibles y adaptados
al ser humano: aparecen los lenguajes de programación evolucionados (Ensamblador, For-
tran, Cobol y Algol).
6.4. TENDENCIAS
Si bien en los sistemas informáticos corporativos subsisten de forma mayoritaria las arquitecturas
centralizadas, continúa la búsqueda de soluciones hacia arquitecturas distribuidas.
Estas soluciones dependen enteramente de la aparición de gestores de bases de datos distribuidas
suficientemente potentes, de modo que el usuario no tuviera que preocuparse de dónde se encuentran
los datos que estarían dispersos por los distintos equipos y bajo el control del propio sistema.
El acceso a los datos y servicios, así como la integridad y consistencia de éstos, estarían garan-
tizados desde cualquier puesto conectado mediante el sistema de comunicaciones de forma total-
mente transparente al usuario.
Según esto, parece que el tipo de arquitectura informática distribuida marca la tendencia actual
más firme.
Von Neumann supuso que la electrónica siempre sería lo suficientemente rápida para ejecutar
todos los pasos de un algoritmo de forma secuencial, pero debido a la evolución tecnológica los or-
denadores se han ido utilizando en la resolución de problemas cada vez más complejos, habiéndose
llegado a un nivel en que la suposición de Von Neumann ha dejado de ser válida. El diseño de los
procesadores paralelos parecen ofrecer la solución.
Por otra parte los lenguajes de programación también se han desarrollado enormemente en los
últimos años, incluyendo las técnicas de orientación a objetos, permitiendo el aislamiento de módulos
de software reutilizables y originando la construcción de programas más fiable.
Otra de las áreas de máximo interés es el desarrollo de redes de ordenadores, que tienen su
máximo exponente en Internet. Los ordenadores ya no son unidades aisladas; sino que forman parte
de redes que les permiten compartir recursos y comunicarse a grandes velocidades.
Con la difusión y popularización de los ordenadores personales hemos entrado en una nueva era
de las tecnologías de la información, cuyo horizonte parece perfilarse como la sociedad automatizada
o sociedad del ocio en un futuro no muy lejano. Los especialistas, interpretando las repercusiones
de esta revolución de la información en la sociedad, consideran que el impacto ha sido mucho más
profundo que el que causó en su día la revolución industrial.
No es fácil predecir los futuros avances y mucho menos los plazos en que éstos ocurrirán, de-
bido fundamentalmente a que la evolución y el desarrollo de la tecnología aumenta a un ritmo cada
vez más acelerado. No obstante, a partir de los logros alcanzados y de otros en experimentación, se
puede vislumbrar el efecto de su implantación masiva en la sociedad.
La gestión de las empresas se realizará de forma totalmente automatizada, mediante el uso de
los sistemas de información, eliminando así la mayor parte del trabajo manual.
En la industria, el uso de robots con capacidad de variar su producción con tan sólo modificar el
programa de su funcionamiento, hará posible el abaratamiento de productos personalizados o de con-
sumo minoritario, fabricados en pequeña escala, de forma similar a la actual producción en masa.
En el campo de la medicina, las bases de datos, las redes entre hospitales, los sistemas expertos
de diagnóstico y los de vigilancia de pacientes, facilitarán la labor de médicos y personal sanitario para
salvar vidas, no sólo en los grandes centros urbanos, sino en los entornos rurales o aislados, los cua-
les dispondrán prácticamente de las mismas posibilidades gracias a las redes de telecomunicación.
En educación, los programas tutoriales de enseñanza asistida por ordenador se generalizarán en
los centros docentes, universidades y departamentos de formación de las empresas, lo que facilitará
la labor del profesor en la atención personalizada y la adaptación a los diversos ritmos de aprendizaje
de los alumnos, así como en educación especial a discapacitados. Mediante reconocedores y gene-
radores de voz se facilitará la comunicación con el ordenador, el cual será capaz incluso de detectar
el estado anímico de un alumno.
En ciencias e ingenierías, los grandes y complejos programas de simulación eliminarán la necesi-
dad de costosos modelos a escala, y el proceso estadístico de enormes cantidades de datos facilitará
la planificación y la toma de decisiones.
Actualmente se está estudiando el funcionamiento del cerebro humano y de las redes neuro-
nales, con el fin de impulsar de forma decisiva las técnicas de inteligencia artificial y su posterior
aplicación a la robótica.
Existen multitud de opiniones sobre el efecto de todos estos cambios en la sociedad del futuro,
no todas coincidentes. Unos piensan que proporcionarán mayor libertad individual y una sociedad
más humana, por ejemplo, la fabricación controlada mediante ordenador implicará un aumento de la
productividad, una reducción de la jornada laboral, un nivel de vida superior y en definitiva un paso
fundamental hacia la sociedad del ocio.
Por el contrario, los más pesimistas auguran el control y el dominio de los ordenadores sobre la
vida del individuo, social y privada, y de su efecto deshumanizador.
Para finalizar, podemos decir que efectivamente no todas las aplicaciones de los ordenadores
son beneficiosas y ni siquiera efectivas, pero lo que resulta innegable es que, hoy por hoy, hemos de
considerar la informática como una herramienta imprescindible en nuestra vida diaria, que resuelve
muchos más problemas de los que genera, dependiendo sus consecuencias futuras sobre el individuo
y sobre la sociedad de la orientación que le demos.
8.1. SUPERORDENADORES
Son los ordenadores más potentes que existen. Las prestaciones de velocidad y capacidad de
proceso son impresionantes, pues están diseñadas especialmente para cálculos muy complejos.
Poseen un gran número de procesadores que trabajan en paralelo, con lo que se consiguen realizar
billones de operaciones por segundo. Existen relativamente pocas unidades en el mundo, y se utilizan
para fines muy concretos: predicciones meteorológicas, control de satélites, aplicaciones militares,
etc. Un ejemplo de ellos es el Cray Y-MP de Cray Research Inc.
8.2. MAINFRAMES
Son grandes equipos orientados generalmente a la gestión de grandes empresas y a procesar
grandes bases de datos. Su potencia de cálculo es inferior a la de las anteriores, ejecutando varios
millones de operaciones por segundo. Disponen de varios Gb de memoria RAM y de palabras de 64
o 128 bits. Una de sus características principales es la de soportar un gran número de terminales
trabajando de forma simultánea. La IBM 3090 admite aproximadamente 5000 usuarios. Esto se
consigue mediante técnicas de tiempo compartido y multiprogramación.
Funcionan dirigidos por un sistema operativo muy específico (estudiaremos los sistemas opera-
tivos más adelante), y pueden intervenir en procesos distribuidos donde se conectan varios de ellos,
de forma que se reparten el trabajo a realizar.
8.3. MINIORDENADORES
Son máquinas de tipo medio. Se utilizan para gestionar empresas u organizaciones de tamaño
moderado. Su capacidad de proceso es inferior a la de las anteriores y controlan un menor número
de terminales que puede llegar hasta 64. Sus sistemas operativos son poco estándares y pueden
llegar a ser muy específicos, dependiendo del constructor. Dos ejemplos muy típicos de este tipo de
computadoras son la VAX de Digital Equipment Corporation y la AS400 de IBM.
8.5. MICROORDENADORES
Son equipos orientados al trabajo personal o monousuario. Estos ordenadores han permitido la
gran difusión de la informática que vivimos en nuestros días, y son fruto de los avances tecnológicos,
especialmente de miniaturización de componentes, y de la continua reducción de precios.
Un ordenador portátil
– Notebook. Es un microordenador similar al portátil, pero aún más pequeño, de menor peso
y más especializado. Tiene útiles aplicaciones como la de agenda electrónica, procesador de
textos, etc.
Un ordenador notebook
– Palmtop. Es el dispositivo más pequeño que puede considerarse ordenador. Son muy re-
cientes, y van incorporando muchas prestaciones en un tamaño realmente reducido.
ESQUEMA INICIAL
1. Elementos principales
1.1. Estructura básica
1.2. Unidad Central de Proceso
1.2.1. Unidad de control
1.2.2. Unidad Aritmético-Lógica (UAL)
1.2. Memoria central
1.3. Buses
3. Operaciones básicas
3.1. Entrada de datos
3.2. Salida de datos
3.3. Transmisión/recepción de datos
3.4. Tratamiento de datos
5. Memoria
6. Tecnologías
6.1. ROM: Read Only Memory (Memoria de sólo lectura)
6.1.1. ROM
6.1.2. PROM, Programmable ROM (ROM Programable)
6.1.3. EPROM, Erasable Programmable ROM (ROM Programable que se pue
de borrar)
6.1.4. EEPROM, Electrically Erasable Programmable ROM (ROM Programable
que se puede borrar eléctricamente)
6.2. BIOS, CMOS y ROM shadowing
6.3. RAM: Random Access Memory (Memoria de acceso aleatorio)
6.3.1. SRAM: Static RAM (RAM estática)
6.3.2. DRAM: Dynamic RAM (RAM dinámica)
6.4. Memoria Caché
9. Módulos de memoria
9.1. Módulos DIPs (Dual Inline Package)
9.2. Módulos estándar y propietarios
9.3. Módulos SIMMs (Single Inline Memory Module)
9.4. Módulos DIMMs (Dual Inline Memory Modules)
9.5. Módulos RIMM
9.6. Bancos de memoria
1. ELEMENTOS PRINCIPALES
A veces se considera la CPU y la memoria como una única unidad, debido a la fuerte relación
existente entre ellas y a su proximidad física dentro de la carcasa del ordenador (en contrapartida a
los periféricos que suelen encontrarse más distantes). Desde el punto de vista académico conviene
separar estas dos unidades, ya que tanto sus características como sus funciones son diferentes.
Esquema de la estructura básica de un ordenador. El bloque marcado con una C representa un elemento controlador de la
unidad de entrada/salida. Este controlador junto con la unidad es el periférico (recuadro punteado). El controlador puede
situarse físicamente junto a la unidad o cerca de la UCP (caso que representa la figura). La comunicación entre los subsiste-
mas se realiza por los buses del sistema y conexiones externas
Esto puede plantear una curiosa pregunta: ¿qué ocurre al encender el ordenador cuando se
ejecuta la primera instrucción?. Al encender el ordenador el CP toma un valor por defecto
que es donde debe encontrarse la primera instrucción.
– Registro de instrucción (RI): contiene la instrucción que se está ejecutando en un momen-
to dado. Como veremos, las instrucciones tienen dos partes: el código de operación (indica
qué acción se va a realizar) y los operandos (indican dónde se va a realizar dicha acción).
– Decodificador: el decodificador extrae el código de operación de la instrucción del RI, lo
analiza y lo comunica al controlador.
– Controlador (o secuenciador): este elemento es el encargado de interpretar el código de
operación y de llevarlo a cabo. Para ello genera las llamadas microórdenes, que actúan sobre
el resto del sistema en sincronía con los impulsos del reloj.
Esquema de la unidad aritmético-lógica (comprendida en el recuadro punteado)
La ALU se comunica con el sistema mediante el bus de datos, y tiene la siguiente estructura:
– Circuito operacional (COP): es el elemento más importante de la ALU. Contiene todos
los circuitos digitales necesarios para realizar las operaciones. Los registros de entrada pro-
porcionan los datos sobre los que operar. El bus de control indica qué operación hay que
ejecutar (suma, resta, comparación, etc.).
– Registros de entrada (REN): estos registros almacenan los datos u operandos sobre los
que se ejecuta la operación en el COP. Pueden servir también para almacenar resultados
intermedios de las operaciones en curso.
– Acumulador: los resultados finales se colocan aquí. Es un registro especial conectado a los
registros de entrada. Existe también una conexión directa al bus de datos que posibilita el
envío directo de los resultados a memoria o a la unidad de control.
– Registro de estado: registro que almacena información sobre ciertas condiciones y estados
acerca de la última operación realizada. Por ejemplo, si el resultado de una comparación ha
sido positivo o negativo, mayor o menor, etc.
– Registro de dirección de memoria (RD): este registro contiene, como su propio nombre
indica, la dirección de la celdilla a la que se accede, bien para leerla, bien para escribir sobre
ella. La dirección de memoria se obtiene del bus de direcciones del sistema.
– Registro de intercambio de memoria (RI): este registro sirve de almacén temporal en las
operaciones de lectura y escritura. En el primer caso el registro se carga con el dato leído
de la memoria, para posteriormente ser trasvasado al procesador mediante el bus de datos.
Si se tratase de una operación de escritura, el proceso es el inverso: en una primera fase
se carga el RI con el dato a escribir a la vez que el RD toma la dirección dónde escribirlo; en
una segunda fase el dato del RI pasa a la casilla seleccionada por el RD completándose así
la escritura a memoria.
– Selector de memoria: el selector es el elemento que transforma la dirección del RD (que
en realidad consiste en un dato numérico) en una dirección efectiva, activando y desactivan-
do las correspondientes líneas de los circuitos conectados a la memoria central.
1.3. BUSES
Ya hemos mencionado algunos de los buses presentes en la mayoría de los ordenadores. Se
tratan de un conjunto de circuitos que se encargan de la conexión y comunicación entre los diversos
componentes de un ordenador.
Esta comunicación se realiza en la práctica por medio de varias líneas eléctricas que se distribu-
yen por el sistema una al lado de la otra, permitiendo la transmisión de datos en paralelo. Los buses
del sistema se dividen en los siguientes tipos:
– Bus de control: transmite señales generadas en la unidad de control que son interpretadas
como órdenes por el resto de los dispositivos del sistema.
– Bus de direcciones: transporta las direcciones de memoria sobre las que se va a actuar en
operaciones de lectura y escritura.
– Bus de datos: traslada datos hacia y desde la memoria principalmente, aunque también se
conecta a otros dispositivos (puertos del ordenador, controladores de periféricos, etc.).
3. OPERACIONES BÁSICAS
Si tenemos que hacer una clasificación de las actividades que un ordenador es capaz de realizar,
ésta sería la siguiente:
actividad para una única persona o para todos los habitantes de una ciudad. Lógicamente el
tiempo empleado para ambas tareas será distinto, pero el proceso es siempre el mismo.
– Distribución de la información. Hoy en día la cuestión del acceso a grandes cantidades de
información desde cualquier lugar del mundo es un hecho. Seguro que el lector habrá oído
mencionar el fenómeno Internet, que conecta ordenadores en todo el mundo. Los modernos
equipos informáticos y de comunicaciones hacen posible esta realidad.
– Precisión y complejidad. Los ordenadores son especialmente adecuados para actividades
complicadas o que requieran una precisión muy elevada, por ejemplo la gestión del tráfico
aéreo o la predicción de cambios meteorológicos.
– Velocidad. Los ordenadores modernos pueden realizar millones de cálculos por segundo y
con una probabilidad de fallo nula. No hay ni que mencionar las ventajas que esto supone
frente a las capacidades humanas.
5. MEMORIA
Debido a que existen varias memorias en un ordenador actual (del sistema, de vídeo, etc.), el
propio término “memoria” se hace un poco ambiguo, pero tradicionalmente se refiere a la memoria
del sistema principal o del sistema:
La memoria principal, del sistema (o simplemente memoria) almacena los programas y datos que
se están ejecutando en un ordenador en un momento dado.
La memoria está muy relacionada con otros componentes del ordenador, como la placa base, el
chipset y el procesador, y aporta características muy importantes a un ordenador:
– Rendimiento: la cantidad y tipo de memoria disponible es un factor fundamental para el
rendimiento global de un ordenador. Por ejemplo, una falta de memoria puede causar que
un procesador funcione al 50% de su capacidad real.
– Soporte de software: muchos programas actuales requieren una determinada capacidad
mínima de memoria para poder ejecutarse.
– Estabilidad del sistema: una memoria en mal estado es causa de fallos misteriosos en el
ordenador, difíciles de diagnosticar y reproducir.
– Actualización del sistema: existen muchos tipos de memoria, más o menos estándares.
Una buena elección en este aspecto es garantía de que el ordenador pueda adaptarse a los
nuevos avances técnicos del futuro (al menos durante cierto tiempo).
6. TECNOLOGÍAS
Como antes mencionábamos, en un ordenador conviven varios tipos de memoria. Son las siguientes:
6.1.1. ROM
Está construida mediante una técnica denominada lógica cableada, que codificada la informa-
ción en el mismo soporte de silicio donde está instalada la memoria. Está específicamente designada
para realizar una misión que no varía y su funcionamiento a nivel de la utilización de los datos es
análogo a un CDROM: podemos leerlo muchas veces, pero no cambiar su contenido.
6.1.3. EPROM, Erasable Programmable ROM (ROM Programable que se puede borrar)
ROM que puede reprogramarse mediante una técnica especial: la memoria se construye cubrién-
dola de un cristal a través del cual la luz ultravioleta puede cambiar su contenido. Su funcionamiento
es análogo a un CD-R, que podemos regrabar muchas veces.
Sección de una placa base que muestra el chip EEPROM que contiene
la BIOS y la pequeña pila circular que lo alimenta
Aunque la memoria EEPROM mantiene sus valores cuando el ordenador está apagado, necesita
una pequeña pila para mantener su información durante estos periodos, pila que suele durar años.
La tecnología utilizada en esta memoria se denomina CMOS (Complementary Metal Oxide Se-
miconductor) o semiconductor complementario de óxido metálico, y tiene la ventaja de requerir muy
poca energía para mantener su información. La CMOS, asimismo, contiene un mecanismo que ga-
rantiza su integridad denominado checksum.
NOTA: la memoria EEPROM es denominada a veces NVRAM (non volatil RAM)
o RAM no volátil.
El principal inconveniente de la BIOS, y de la ROM en general, es que resulta demasiado lenta,
al menos comparativamente con la RAM. Mientras que el tiempo de acceso de la RAM varía entre 50
y 70 ns, la ROM lo incrementa hasta 200 ns. Además el acceso a la RAM se hace con buses más
anchos que a la ROM.
Estos factores hacen necesario un mecanismo para acelerar el trabajo con la ROM, que resulta
tan sencillo como trasvasar parte de la ROM a la RAM y proteger ésta contra accesos de escritura,
con lo que en la práctica se comporta como una ROM rápida. Este mecanismo se conoce como ROM
Shadowing.
Los ordenadores utilizan DRAM en su memoria principal, aun siendo más lentas y complicadas
que las SRAM y necesitando el circuito de refresco. Las razones de ellos son dos: su coste (conside-
rablemente más baratas) y que ocupan mucho menos espacio (menos de ¼ que las SRAM).
Existen muchas clases de memorias DRAM. Aunque la idea principal es la misma, las diferencias
se dan atendiendo a su tecnología y velocidad. Las diferencias son en su mayoría referentes a su or-
ganización y tipo de acceso, cada vez más eficientes y rápidos, para estar a la altura de los modernos
procesadores.
El factor más importante que condiciona el tipo de DRAM de un ordenador es el chipset de su placa
base, circuito que controla entre otras cosas el acceso a memoria. Estos tipos de DRAM son los siguien-
tes:
– DRAM convencional: es la DRAM original y por tanto más antigua. Las celdas se organizan
matricialmente, con el acceso a las celdas definido por las direcciones de su fila y columna.
Actualmente resulta obsoleta.
– FPM (Fast Page Mode): es más rápida que la anterior porque utiliza la dirección de la fila para
el acceso de varias celdas conjuntas, con lo que dicha dirección sólo debe ser especificada una
vez.
Aunque aún se puede encontrar en ciertos PCs, resulta antigua y lenta, y no es compatible
con los modernos buses de memoria a más de 66 MHz.
– EDO (Extended Data Out): algunas veces también denominada Hyper Page Mode. Resulta
ligeramente superior que la FPM (sobre un 5%) debido a que el acceso a una celda de me-
moria puede comenzar sin que el anterior haya aún finalizado.
La memoria EDO es muy usual todavía, siendo la tecnología estándar para los ordenadores
de 5ª y 6ª generación a partir de 1994, aunque los modernos PCs ya no la utilizan siendo
sustituida por SDRAM.
– BEDO (Burst Extended Data Out): combinación de memoria EDO y tecnología pipeline,
permitiendo velocidades de acceso considerablemente más altas.
Al contrario que EDO, BEDO no ha extendido su uso en el mercado, debido sobre todo a la
imposición de SDRAM. Aun con rendimientos similares, no ha contado con el apoyo de la
todopoderosa empresa INTEL, que no llegó a adaptar sus chipsets a esta tecnología.
– SDRAM (Synchronous DRAM): esta tecnología relativamente nueva (1999) se caracteriza
por ser síncrona, a diferencia de las anteriores que eran asíncronas. El acceso se realiza en
sincronismo con el reloj del sistema, en modo burst (ráfaga) e introduciendo la tecnología
interleaving, resultando todo ello en rápidas velocidades compatibles con los buses de 100
MHz. SDRAM se ha impuesto en el mercado desbancando a los demás sistemas.
– DDR SDRAM (Double Data Rate SDRAM): constituye uno de los nuevos estándares pro-
puestos. Aunque similar a SDRAM en muchos aspectos, dobla la velocidad al optimizar el
uso del reloj del sistema (utiliza tanto los flancos de subida como los de bajada de la se-
ñal).
– DRDRAM (Direct Rambus DRAM): otro candidato al mercado del futuro, con el aliciente
de que no se trata de mejoras de tecnologías preexistentes, sino de un revolucionario nuevo
diseño que utiliza la memoria como si fuese un bus interno. De hecho está basada en un
bus de 16 bits a 400 MHz, dando un rendimiento de 1,6 Gb por segundo. Aunque el bus se
ha reducido de 64 a 16 bits, este último es capaz velocidades mucho más elevadas.
DRDRAM se utiliza en unos módulos especiales denominados RIMM (Rambus Inline Memory
Module).
– SLDRAM (Synchronous-Link DRAM): nueva tecnología desarrollada por un grupo de unas
20 empresas de la industria de los ordenadores. Es un diseño evolutivo destinado a mejorar
el rendimiento de la memoria SDRAM.
Se basa en un bus de 64 bits a 200 MHz, ofreciendo una velocidad de 3,2 Gb por segundo
(doblando a DRDRAM). Además esta tecnología tiene el atractivo de ser un sistema abierto,
de patente pública.
– VRAM (Video RAM): los modernos adaptadores de vídeo utilizan su propia memoria, separada
de la memoria del sistema. El rendimiento exigido a los sistemas de vídeo es mucho mayor, lo
que ha llevado a soluciones revolucionarias en este campo, pero incrementando el coste.
Tecnología Velocidad del bus Velocidad de la memoria (ns)
Conventional 4.77-40 80-150
FPM 16-66 60-80
EDO 33-75 50-60
BEDO 60-100 !?
SDRAM 60-100+ 6-12
Tabla comparativa de tecnologías de memorias
Jerarquía de cachés. Cada capa es más rápida que la anterior y se encuentra más cerca del
procesador. El límite se encuentra en el nivel 1, incluida físicamente dentro de éste.
NOTA: el término caché se refiere por sí mismo a la caché de 2º nivel o secun-
daria, haciendo referencia al sistema entre el procesador y la memoria principal.
1 2 3 4 5 ...
3 H O L A
...
Esta estructura lógica supone un nivel de abstracción sobre la organización física que simplifica
la gestión de la memoria. En efecto, ahora podemos acceder a una celda de memoria con tan sólo
especificar su fila y su columna. Por ejemplo, la fila 3, columna 4 contiene una letra H.
Los ordenadores, al trabajar en sistema binario, no utilizarían exactamente el ejemplo dado
anteriormente. Ellos enviarían un valor 011 (correspondiente binario a la fila 3) y 100 (ídem para la
columna 4). En realidad, al ser la matriz de la memoria muy extensa, las cadenas de unos y ceros
utilizadas son muy grandes, pero se mantiene la misma filosofía aquí expuesta.
El circuito que controla este sistema consta de unas líneas que transportan a la memoria los
valores de las filas y columnas. Estas líneas se denominan bus de direcciones.
La razón de organizar la memoria en forma matricial y no lineal es que en este último caso nece-
sitaríamos un bus de direcciones más ancho. En efecto, al no acceder por filas y columnas, no dividi-
mos la dirección de una celda, por lo que el bus de direcciones tendría que ser el doble de ancho. En
la práctica esto ocasiona que la producción de chips de memoria se complique y se encarezca, razón
por la cual el sistema de filas y columnas se ha impuesto.
1 2 3 4 5 6 7 8 ...
H O L A
Organización lineal de la memoria. Aunque en teoría esta estructura es perfectamente válida para
el acceso a las celdas, en la práctica supone un gran encarecimiento en la producción de los chips
de memoria. Esta es la razón por la que se impone la estructura matricial.
NOTA: los chips de memoria también guardan una estructura en la placa base
del ordenador; se organizan en módulos y en bancos.
Cuanto más ancho sean estos buses, más información pueden transmitir simultáneamente. Sus
señales viajan sincronizadas por el reloj del sistema, factor fundamental a la hora de medir las presta-
ciones de un ordenador. El ancho de banda de un bus es una medida de la cantidad de información
(en bits) que puede transmitir por unidad de tiempo y se mide en MHz (Megaherzios).
NOTA: podemos pensar en bus de datos como una autopista con una serie de
carriles, y el ancho de banda como el número de coches que circulan cada cierto
tiempo. La capacidad total depende del número de carriles (ancho del bus) y de la
velocidad a la que circulan los coches (reloj del sistema).
En cuanto al bus de direcciones, su anchura determina la cantidad total de memoria direcciona-
ble: con más líneas disponemos de más dígitos, lo que incrementa el número utilizado para especifi-
car filas y columnas de la memoria.
Generación del Velocidad del
Tecnología DRAM Velocidad de DRAM
procesador bus de memoria
1ª, 2ª 4.77-20 Convencional 100-120
Convencional, Page
3ª, 4ª 16-40 70-100
Mode, FPM, EDO
5ª, 6ª 50-100 FPM, EDO, BEDO, SDRAM 8-10 (SDRAM) 50-70 (asíncrona)
SDRAM, DDR SDRAM,
Futuro 125+ ?
DRDRAM, SLDRAM
Tabla comparativa de datos referentes a la memoria. Todos los tiempos en nanosegundos.
Los símbolos de interrogación representan tecnologías futuras
El tiempo necesario se define mediante 4 números en la forma X-Y-Y-Y, por ejemplo: 5-2-2-2, donde
el primero indica el número de ciclos necesarios para transferir el primer dato y los demás indican los
ciclos para los datos consecutivos. El tiempo de latencia viene indicado por el primer número.
8.7. INTERLEAVING
Este término define una técnica muy moderna consistente en disponer de varias líneas de acceso
a la memoria, de forma que los datos se puedan recuperar o escribir simultáneamente. La memoria
queda así divida en bloques, generalmente 2 o 4, de acceso simultáneo. Es una técnica cara utilizada
en ordenadores de altas prestaciones.
8.9. CAPACIDAD
La capacidad se define como la cantidad máxima de información que una memoria puede alma-
cenar. Existen varias unidades de medida; en el caso de la memoria RAM la más adecuada es el Mb
(Megabyte), equivalente aproximadamente a 1 libro con un millón de letras.
Existen varios factores que limitan la capacidad máxima en un ordenador. Son los siguientes:
– Límite de direccionabilidad: determinado por el ancho del bus de direcciones, indica la
dirección más alta de fila-columna que cabe en dicho bus.
– Limites del sistema operativo: especialmente los antiguos, como el MSDOS, que debido
a su diseño no permitían trabajar con más de una cantidad determinada de memoria. En los
sistemas operativos actuales este límite, aunque existente, está más allá de las necesidades
más exigentes.
– Límites del controlador de memoria: dispositivo incluido en el chipset del ordenador que
traduce las direcciones de fila-columna en señales de control a la memoria. Este factor está
limitado entre 512 Mb y 1 Gb en los modernos PCs.
– Límites físicos de los chips y de la placa base: los chips de memoria imponen otro límite,
así como los espacios reservados para ellos en la placa base.
Actualmente, en la mayoría de los casos, estos límites dejan suficiente margen para las necesi-
dades que pudiéramos tener.
La capacidad de memoria de un ordenador tiene una influencia decisiva en su funcionamiento.
Una falta de memoria RAM resulta en una disminución de las prestaciones que el equipo podría ofre-
cer. Cambiar el procesador por uno superior en semejantes circunstancias no resuelve gran cosa.
Estrictamente hablando, hay que señalar que aumentar la memoria no cambia la velocidad del
ordenador ni de ninguno de sus componentes, pero disminuye el trasiego producido por la memoria
virtual. Efectivamente, el traspaso de información hacia/desde el disco duro debido a que los progra-
mas no caben en la RAM, causa una degradación en la velocidad del ordenador. Un aumento en la
memoria RAM disminuye este fenómeno, por la sencilla razón de que el disco duro es un dispositivo
miles de veces más lento que la memoria.
NOTA: la memoria tiene un tiempo de acceso de nanosegundos (10-9 sg) mientras que en el
disco duro estos tiempos se elevan hasta los milisegundos (10-3 sg).
Por otra parte, existe un límite pasado el cual un aumento de memoria no resulta apreciable en la
respuesta del ordenador. Este límite depende mucho del tipo de programas que se ejecuten en el orde-
nador.
9. MÓDULOS DE MEMORIA
La memoria, como los procesadores, están hechos de diminutos semiconductores que deben
empaquetarse en una estructura física que aporte solidez y manejabilidad.
Sección de una placa base que dispone de conectores (sockets) para módulos SIMMs
(los 4 blancos más cortos) y DIMMs (los dos negros más largos)
NOTA: las direcciones pueden expresarse, para más facilidad, de forma lineal.
Así C800:0000 se convertiría en C8000.
de la memoria para los programas, limitando ésta. Entonces la decisión parecía acertada porque se
pensaba que los programas nunca necesitarían más de 640 Kb para ejecutarse. Esta idea provoca
risa entre los usuarios actuales.
A medida que los programas crecían en complejidad y prestaciones los límites de la memoria
convencional se hicieron insuficientes. Microsoft intentó atacar este problema mediante dos solucio-
nes:
Cargar el sistema operativo en el área de memoria alta, técnica que liberaba unos 45 Kb de
memoria convencional.
Trasladar algunos drivers al área de memoria superior, con el mismo objeto que la anterior solución.
Afortunadamente estos problemas y soluciones a medias se terminan con los nuevos sistemas
operativos, los cuales se ejecutan en un modo especial denominado protegido que permite superar el
límite de los 640 Kb, disponiendo las aplicaciones de tanta memoria como disponga el sistema.
UMA, permitiendo a los programas crecer en tamaño. Este sistema se basa en el mismo principio de
intercambio que la memoria virtual.
XMS sustituyó a EMS debido a la alta ineficiencia de este último, que necesitaba mucho tiempo
para realizar los traspasos de páginas de memoria. MSDOS incluye un controlador llamado EMM386.
EXE que emulaba la XMS utilizando la EMS.
Existen dos formas de utilizar la XMS:
– Modo protegido: utiliza la XMS directamente (tal es el caso de los sistemas operativos
como Windows NT).
– El modo real: se necesita un controlador de XMS que gestione los accesos a esta memoria.
Tal es el caso de MSDOS y Windows 95. El controlador más conocido es el HIMEM.SYS
Afortunadamente los modernos sistemas operativos nos permiten olvidarnos de este maremag-
num de siglas, técnicas y configuraciones que durante los primeros años del PC complicaron tanto la
existencia a los usuarios.
ESQUEMA INICIAL
1. Equipos de impresión
1.1. Evolución histórica
1.2. Impresoras
1.2.1. Impresoras matriciales o de agujas
1.2.2. Impresoras de tipos (margarita)
1.2.3. Impresoras de banda
1.2.4. Impresoras de tambor
1.2.5. Impresoras térmicas
1.2.6. Impresoras electrostáticas
1.2.7. Impresoras láser
1.2.8. Impresoras de inyección o de chorro de tinta
1.2.9. Impresoras de burbuja
1.2.10. Impresoras de sublimación
1.2.11. Impresoras de ceras (transferencia térmica)
1.3. Conceptos básicos sobre impresoras
1.3.1. Alimentadores de hojas
1.3.2. Soportes de impresión
1.3.3. Memoria RAM
1.3.4. Emulaciones
1.3.5. Lenguajes de descripción de página
1.3.6. Fuentes
1.3.7. Interfaces
1.3.8. Fungibles y consumibles
1.3.9. Panel de controles
1.3.10. Velocidad
1.3.11. Resolución
1.3.12. Impresión en color
1.3.13. Compatibilidad
1.3.14. Conectividad
1.3.15. Nivel de ruidos
1.3.16. Degradación de la calidad de impresión
1.3.17. Multifuncionalidad
1.3.18. Impresión off-line
1.4. Trazadores gráficos (plotters)
2. Unidades de visualización
2.1. Terminales
2.1.1. Evolución histórica
2.1.2. Definición
2.1.3. Clasificación
3. El Teclado
3.1. Conceptos y funcionamiento
3.2. Disposición y funciones de las teclas
4. Dispositivos apuntadores
4.1. Ratón
4.2. Trackball
4.3. Lápiz óptico
4.4. Joystick
4.5. Puntero táctil
4.6. Tabletas digitalizadoras
5. Escáneres
5.1. Principios y funcionamiento
5.2. Tipos
5.3. Reconocimiento Óptico de Caracteres
6. Dispositivos de audio
6.1. Funciones básicas
6.2. Componentes fundamentales
6.3. Muestreo y cuantización
6.4. La conversión digital/analógica
6.5. Síntesis de audio
7. Equipos de comunicaciones
7.1. Módem
7.2. Tarjetas de Red
1. EQUIPOS DE IMPRESIÓN
1.2. IMPRESORAS
Actualmente existe una amplia variedad de impresoras, clasificándose según la tecnología empleada:
– Impacto:
• Matriciales o de agujas
• De tipos (margarita)
• De banda
• De tambor
– No impacto:
• Térmicas
• Electrostáticas
• Láser
• Inyección
• De burbujas
• Sublimación
• De ceras (transferencia térmica)
Las impresoras sin impacto son en general más silenciosas, rápidas y ofrecen mayor calidad
que las de impacto. La transferencia de caracteres al papel se hace mediante técnicas fotográficas,
electrónicas, de inyección, etc., que provocan la impresión de los caracteres y gráficos directamen-
te sobre el papel.
Las velocidades de impresión conseguidas varían desde 30 hasta 900 cps (caracteres por se-
gundo) y más en algunos casos. Son las impresoras más económicas del mercado y para grandes
volúmenes de trabajos con calidad de borrador y media es la tecnología más adecuada. Aunque se
pueden imprimir trabajos en color, el resultado es poco atrayente comparado con el obtenido con una
impresora de inyección o de transferencia térmica.
En la gama de impresoras matriciales existe un modelo orientado a necesidades más exigentes:
las impresoras de línea, con una cabeza estática que abarca toda una línea de impresión, de modo
que ésta se imprime de un golpe (no carácter a carácter). Encuentran aplicación en los grandes CPDs,
donde se requieren altas velocidades de impresión (es posible alcanzar 900 líneas por minuto o lpm).
Tienen la ventaja añadida sobre las impresoras de banda de que también permiten la impresión de
gráficos con calidad de borrador. Es posible utilizarlas para códigos de barras y etiquetas.