Está en la página 1de 65

UNIDAD DIDÁCTICA 1

Hardware del equipo de cómputo.


COMPETENCIA PARTICULAR: Identifica los componentes de un
equipo de cómputo y las herramientas aplicables al mantenimiento del
mismo.

1.1 Evolución de los sistemas de cómputo.


La historia de la computadora, tiene su inicio hace mucho tiempo atrás,
desde que el hombre descubrió que solamente con los dedos, o con piedras y
garabatos, ya no alcanzaba para hacer cálculos. Entonces fue creado, hace
aproximadamente 4.000 a.C., un aparato muy simple formado por una placa
de arcilla donde se movían piedras que auxiliaban en los cálculos. Ese aparato
era llamado ABACO. Con la llegada de la Segunda Guerra Mundial se
planteó la necesidad de proyectarse máquinas capaces de ejecutar cálculos
balísticos con rapidez y precisión para que sean utilizadas en la industria
bélica. Las computadoras de tipo digital han utilizado distintas tecnologías de
construcción, en 1944, un profesor de la Universidad de Harvard, Howard H.
Aiken, en colaboración con IBM, construyó la computadora electromecánica
que Estados Unidos emplearía durante la Segunda Guerra Mundial, la ASCC
(Automatic Sequence Controlled Calculator) o más conocida como MARK I,
mostrada en la figura 1-1.

Unidad 1. Hardware del equipo de cómputo. 1


Fig. 1-1. El Harvard Mark I o Mark I fue el primer ordenador electromecánico
construido en la Universidad de Harvard por Howard H. Aiken.

La MARK I, basada en la máquina analítica de Babbage, estaba constituida


por 78 calculadoras conectadas entre sí y 3 300 relés que servían para
accionar los dispositivos mecánicos; este aparato pesaba poco más de 35
toneladas. La MARK I podía realizar una suma de 23 dígitos en 3 décimas de
segundo y multiplicarlas entre sí en aproximadamente 6 segundos. Los
resultados se obtenían o bien a través de cintas de papel perforadas o bien
impresas por una máquina eléctrica de escribir.

Fue necesaria la mejora en la tecnología de las computadoras año por año;


muchos fueron los hechos que condujeron al desarrollo de la computadora
personal, desde la creación del primer transistor, en los laboratorios Bell,
hasta la utilización de microprocesadores (muy avanzados actualmente),
pasando por hitos como el lanzamiento de la primera CPU (Intel 4004), y el
sistema operativo DOS. La historia de las computadoras personales como
dispositivos electrónicos de consumo para el mercado masivo comenzó
efectivamente en 1977 con la introducción de las microcomputadoras, aunque
ya se habían aplicado, mucho antes, algunas computadoras mainframe y
computadoras centrales como sistemas monousuario. Una computadora
personal está orientada al uso individual y se diferencia de una computadora
mainframe, donde las peticiones del usuario final son filtradas a través del
personal de operación o un sistema de tiempo compartido, en el cual un
procesador grande es compartido por muchos individuos.

Después del desarrollo del microprocesador, las computadoras personales


llegaron a ser más económicas y se popularizaron. Las primeras
computadoras personales, generalmente llamadas microcomputadoras,
fueron vendidas a menudo como kit electrónicos y en números limitados.
Fueron de interés principalmente para aficionados y técnicos. Hoy en día las
tecnologías ISI (Integración a gran escala) y VLSI (integración a muy gran
escala) permiten que cientos de miles de componentes electrónicos se
almacén en un chip. Usando VLSI, un fabricante puede hacer que una
computadora pequeña rivalice con una computadora de la primera generación
que ocupara un cuarto completo. Las microcomputadoras o Computadoras
Personales (PC's) tuvieron su origen con la creación de los
microprocesadores. Las PC 's son computadoras para uso personal y
relativamente son baratas y actualmente se encuentran en las oficinas,
escuelas y hogares. En la figura 1-2, se observa varios modelos de
computadoras personales, que fueron exitosas, este recorrido histórico es tan
sólo la base para los nuevos modelos que encontramos ahora en el mercado
que han duplicado su capacidad y rapidez; y al mismo tiempo han disminuido
su tamaño dramáticamente.

Unidad 1. Hardware del equipo de cómputo. 2


Fig. 1-2. Línea de tiempo de computadoras personales.

Brevemente algunas de las características de estas computadoras


personales son:

 1975 - Altair 8800. Esta microcomputadora estuvo basada en el CPU


8080 de Intel y obtuvo gran reconocimiento gracias a la portada de
la revista Popular Electronic. Originalmente se entregaban por
correo a través de un paquete “hágalo usted mismo” que adquirían
ingenieros. La versión ya ensamblada fue muy popular para
pequeños negocios.
 1976 - Apple I. La primera versión de las computadoras Apple fue
una computadora personal diseñada y hecha a mano por Steve Jobs
y Steve Wozniak. Para costear la producción de este aparato, Steve

Unidad 1. Hardware del equipo de cómputo. 3


Jobs tuvo que vender su Microbus VolksWagen y Steve Wozniak su
calculadora HP-65.
 1980 - Commodore VIC-20. Esta computadora de 8 bits para casa
es de origen alemán y es la segunda de esta familia. Históricamente
se le reconoce por ser el primer modelo que vendió un millón de
unidades.
 1980 - Lisa. Lisa fue la primera computadora personal con una
interfaz gráfica amigable y accesible dirigida a individuos y
empresas. Steve Jobs trabajó en su desarrollo hasta 1982 cuando lo
obligaron a dejar ese proyecto. Algunas de las funcionalidades que
ofrecía eran memoria protegida, multitareas, un disco duro más
sofisticado, basado en un sistema operativo, incluía un protector de
pantalla, RAM expandible, entre otras.
 1981 - BBC Micro. La primera microcomputadora de la serie BBC
Micro fue construida por el proyecto de alfabetización digital
operado por la British Broadcasting Corporation. Su función
primordial estuvo dedicada a la educación, fue reconocida por su
capacidad y la calidad de su sistema operativo.
 1981 – IBM PC. El IBM Personal Computer (en español,
computadora personal IBM u ordenador personal IBM), conocido
comúnmente como IBM PC, es la versión original y el progenitor de
la plataforma de hardware compatible IBM PC. Es el IBM modelo
5150, y fue introducido el 12 de agosto de 1981 haciendo parte de la
quinta generación de computadoras. Fue creado por un equipo de
ingenieros y de diseñadores bajo la dirección de Don Estridge y
William C. Lowe del IBM Entry Systems Division en Boca Raton,
Florida.
 1983 - IBM XT. Esta computadora fue la sucesora de la IBM PC
original y aunque compartían muchas funciones tuvo algunas
actualizaciones como una arquitectura de 16 bytes. Su propósito
principal fue fortalecer las máquinas para uso de negocios.
 1984 – Macintosh. La línea de computadoras personales Mac, son
un producto de Apple diseñado para uso doméstico, educativo y
creativo. La Mac fue el primer modelo que incluyó un mouse y una
interface gráfica, estuvo basado en un modelo de integración
vertical. Para este modelo y los subsecuentes Apple facilitó todos
los aspectos del hardware y creó su propio sistema operativo que
está preinstalado en la Mac. Este modelo es el antecesor directo de
las iMac.
 1985 - Atari ST. Esta computadora tenía la peculiaridad de tener 16
bits externos y 32 internos. Ya que este aparato también funcionaba
con una interfaz gráfica se le llamó la Jackintosh. Esta fue la primera
computadora con un GUI bitmap a colores.
 1998 - iMac. La iMac fue la primera fuera del legado de las PC con
un puerto USB sin disco floppy. El puerto USB permitía que los

Unidad 1. Hardware del equipo de cómputo. 4


fabricantes de hardware pudieran hacer partes compatibles como el
mouse, scanner o impresoras. Esta computadora fue muy popular
por la forma cónica de su monitor cubierto por un plástico
transparente. Esta computadora ha derivado en 6 distintas
generaciones.
 2003 - Power Mac G5. Lanzada por Steve Jobs, Power Mac G5 fue
el nombre que Apple le dio al modelo más poderoso de CPU de su
línea profesional. En su momento fue la computadora personal más
rápida del mercado.

El IBM PC como estándar.

El éxito del IBM PC llevó a otras compañías a desarrollar sistemas


compatibles de IBM, que a su vez llevó a mercadear cosas como disquetes
publicitados como con "Formato IBM". Debido a la arquitectura abierta y con
componentes externos estándar que se conseguían fácilmente en el mercado,
un clon del IBM PC podía ser construido con piezas disponibles, pero el BIOS
requirió una cierta ingeniería inversa. Las compañías como Phoenix Software
Associates, American Megatrends, Award y otras lograron versiones
funcionales del BIOS, permitiendo a compañías como Dell, Compaq, y HP,
y otras, manufacturar PCs que funcionaron como los productos de IBM. El
IBM PC se convirtió en el estándar industrial.

El término "compatible con IBM" no es de uso común para los ordenadores


actuales, porque prácticamente todos los equipos principales se basan en la
arquitectura PC. La mayoría de plataformas competidoras han desaparecido
o han sido relegadas a los mercados minoritarios de entusiastas, como el
Commodore Amiga. Una excepción notable fue el Apple Macintosh, que
utilizó la arquitectura PowerPC hasta 2006, cuando Apple adoptó la
arquitectura Intel x86 tal como se utiliza en el PC. La arquitectura x86 que
Apple comercializa actualmente es, a todos los efectos, "IBM PC
Compatible".

La velocidad del procesador y capacidad de memoria de los ordenadores


modernos son muchísimo mayores, en la figura 1-3 se muestra algunas de las
características de un PC actual1; estas superan en mucho a la PC original de
IBM y, sin embargo, la compatibilidad hacia atrás se ha mantenido en gran
medida. Un sistema operativo de 32 bits publicado en la década de 2000
todavía puede ejecutar muchas de los programas más simples escritos para
los sistemas operativos de la década de 1980 sin necesidad de un emulador,
aunque un emulador como DOSBox tiene ahora cerca de la funcionalidad
nativa a toda velocidad.

1
Este sistema utiliza un procesador Intel i-3, aunque es posible, encontrar sistemas con un
rendimiento similar con un procesador AMD AMD Quad-Core A8.

Unidad 1. Hardware del equipo de cómputo. 5


Fig. 1-3. Características generales de un sistema PC actual.

Unidad 1. Hardware del equipo de cómputo. 6


1.2 El sistema de cómputo y sus partes principales.

Un sistema de cómputo (figura 1-4.) es un conjunto de elementos físicos y


electrónicos (hardware), los cuales funcionan ordenadamente bajo el control
de programas (software); ambos se comportan como un todo.

Fig. 1-4. Elementos principales de un sistema de cómputo.

Periféricos de entrada. Sirven para interactuar con el sistema; a través de


ellos, el sistema de cómputo recibe las instrucciones y datos para realizar las
actividades que el usuario indica.
a) Teclado. Un teclado es un periférico que consiste en un sistema de teclas,
como las de una máquina de escribir, que permite introducir datos a un
ordenador o dispositivo digital. Cuando se presiona un carácter, envía una
entrada cifrada al ordenador, que entonces muestra el carácter en la
pantalla. El término teclado numérico se refiere al conjunto de teclas con
números que hay en el lado derecho de algunos teclados (no a los números
en la fila superior, sobre las letras).
b) Puntero o ratón. El ratón es un dispositivo que controla el movimiento del
cursor o indicador en la pantalla de visualización. Un ratón es un objeto
pequeño que puede moverse a lo largo de una superficie dura, plana,
c) Escáner. Es un dispositivo externo que tiene una función contraria a la
impresora, y es la de convertir texto y fotografías impresas a datos
digitales capaces de ser interpretados por el sistema de cómputo para
visualizarlos en la pantalla y poder editar o guardarlos en disco.

Unidad 1. Hardware del equipo de cómputo. 7


Procesamiento. El componente encargado de la aplicación sistemática de una
serie de operaciones sobre un conjunto de datos es referido simplemente
como el procesador o procesador central, la unidad central de proceso (CPU)
es donde se producen la mayoría de los cálculos. En términos de potencia del
ordenador, la CPU es el elemento más importante de un sistema de cómputo.

Periféricos de salida. Sirven para obtener la información procesada por la


computadora ya sea en forma visual, auditiva e impresa.
a) Monitor o pantalla. Permite visualizar en forma de imágenes la
información suministrada por el ordenador.
b) Impresora. La información del monitor que puede ser texto o imágenes
puede plasmarse en papel a través de este periférico.
c) Bocinas. Dispositivo utilizado para reproducir sonido desde un dispositivo
electrónico. Los altavoces convierten las ondas eléctricas en energía
mecánica y esta se convierte en energía acústica.

Unidades de almacenamiento. Las unidades de almacenamiento son


dispositivos periféricos del sistema, que actúan como medio de soporte para
la grabación de los programas de usuario; de los datos y archivos que son
manejados por las aplicaciones que se ejecutan en estos sistemas.
a) Disco duro. Están formados por componentes electromecánicos y
magnéticos que permiten un acceso rápido a bloques físicos de datos. Estos
datos se registran en la superficie de un disco o plato y son accedidos por
medio de cabezas de lectura-escritura que se mueven sobre la superficie
gracias a unos brazos articulados. Su principal característica es el acceso
directo a la información.
b) Disco flexible. Están compuestos de una cubierta flexible de
policloruro de vinilo, un revestimiento de un tejido sintético y un disco
delgado de poliéster recubierto de una capa magnética de óxido de hierro.
c) Disco Óptico. En estos dispositivos los datos binarios se presentan
mediante llanos y depresiones a lo largo de una espiral, protegida por una
cubierta de plástico transparente. Durante el proceso de lectura, el haz de un
rayo láser recorre la espiral a una velocidad lineal constante, interpretando los
llanos y depresiones como unos y ceros, según la diferente reflexión que
experimenta el rayo cuando encuentra unos u otros.
d) Memoria RAM. Medio de almacenamiento temporal de datos para el
procesador, los datos se pierden cuando se suspende la alimentación, la
ventaja de este elemento es su alta velocidad.

Software. Está formado por una serie de instrucciones y datos, que permiten
aprovechar todos los recursos que el computador tiene, de manera que pueda
resolver gran cantidad de problemas. Una computadora en sí, es sólo un
conglomerado de componentes electrónicos; el software le da vida, haciendo
que sus componentes funcionen de forma ordenada.

Unidad 1. Hardware del equipo de cómputo. 8


a) Sistema operativo. Es un conjunto de programas cuyo objeto es
facilitar el uso de la computadora (aísla de la complejidad de cada dispositivo,
y presenta al exterior un modelo común de sistema de manejo para todos los
dispositivos) y conseguir que se use eficientemente (ejemplo: realizar
operaciones mientras se ejecuta un programa). Administra y asigna los
recursos del sistema.
b) Software de aplicación. Son los programas que controlan y optimizan
la operación de la computadora, establecen una relación básica y fundamental
entre el usuario y la computadora, permite a los usuarios llevar a cabo una o
varias tareas más específicas, en cualquier campo de actividad susceptible de
ser automatizado o asistido.

1.3 Estructura de una computadora.

Un esquema básico de un computador se muestra en la figura 1-5, aunque


corresponde a los primeros ordenadores sigue aún vigente.2 Los componentes
básicos de una computadora son:

 Unidad Aritmético
Lógica. (ALU)
• Unidad Central de Proceso (CPU) o procesador
 Unidad de Control.
(UC)

La Unidad Central de Procesamiento (del inglés: Central Processing


Unit, CPU) o procesador, es el componente principal de la computadora
y otros dispositivos programables, que interpreta las instrucciones
contenidas en los programas y procesa los datos. La CPU proporcionan
la característica fundamental de la computadora digital, la
programabilidad.

• Unidades de almacenamiento (memoria).

2
Antes cada unidad lógica se correspondía físicamente con un módulo independiente. Con el
desarrollo de la microelectrónica, varias unidades pueden estar en un mismo módulo físico, en una
misma tarjeta de circuitos integrados o en un mismo circuito integrado.

Unidad 1. Hardware del equipo de cómputo. 9


Es la unidad donde se almacenan tanto los datos como las instrucciones.
Existen dos tipos básicos de memoria, que se diferencian sobre todo por
su velocidad de acceso: Memoria principal, central o interna y la
Memoria auxiliar, secundaria o externa.

• Unidad de entrada/salida (E/S).

La unidad de entrada, es el dispositivo por donde se introducen en el


computador los datos e instrucciones. En estas unidades se transforman
las informaciones de entrada en señales binarias de naturaleza eléctrica.
Un mismo computador puede tener distintas unidades de entrada:
teclado, lectora de tarjeta de crédito, escáner. La unidad de salida es un
dispositivo por donde se obtienen los resultados de los programas
ejecutados en el computador. Suelen transformar las señales eléctricas
binarias en caracteres escritos o visualizados. Son dispositivos de salida:
pantalla, impresora, plotter, etcétera.

• Buses.

Es el conjunto de circuitos encargados de la conexión y comunicación


entre la CPU y el resto de las unidades de la computadora. Para ello
utiliza un conjunto de varias líneas eléctricas que permiten la transmisión
de los datos en paralelo. Por ejemplo, un bus de 16 bits transfiere
simultáneamente esa cantidad de bits entre dos unidades cualesquiera.

Fig. 1-5. Estructura básica de una computadora.

Unidad 1. Hardware del equipo de cómputo. 10


1.3.1 Microprocesador.
De los componentes que integran un sistema de cómputo, el componente
principal es el microprocesador debido a que es el encargado del
procesamiento de la información; además de coordinar el funcionamiento de
los componentes restantes del sistema. La evolución de los sistemas de
computadoras ha estado relacionada directamente con el grado de avance de
los microprocesadores. Los procesadores cada vez integran más
funcionalidad dentro de la misma pastilla. El avance en la tecnología de
fabricación ha permitido reducir el tamaño de los elementos que componen
un microprocesador. Ahora los fabricantes pueden incluir más elementos en
la misma área. Así será capaz de realizar más tareas y de una manera más
eficiente.

La plataforma PC se sustentaba en una serie de procesadores Intel, conocida


como x86 3 . La figura 1-6 muestra la familia de algunos procesadores de
diversos fabricantes. La tecnología de los procesadores no ha parado de
evolucionar. Siempre se ha pretendido por parte de los fabricantes que este
elemento no se convierta en un cuello de botella que tire para abajo las
prestaciones del equipo. Durante años, la propia configuración de las tarjetas
madre ha cambiado totalmente. Estos cambios son debidos a mejoras
introducidas en los microprocesadores. Si algo podemos saber de los
procesadores futuros es que van a ser capaces de integrar cada vez un número
mayor de elementos en su interior.

La figura 1-7 muestra los procesadores Intel i3, i5 e i7. Utilizados en


algunos sistemas PC actuales. Algunas de las características tecnológicas de
estos procesadores son:

a) La Tecnología Intel Hyper-Threading: Utiliza los recursos de


procesamiento con más eficiencia, por lo cual pueden ejecutarse varios
subprocesos en cada núcleo. Como característica del desempeño,
también aumenta la capacidad de procesamiento, lo que a su vez se
traduce en un aumento del desempeño general del software de varios
subprocesos. La Tecnología Intel Hyper-Threading se ofrece en las
familias de procesadores Intel Core, Intel Core M y Intel Xeon. Al
combinar uno de estos procesadores y chipsets 4 Intel con un sistema
operativo y un BIOS compatible con esta tecnología, es posible:

3
Se le llamo x86 debido a que el primer procesador usado por el modelo PC fue el 8088, variante
del procesador 8086, que surgió en 1978 cuando Intel lanzo el procesador 8086 y más tarde el 8088.
4
Circuitos integrados que soportan funciones del microprocesador, y sirven de comunicación con el
resto de componentes de la tarjeta madre.

Unidad 1. Hardware del equipo de cómputo. 11


6 8
Fig. 1-6. Genealogía de procesadores, la PC se basó en los procesadores Intel.

Fig. 1-7. Procesadores utilizados en sistemas PC actuales.

Unidad 1. Hardware del equipo de cómputo. 12


 Ejecutar aplicaciones exigentes al mismo tiempo y mantener la
capacidad de respuesta del sistema.
 Mantener la protección, eficiencia y facilidad de administración de los
sistemas, al tiempo que se reduce a un mínimo el impacto en la
productividad
 Disponer de un margen de ampliación para acompañar el futuro
crecimiento de la empresa e incorporar nuevas funciones de la
solución.

b) Turbo Boost. Esta tecnología es inteligente y funciona todo el tiempo


controlando la frecuencia, voltaje y temperatura de la CPU. Al notar una
disminución en uno de los valores por defecto utilizado por la CPU,
aumenta la frecuencia y logra un rendimiento mucho mayor en
cualquier aplicación. Por ejemplo, cuando la temperatura de la CPU es
menor de lo esperado, con el uso de la tecnología Turbo Boost el
procesador Intel Core i5 va a cambiar la frecuencia o el voltaje de la
CPU sin permiso y se verá un aumento significativo en el rendimiento,
hablando específicamente de los modelos i5, existe la posibilidad de un
aumento de hasta 800 MHz de velocidad.

c) En la tabla 1-1, se sintetiza los datos técnicos de lo último en tecnología


de procesamiento, el procesador i7. La línea de procesadores dirigida a
los entusiastas y al público profesional. Todos los procesadores Core i7
tienen cuatro núcleos (el i7-980X seis núcleos), memoria de 8 MB de
caché L3, controlador de memoria integrado, Intel Turbo Boost, Intel
Hyper-Threading, Intel HD Boost y función Intel QPI (Quick Path
Interconnet). En lugar de aumentar la frecuencia o el voltaje, la
característica de Intel QPI aumenta el ancho de banda (que permite la
transmisión de más datos) y disminuye la latencia (procesador Intel
Core i7 900 serie y permite tasas de transferencia de hasta 25.6 GB/s.)

Unidad 1. Hardware del equipo de cómputo. 13


Tabla 1-1. Datos técnicos de la familia de procesadores Intel i7.

Fig. 1-8. Comunicación basada en interrupciones del sistema de cómputo PC.

Unidad 1. Hardware del equipo de cómputo. 14


Los microprocesadores que se ha descrito son los elementos centrales del
sistema de cómputo, aunque el rendimiento 5 no dependerá de un solo
componente (microprocesador) sino de todo el conjunto y será mayor o menor
según el software que se utilice o para qué se utilice la computadora. Si el
software no está preparado para utilizar la potencia de un microprocesador
con varios núcleos, podría no mejorar su rendimiento.

Las interrupciones son un método del que disponen los dispositivos e


incluso los procesos para hacer notar al microprocesador la aparición de
alguna circunstancia que requiera su intervención. De este modo, los
dispositivos pueden provocar que el microprocesador deje por el momento la
tarea que estaba realizando y atienda la interrupción. Una vez atendida,
seguirá con su labor anterior. Cuando no existían interrupciones, era el
procesador el que tenía que estar continuamente comprobando el estado del
dispositivo cuando lo necesitaba. Todo ese tiempo que el procesador estaba
sondeando el estado de los dispositivos era tiempo que no se podía dedicar a
otros procesos, con lo que significa esto en cuanto a rendimiento. Por todo
ello se pensó que lo mejor era que existiera una línea especial entre el
procesador y los dispositivos, por la que los dispositivos indicaban al
procesador que ya estaban listos. En la figura 1-8 se ilustra las líneas
especiales dedicadas para las interrupciones llamadas IRQs. Cuando al
procesador le llega una interrupción, la atiende inmediatamente dejando de
hacer lo que estuviera haciendo. Para poder atenderla de la forma correcta,
debe saber con anterioridad cómo tratarla. Por ello, las computadoras tienen
en un sitio, conocido de memoria las distintas rutinas de tratamiento para las
diferentes interrupciones.

El procesador reconoce la interrupción de la que se trata y busca en


memoria la rutina correspondiente. Una vez terminado el tratamiento de la
interrupción, es muy importante que el procesador siga con lo que estaba
haciendo. Por eso es muy importante que antes de tratar la interrupción se
guarde de alguna forma el estado del computador, y al terminar la rutina de
tratamiento se restaure el estado. Se pueden distinguir dos tipos de
interrupciones: interrupciones software e interrupciones hardware.

a) Interrupciones por software (INT). Las interrupciones por


software son provocadas por los programas usando una función
especial del lenguaje. Tienen como objetivo que el procesador
ejecute algún tipo de función. Al terminar de ejecutarse esta
función, se seguirá ejecutando el programa que provocó la
interrupción. Este tipo de interrupciones es la forma más
importante que tendrán los programas de ejecutar funciones

5
Medida o cuantificación de la velocidad/resultado con que se realiza una tarea o proceso. En una
computadora, su rendimiento no depende sólo del microprocesador como suele pensarse, sino de la
suma de sus componentes como la memoria, el bus, los diversos dispositivos, etc. y su software.

Unidad 1. Hardware del equipo de cómputo. 15


especiales del sistema operativo o del BIOS (Basic Input Output
System). Estas funciones tienen un número de interrupción
software asociada. Cuando un programa lanza una interrupción
de este tipo, la CPU ejecuta su función de tratamiento asociada.
Por debemos saber qué es lo que hace cada interrupción para
conseguir el efecto deseado.

b) Interrupciones por Hardware (IRQ): Son las generadas por la


circuitería del ordenador en respuesta a algún evento, pulsación
de teclas en el teclado, puerto serie, impresora, controladores de
disco, etcétera, a través

1.3.2 Tarjeta Madre.


La tarjeta madre 6 es un circuito impreso al cual se conectan todos los
componentes del ordenador. Desde el nacimiento del primer PC, las tarjetas
madres han sufrido una gran serie de cambios y mejoras, pero siempre
teniendo una gran relevancia e impacto en las tecnologías del momento, así
como procurando adaptarse a los cambios del mercado. El factor de forma
define las características muy básicas de una tarjeta madre para que pueda
integrarse en el resto de la computadora, al menos, física y eléctricamente.
Naturalmente, éste no es suficiente para garantizar la interconexión de dos
componentes, pero es el mínimo necesario. La figura 1-9 ilustra el aspecto
básico de una placa base actual.

Fig. 1-8. Identificación de los conectores en la tarjeta madre moderna.

6
En algunos países también suele nombrársele como tarjeta de sistema, motherboard o placa base.

Unidad 1. Hardware del equipo de cómputo. 16


Las características definidas del factor de forma son:

 La forma de la placa base: cuadrada o rectangular.


 Sus dimensiones físicas exactas: ancho y largo.
 La posición de los anclajes. Es decir, las coordenadas donde se
sitúan los tornillos.
 Las áreas donde se sitúan ciertos componentes. En concreto, las
ranuras de expansión y los conectores de la parte trasera (para
teclado, ratón, USB, etc.)
 La forma física del conector de la fuente de alimentación.
 Las conexiones eléctricas de la fuente de alimentación, es decir,
cuantos cables requiere la placa base de la fuente de alimentación,
sus voltajes y su función.

Existen múltiples factores de forma para las tarjetas madre, se puede afirmar,
que la tarjeta madre es la pieza más importante de la computadora, y que de
ella dependerá en gran medida el funcionamiento de nuestro sistema.

Tipos de tarjeta madre.

Entre los distintos tipos de tarjetas madre cabe destacar dos grandes grupos:
formatos propietarios y formatos estándar. En los primeros las
especificaciones del formato no son públicas y cada fabricante realiza la placa
de forma distinta intentando adaptarse al formato lo mejor posible, lo cual da
como resultados problemas de compatibilidad entre placas del mismo
formato, pero de diferentes fabricantes (problemas para encontrar
componentes nuevos para la placa, tener que cambiar el chasis o la fuente al
actualizar a una placa del mismo tipo, pero con mejores prestaciones,
etcétera.). En el caso de los formatos estándar, las especificaciones de dicho
formato son públicas, lo que favorece una mayor adaptación y expansión del
formato, así como compatibilidad entre placas de distintos fabricantes.

En el primer grupo cabe destacar formatos como LPX (aunque parte de sus
especificaciones son públicas) o Mini-ITX , y en el segundo, y con mucha
más popularidad, ATX o BTX.

a) IMB PC y XT (Extended Technology). La primera tarjeta madre como tal


fue la desarrollada para el primer ordenador personal (PC) en 1981. El
tamaño de esta era de 228.6 x 330.2 mm. Asimismo, y como se puede
apreciar en la figura 1-9, dicha tarjeta madre apenas contaba con conectores
para el teclado y para cintas (el equivalente al disquete en aquella época) y
tenía una memoria limitada a 256k, sin posibilidad de ampliación.
Asimismo, destaca la ausencia de un socket propiamente dicho, siendo el

Unidad 1. Hardware del equipo de cómputo. 17


procesador soldado directamente a la placa, y de un chipset. Dos años más
tarde, coincidiendo con el lanzamiento del PC IBM XT, IBM desarrolla
una placa homónima con ligeras diferencias con respecto al modelo
anterior. Los cambios más significativos de la XT fueron la eliminación
del conector para cintas (el disquete se había introducido finalmente en el
mercado), así como 3 slots más para conectar periféricos. El resto de
características de la XT tales como el tamaño o la disposición de sus
elementos permanecieron invariables con respecto al modelo anterior.

Fig. 1-9. Tarjeta madre IBM PC XT.

b) Full-Size AT (Advanced Technology). En 1984, IBM lanza al mercado el


IBM AT y con él, el formato AT, que adquiriría una gran repercusión en
poco tiempo y se convertiría prácticamente en un estándar. Dicho formato
no era más que una XT con un nuevo procesador de 16 bits (el famoso 286
de Intel) y con un bus de 16 bits (en comparación a los 8 bits de la XT).
Para introducir estas mejoras, IBM tuvo que aumentar el tamaño de la placa
base, por lo que esta pasó a medir 304,8 x 350.52 mm. El gran tamaño de
esta tarjeta madre dificultaba enormemente la adición de discos duros, así
como presentaba el inconveniente de que el juego de cables del conector

Unidad 1. Hardware del equipo de cómputo. 18


de la fuente de alimentación era confuso, produciendo que muchos
usuarios quemaran la tarjeta madre al conectarla a la fuente.

c) Baby-AT. Con el desarrollo de los chipsets y la mejora en los circuitos


integrados, IBM lanzó al mercado en 1986 una tarjeta madre idéntica a la
AT, pero del tamaño y forma de la ya antigua XT. En un principio dicha
placa base fue bautizada por IBM como XT-286, lo que causó una gran
confusión, ya que mucha gente asoció “XT” a la ya por entonces, antigua
tecnología de 8 bits. Al mismo tiempo que IBM lanzaba su XT-286,
muchas otras compañías desarrollaban modelos de placas similares
renombrados como Baby-AT, lo cual fue traducido en un gran número de
ventas con respecto al XT-286 de IBM. El formato Baby-AT es,
prácticamente idéntico al AT, y por lo tanto al XT, con la única diferencia
del tamaño (228,6 x 330.2 mm), y ligeras variaciones en los conectores del
teclado y los slots ISA para poder ajustarse a un chasis AT. Cabe destacar
que cualquier chasis que acepte una tarjeta madre AT, aceptará una
Baby-AT (la inversa, lógicamente, no es posible). El formato Baby-AT fue
sin lugar a dudas el más utilizado hasta mediados de 1996, siendo
actualizado constantemente para poder soportar las nuevas características
(procesadores, memoria cache, etcétera.) que iban siendo desarrolladas.
Este hecho unido a lo relativamente fácil que era sustituir una tarjeta madre
tipo Baby-AT, convirtieron a este tipo de tarjeta madre en el primer
formato que se puede decir que era “actualizable”, hasta entonces todas las
mejoras tecnológicas que se iban desarrollando daban lugar a un nuevo tipo
de tarjeta, por lo que muchas veces era necesario cambiar totalmente el
chasis y la fuente de alimentación. Este principio fue adoptado por la
siguiente generación de tarjetas madre que dominaría (y domina) el
mercado: las tarjetas madre ATX.

d) LPX (Low Profile). Al mismo tiempo que la Baby-AT se extendía


rápidamente por el mercado a finales de los 80, Western Digital creaba
otro formato de tarjeta en 1987, la LPX; este tipo de tarjetas se les colocaba
una tarjeta en el centro (llamada “riser card” como se muestra en la figura
1-10) y a dicha tarjeta se le conectaban las distintas tarjetas PCI o ISA, lo
que permitía un ahorro significativo de tamaño (330x229 mm). Cabe
destacar también que en este tipo de tarjetas los conectores de
entrada/salida se encontraban en la parte de atrás de la misma. Las tarjetas
madre LPX tuvieron un significativo éxito debido al uso de las mismas en
sistemas de bajo coste de compañías como HP, Packard Bell, Compaq e
incluso IBM. Sin embargo, presentaban una serie de desventajas que
harían que finalmente fueran cayendo en desuso. En primer lugar, cabe

Unidad 1. Hardware del equipo de cómputo. 19


destacar el hecho de que las especificaciones del formato LPX nunca
fueran totalmente públicas, lo que ofrecía muchas dificultades para
actualizar los componentes de la tarjeta7. De igual forma, muchas tarjetas
LPX de distintos fabricantes no eran compatibles entre sí, lo que
significaba que sí se quería cambiar de tarjeta muchas veces se tenía que
cambiar también de chasis debido a las ligeras variaciones que uno u otro
fabricante efectuaban en la tarjeta. Asimismo, el hecho de colocar una
tarjeta en medio de la placa dificultaba mucho el flujo de aire, lo que
suponía una gran desventaja a la hora de disipar el calor. Este defecto se
acentúo con la llegada del Pentium III en 1997, que desprendía gran
cantidad de calor.

Fig. 1-10. Tarjeta madre LPX.

e) ATX (Advanced Technology Extended). El formato ATX (véase figura 1-


11) nació en 1995 de la mano de Intel, y significó una revolución en el
diseño de tarjetas madre desde el formato Baby-AT. Intel publicó las
especificaciones del formato, lo que propició que dicho tipo de tarjeta se
extendiera rápidamente y se convirtiera en el formato más popular hasta
nuestros días. La tarjeta madre ATX posee un tamaño de 305 x 244 mm
(superior al de antiguos formatos), lo cual indica que es incompatible con
los formatos anteriores y; que se necesita adquirir un nuevo chasis y una
nueva fuente de alimentación. Aunque esto pueda parecer en principio

7
Requería comprarse una nueva riser card y dichas tarjetas eran raramente compatibles entre
distintos diseños de la tarjeta, siendo más útil cambiar de tarjeta totalmente.

Unidad 1. Hardware del equipo de cómputo. 20


una desventaja, nada más lejos de la realidad, pues el formato ATX recoge
lo mejor de los formatos Baby-AT y del LPX además de una serie propia
de mejoras, a saber:

 Facilidad para conectar la tarjeta con la fuente: El formato ATX


incorpora un sólo conector con la fuente de alimentación (de 24
pines, con respecto a los 20 del formato AT), lo cual evita errores
de conexión que pueden quemar la tarjeta, tal y como ocurría
frecuentemente con los formatos AT.
 Reubicación de la CPU y la memoria: En el formato ATX la CPU
y los módulos de memoria se reubican para que no puedan interferir
con los buses de otras tarjetas y de esta forma actualizar la memoria
o el procesador sin necesidad de quitar dichas tarjetas. Asimismo,
la nueva posición de estos elementos favorece un mejor flujo de aire
favoreciendo la disipación del calor.
 Reubicación de los conectores internos de entrada/salida: Los
conectores internos de entrada/salida para los disquetes y el disco
duro se colocan más cerca de dichos dispositivos, lo que propicia
unos cables internos más cortos y acceder a dichos conectores no
requiere (como si ocurría con formatos anteriores) quitar ninguna
tarjeta o disco duro.
 Refrigeración mejorada: Tal y como comentábamos anteriormente,
la nueva posición de la CPU y los slots de memoria favorecen el
flujo de aire lo que redunda en una mayor disipación del calor.
 Menor costo para los fabricantes: Las mejoras anteriormente
comentadas, así como la reducción de la longitud de los cables
(acortando la distancia entre los conectores y los dispositivos) o la
eliminación de los mismos (no son necesarios cables para los
puertos serie y paralelo), provoca que el formato ATX tenga un
costo de fabricación mucho menor que el de formatos anteriores.
Sin duda este fue un factor determinante para la gran aceptación de
las ATX en el mercado.

Aunque el tamaño de una tarjeta ATX sea similar al de una Baby-AT,


normalmente los chasis de ambas son incompatibles, así como la fuente de
alimentación, ya que usan diferentes conectores y proporcionan diferentes
voltajes. El formato ATX literalmente ha barrido del mercado a las placas
Baby-AT y LPX, y no contentos con ello, Intel ha intentado reducir
progresivamente el tamaño de las placas ATX, desde la Mini-ATX, que no
es más que una ATX ligeramente más pequeña (284x208mm) hasta otros
formatos como Micro-ATX o Flex-ATX que aparte de reducir su tamaño,
ofrecen otra serie de características, y que describiremos a continuación.

Unidad 1. Hardware del equipo de cómputo. 21


Fig. 1-11. Tarjeta madre ATX; es básicamente una tarjeta Baby-AT rotada
90º, como se puede ver, los slots PCI no interfieren con la memoria o la CPU
ni con otros elementos.

f) Micro-ATX. El formato Micro-ATX fue introducido por Intel en 1997 para


proporcionar unos sistemas más pequeños y de menor coste. De esta forma,
el tamaño de una tarjeta madre Micro-ATX es de 244x244 mm como
máximo siendo como mínimo de 171.45 mm x 171.45 mm (un tamaño
menor no se ajustaría a los conectores ni al chasis). Este hecho permite la
reducción del chasis y de la fuente, lo que, como ya hemos mencionado,
permite unos sistemas de menor coste. Las principales diferencias entre las
placas Micro-ATX y las placas ATX, aparte del tamaño son el menor
número de slots para tarjetas PCI o PCI-Express (4 como máximo) así
como la posibilidad de usar una fuente de alimentación opcional más
pequeña y de menor consumo. Asimismo, es importante destacar que la
mayor parte de los fabricantes de Micro-ATX suelen ofrecer la mayor parte
de periféricos integrados (audio, red, video, etcétera.) para así abaratar el
coste del sistema, que es el propósito de este factor de forma. Es importante
mencionar que las tarjetas Micro-ATX tienen retro-compatibilidad, es
decir, una tarjeta Micro-ATX cabe en un gabinete de una ATX, y una
fuente de alimentación ATX sirve para una Micro-ATX.

Unidad 1. Hardware del equipo de cómputo. 22


g) Flex-ATX. Ahondando en la idea de crear unos sistemas más pequeños y
de menor coste, Intel desarrolló en 1999 un nuevo formato de menor coste
y tamaño llamado Flex-ATX. El formato Flex-ATX tiene un tamaño
máximo de 229mmx191mm, pudiendo ser mucho más pequeño siempre y
cuando se ajuste al tamaño del gabinete Flex-ATX así como de los
conectores de la placa con los distintos dispositivos. El reducido tamaño
de este formato obliga a reducir el número de slots para tarjetas PCI a un
máximo de 3, aunque la mayor parte de este tipo de placas no ofrece ningún
slot (permitiendo que la expansión sea posible únicamente a través de
tarjetas que conectemos por USB o Firewire). Tal y como ocurría con
Micro-ATX, Flex-ATX es compatible con sus predecesores, pudiendo
utilizar un chasis de una Micro-ATX o ATX, así como sus respectivas
fuentes de alimentación (si se utiliza un chasis que lo permita).

h) ITX y Mini-ITX. En marzo de 2001, la empresa VIA, en un intento por


promocionar su procesador C3 y con la creciente popularización de los PCs
de tamaño reducido, desarrolla el formato ITX. El formato ITX no era más
que una ligera variación del formato Flex-ATX, siendo un 6% más
pequeño (215 x191mm). La diferencia con respecto al Flex-ATX no era
significativa por lo que los fabricantes no apostaron por ITX y VIA se vio
obligada a desechar este formato rápidamente. En abril de 2002,VIA creó
un nuevo formato Mini-ITX. Este formato era significativamente más
pequeño que el anterior y permitía por tanto reducir el coste global del
sistema, permitiendo el uso de este formato en sistemas incrustados y de
pequeño tamaño. Una tarjeta Mini-ITX no es más que una Flex-ATX
llevada a su mínimo tamaño posible (170x170mm) y adaptada
especialmente para el procesador C3 de VIA, así como para la fuente de
alimentación de bajo consumo. De hecho, una tarjeta Mini-ITX cabe
perfectamente en una diseñada para Flex-ATX. En un principio este nuevo
formato no tuvo muy buena acogida entre los fabricantes, sin embargo, un
gran furor entre muchos clientes debido principalmente a su bajo consumo,
reducido tamaño y escaso nivel de ruido, lo que convertía a este formato
en el ideal para la personalización del hardware del sistema. Aunque el
formato Mini-ITX es un formato propietario, sus especificaciones son
abiertas lo que, como ya hemos comentado en varias ocasiones, da como
resultado una mayor aceptación del formato. La figura 1-12 muestra una
comparativa de estos tipos de tarjetas.

Unidad 1. Hardware del equipo de cómputo. 23


Fig. 1-12. Comparativa de los tipos de tarjeta madre.

i) BTX (Balanced Technology Extended). En septiembre de 2003, Intel


desarrolló el formato BTX (véase la figura 1-13) con la idea de satisfacer
las demandas de refrigeración y energía de los nuevos procesadores, así de
como sustituir al formato ATX. Las principales ventajas del formato BTX
con respecto a ATX son:

 Mayor refrigeración: El flujo de aire ha sido mejorado, lo que


permite una mayor refrigeración del sistema y evita la necesidad de
instalar ventiladores adicionales, lo cual da lugar a un menor ruido
y consumo energético.
 SRM (Support and Retention Module), el SRM no es más que un
plato de metal fijo debajo de la tarjeta, instalándose el ventilador del
microprocesador justo encima, lo que previene daños a la tarjeta y
al microprocesador, especialmente durante el proceso de transporte
de la misma. El tamaño de placa flexible permite a los fabricantes
usar los mismos componentes en una gran cantidad de tipos de
sistema permitiendo probar varias configuraciones.
 Posibilidad de usar distintos tipos de fuente: El formato BTX
permite utilizar distintos tipos de fuente, incluido el diseñado para
la fuente ATX.

Unidad 1. Hardware del equipo de cómputo. 24


 Diseño estructural. La disposición de los elementos en un tarjeta
BTX reduce la latencia 8 entre los mismos (al estar mucho más
próximos). Al colocar los elementos que más calor producen desde
el centro hacia atrás, se mejora significativamente la refrigeración
del sistema.

La acogida en el mercado del formato BTX no ha fue tan buena como Intel
esperaba, en parte debido a que las mejoras del formato no son
suficientemente significativas frente a los inconvenientes de actualizar desde
ATX. Por ejemplo, una tarjeta ATX ofrece soporte para un rango de
procesadores y componentes mucho mayor que una BTX. Asimismo, el
hecho de que la tendencia de los procesadores a producir más calor haya
disminuido con la llegada del Core Duo 2, provoca que las mejoras en ese
sentido en las tarjetas BTX se vuelvan insignificantes. Esta serie de factores
provocaron que a finales de 2006, Intel decidiera no dar más soporte al
formato.

Fig. 1-13. Tarjeta madre BTX.

8
Se denominan latencia a los diferentes retardos producidos en el acceso a los distintos componentes
del sistema. Estos retardos influyen en el rendimiento por parte de la CPU.

Unidad 1. Hardware del equipo de cómputo. 25


j) NLX (New Low - Profile Extended) nació en 1996 de la mano de Intel con el
objetivo de reemplazar al formato LPX usado en los sistemas de tamaño
reducido y bajo coste. A diferencia de LPX, las especificaciones del formato
NLX son abiertas, lo que da como resultado total compatibilidad a la hora de
cambiar de tarjeta entre distintos fabricantes de la misma, así como de cambiar
algún componente en particular. El formato NLX es en un principio, similar al
LPX, sin embargo, NLX incorpora un gran número de mejoras para adaptarse
a las mejoras tecnológicas de los últimos años, como puede ser el soportar los
procesadores de gran tamaño o la inclusión de AGP o USB. La principal
característica de NLX con respecto a LPX es que la tarjeta madre se conecta
directamente a la llamada “riser card”, y no al revés, como ocurría con las
placas LPX. Este hecho permite que todos los cables que normalmente se
conectarían a la tarjeta madre, se conecten a la “riser card”, lo que tiene dos
resultados inmediatos:

 La placa no tiene ningún cable o conector interno.


 Permite cambiar de placa con mucha facilidad al no tener que remover
ningún cable o conector.

Este último punto ha sido toda una revolución en el mercado, ya que no sólo
permite intercambiar una tarjeta madre con gran rapidez, sino también facilita
el intercambio de componentes entre sistemas distintos.

Otras ventajas específicas del formato son:

 Soporte para un gran número de procesadores: NLX es capaz de


soportar una gran gama de procesadores, así como permite adaptarse
rápidamente a nuevos avances en los mismos (no hay más que cambiar
de tarjeta sin que por ello el resto de componentes se vieran afectados,
como puede ocurrir en otro tipo de tarjetas).
 Soporte para nuevas tecnologías: NLX incluye soporte para las nuevas
tecnologías tales como AGP, USB o módulos de memoria DIMM o
RIMM.

Aunque NLX ofrecía varias mejoras significativas con respecto a LPX,


nunca llegó a extenderse tanto como lo hizo este último. Sin embargo, gozó de
bastante buena acogida entre los vendedores de equipos de bajo coste hasta la
llegada en 1999 de Flex-ATX o en 2001 del formato Mini-ITX, que acabó por
desplazar completamente a NLX.

Unidad 1. Hardware del equipo de cómputo. 26


1.3.3 Circuitos Controladores.
En el año 1976 gracias al aumento en la densidad de integración, salió al
mercado la primera computadora en un circuito integrado (CI), es decir, se
integraron junto con el microprocesador los subsistemas que antes formaban
unidades especializadas independientes, pero unidas por pistas de circuitos
impresos. Entonces al CI que incluye dentro de la arquitectura las tres
unidades funcionales de una computadora (CPU, memoria y unidades de E/S)
se le llama microcontrolador (µC).

Un controlador es un dispositivo que se emplea para el gobierno de uno o


varios procesos. Por ejemplo, el controlador que regula la temperatura de la
CPU, mide a través de un sensor que dicha temperatura no traspasé los limites
prefijados. Los controladores hacen más de tres décadas se construían
exclusivamente con componentes de lógica discreta, posteriormente se
emplearon los microcontroladores.

En el sistema PC, todos los componentes periféricos, tanto internos como


externos necesitan valerse de algún medio para comunicarse entre ellos y con
el procesador. Como en el sistema existen varios buses, se necesitan circuitos
integrados que permitan la comunicación entre ellos. El propio bus PCI
necesita una interfaz (también llamado controlador PCI) para poder
conectarse al microprocesador a través del Bus del sistema, como se ilustra
en la figura 1-14.

Fig. 1-14. Interfaz de hardware entre dos buses a través de un controlador.

La interfaz de bus, también conocida como “controladora”, puede adoptar


diversas formas:

 Tarjeta insertada en algún bus de expansión.


 Circuito integrado sobre la tarjeta madre.
 Hallarse integrado en alguno de los circuitos del chipset.

Unidad 1. Hardware del equipo de cómputo. 27


Las interfaces, puertos, o adaptadores se implementan con controladores.
Básicamente el controlador es un traductor entre el procesador y el
dispositivo periférico, como discos duros, teclado, monitor, etcétera. Los
circuitos controladores ejecutan las siguientes funciones generales:

 Aíslan el equipo de los programas.


 Adecuan las velocidades entre los dispositivos que operan a
distintas frecuencias.
 Convierten datos de un formato a otro.

La mayor parte de los dispositivos periféricos son considerablemente más


lentos que el procesador, aun el disco duro9 es miles de veces más lento que
el procesador. Por esa razón una de las funciones de los controladores es
adecuar las velocidades de los componentes con la del procesador. Al
conjunto de circuitos controladores que se encargan de regular todas las
comunicaciones desde y hacia el procesador se le llama chipset.

El chipset al regular todas las comunicaciones, libera al procesador de una


gran cantidad de trabajo. El chipset alimenta los buses, regula la velocidad de
transferencia, controla los intercambios de información entre el procesador y
la memoria, controla las interrupciones y accesos directos a memoria, fija las
direcciones de entrada y salida que usara cada dispositivo, etcétera. La
funcionalidad del chipset, ha ido cambiando a lo largo del tiempo, debido
sobre todo a cambios que se han producido en los propios procesadores.
Estos, integran cada vez más elementos10 que anteriormente encontrábamos
sobre la tarjeta madre. Además, ciertas tarjetas que tenían que ser discretas,
como la de sonido o la de red pasen a estar soportadas por el propio chipset.

Actualmente la tendencia de los fabricantes es a concentrar todos los


componentes en dos o tres encapsulados, la figura 1-15 ilustra esta
agrupación. El northbridge (o puente norte) es la parte principal que conforma
el chipset, y fue concebido como concepto junto con la especificación ATX.

El northbridge controla el tráfico entre el procesador (a través del bus QPI


o del Front Side Bus FSB), la memoria RAM, la interfaz de video y el
southbridge. El Bus QPI surge para cubrir básicamente dos tipos de
configuraciones. La de los equipos para entusiastas, que utilizan varias
tarjetas gráficas y en los cuales el controlador PCIe no está dentro del
procesador, y la que se encuentra cuando hay varios procesadores en la
misma tarjeta madre. Para esto, se hace necesario tener un gran ancho de
banda de salida desde la CPU.

9
Unidad de almacenamiento magnética, donde se instala el sistema operativo y las aplicaciones del
usuario.
10
Controlador de memoria, tarjeta gráfica, Controlador PCI Express. Controlador del bus del sistema
etcétera.

Unidad 1. Hardware del equipo de cómputo. 28


Figura 1-15. Diagrama que representa el mecanismo interno y las funciones
del conjunto de CIs del chipset.

DMI (Direct Media Interface). Es la respuesta de Intel al HyperTransport11


de AMD. Ha estado presente en varias versiones de los procesadores del
fabricante. En principio conectaba el controlador de memoria con la parte del
chipset encargado de comunicarse con los otros elementos de la placa base,
como puede observarse en la figura 1-16. Cuando Intel integra el controlador
en el procesador se encarga de conectar este a esa parte del chipset al que
están conectados todos los dispositivos. En los procesadores más modernos
y por lo tanto que tienen un mayor número de elementos integrados en la
CPU, las necesidades de este enlace en cuanto a velocidad son menores, y
por lo tanto su importancia en las prestaciones decrece.

11
HyperTransport, se puede encontrar tanto en quipos de AMD, como de Nvidia, o Apple. AMD
decide incluir el controlador de memoria dentro del chip y debido a esto descarga el bus de un gran
trasiego de información.

Unidad 1. Hardware del equipo de cómputo. 29


El bus LPC (Low Pin Count), es usado para conectar dispositivos de bajo
ancho de banda a la CPU, como la ROM BIOS12 y dispositivos “antiguos” de
entrada/salida del chip Super I/O. Estos dispositivos “antiguos” incluyen
puertos paralelos y seriales, mouse, teclado, controlador de disquetera, etc.
Generalmente el bus LPC se conecta físicamente con el puente sur de una
placa madre.

Antes las funciones del chipset eran relativamente fáciles de realizar


porque eran pocas; existían varios circuitos controladores en la periferia;
estos controladores finalmente se integraron al chipset. Una de las ventajas
de disponer de todos los elementos que integra el chipset, agrupados dentro
de dos o tres chips (véase la figura 1-16), es que se evitan largos períodos de
comprobación de compatibilidades y funcionamiento. Como inconveniente
nos encontramos con que el chipset no se puede actualizar, pues se encuentra
soldado a la tarjeta. La figura 1-16 muestra los controladores integrados en
el chipset cuyas funciones se explican a continuación:

 PIC (Programmable Interrupt Controller). Es un dispositivo que


permite asignar niveles de prioridad a sus interrupciones de salida.
Cuando el dispositivo tiene múltiples interrupciones de salida para
hacer, las realiza en un orden dependiendo de una relativa prioridad.
Los fabricantes mejoraron este controlador y lo incorporaron al
procesador, es llamado APIC (Advanced Programmable Interrupt
Controller), diseñado por y para el multiproceso, concretamente para
poder incorporar múltiples microprocesadores a la tarjeta madre.

No confundir con el "I/O APIC" de la tarjeta madre, que consiste en una


mejora del PIC clásico de la arquitectura AT y la ventaja es que ofrece
más de 16 IRQs y un manejo más rápido de las mismas.

Es decir, existen dos componentes para el control de las interrupciones;


el APIC Local (LAPIC) y el I/O APIC (de entrada/salida). El LAPIC
está integrado en cada CPU del sistema y el I/O APIC se usa por el
sistema de buses de periféricos. Normalmente hay un I/O APIC para
cada bus de periféricos en el sistema. En el diseño del sistema original,
los LAPICs y los I/O APIC están conectados por un bus dedicado APIC.
Los sistemas más nuevos usan el bus del sistema para comunicación
entre todos los componentes APIC.

12
BIOS es un firmware presente en las computadoras, contiene las instrucciones más elementales
para que puedan funcionar y desempeñarse adecuadamente, pueden incluir rutinas básicas
de control de los dispositivos.

Unidad 1. Hardware del equipo de cómputo. 30


Figura 1-16. Controladores integrados en el chipset.

Unidad 1. Hardware del equipo de cómputo. 31


 DMA (Direct Memory Access). El acceso directo a memoria es una
característica de las computadoras y microprocesadores modernos que
permite que ciertos subsistemas de hardware dentro de la computadora
puedan acceder a la memoria del sistema para la lectura y/o escritura,
independientemente de la unidad central de procesamiento (CPU). De
lo contrario, la CPU tendría que copiar cada porción de dato desde el
origen hacia el destino, haciendo que ésta no esté disponible para otras
tareas. Los subsistemas de hardware que utilizan DMA pueden ser:
controladores de disco duro, tarjetas gráficas, tarjetas de red, tarjetas de
sonido y tarjetas aceleradoras. También es utilizado para la
transferencia de datos dentro del chip, en procesadores con múltiples
núcleos. DMA es esencial en los sistemas integrados. El mecanismo del
DMA es bastante complejo en sus detalles, y por supuesto, el
movimiento de grandes volúmenes de datos entre la memoria y un
dispositivo requiere cierta intervención del procesador. El movimiento
se hace a ráfagas, y cada transferencia se inicia con una interrupción
que obliga al procesador a suspender su tarea para permitir un nuevo
intercambio.

Como todo lo relacionado con la arquitectura de la computadora, el


sistema del DMA ha sufrido una considerable evolución desde sus
inicios. Además de las anteriores, han aparecido nuevas formas de
funcionamiento, como el Ultra DMA o DMA-33. En 1996 Intel
introdujo el chip 82374 ESC (EISA System Component) que entre otras
características incluye un superset de la funcionalidad del primitivo
controlador DMA 8237A y que servía tanto para los buses EISA como
para los (entonces emergentes) PCIs. Respecto al mecanismo DMA
tradicional, presenta la mejora de que permite acceso directo a un
espacio de direcciones de 32 bits. La introducción del "Bus mástering"
permitió que determinados dispositivos controlaran la gestión del bus
en sustitución del controlador DMA. Esta es la forma de
funcionamiento de los dispositivos rápidos en los buses PCI.

 PIT (Programmable lnterval Timer). Este controlador tiene la


responsabilidad de mantener la fecha y la hora utilizada por el sistema
operativo (tanto MS-DOS como Windows) desde que se enciende la
PC. Las diversas implementaciones de este CI aparecen resumidas en
la tabla 1-2. Dispone de tres canales programable individualmente:

a. Canal 0. Sobre el recae la única función que permanece vigente


en los sistemas actuales: Mantener la fecha y la hora; que es
utilizada por los servicios del sistema operativo.
b. Canal 1. Controlaba el refresco de la DRAM en los primeros PC.
Ahora esta función se realiza directamente desde el generador de
reloj.

Unidad 1. Hardware del equipo de cómputo. 32


c. Canal 2. Muy utilizado en los primeros PC para conectarlo al
altavoz interno y generar efectos sonoros de una frecuencia
concreta. Estos efectos son ahora mucho más espectaculares si
se utilizan los recursos que ofrecen las tarjetas de sonido
actuales.

El temporizador programable del primer PC fue el chip 8253 de Intel.


Su corta evolución se resume en la tabla 1-2.

Fabricante del Chip Longevidad (generaciones)


PIT comercial
Intel 8253 Primera
Intel 8254 Segunda y tercera
Integrado en el puente sur del chipset Cuarta en adelante

Tabla 1-2. Los controladores comerciales más utilizados como


temporizador (PIT) de la PC.

 RTC (Real Time Controller). En 1as primeras PC era necesario que el


usuario tecleara la fecha y la hora por cada nuevo arranque; a partir de
ahí, el registro horario se mantenía utilizando el canal 0 del PIT. Para
evitar su pérdida, desde los sistemas PC-AT en adelante se incluye un
reloj interno, el RTC, que marca el paso del tiempo mientras que la PC
se encuentra apagada, dotándolo de una pila y unas celdas de memoria
para registrar su valor internamente.

El primer chip que incorporó esta funcionalidad fue el Motorola


MC146818, cuya señal de entrada era de 33 MHz, mapeando su salida
sobre la línea IRQ del controlador de interrupción. Puesto que la tarea
asociada a esta línea debía realizarse con la PC apagada, no podía
generar una interrupción que debiera atender el procesador, tal y como
hace el PIT.

En lugar de esto, el RTC incrementaba directamente una de las


posiciones de memoria alimentadas de forma autónoma mediante la
pila, y con el paso del tiempo, esta memoria fue albergando todo tipo
de valores para la configuración del sistema, dando origen a la RAM-
CMOS, que aún en sistemas actuales sigue conservando la fecha y hora
del sistema en sus posiciones de memoria más bajas. El RTC ha
evolucionado como se muestra en la tabla 1-3, albergando siempre en
su interior a la RAM-CMOS, y en ocasiones, incluso hasta su batería
en forma de un acumulador interno recargable.

Unidad 1. Hardware del equipo de cómputo. 33


Fabricante del Chip Incluye Longevidad
RTC comercial RAM- Pila (generaciones)
CMOS
Motorola MC146818 Si No Segunda y tercera
Dallas ODIN Si Si Cuarta y quinta
Semiconductor DS12887
BenchmarQ BQ3287 Si No Cuarta y quinta
ST M41ST84 Si Si Quinta
Microelectronics
Integrado en el puente sur del Si No Cuarta en adelante
chipset

Tabla 1-3. Los controladores comerciales más utilizados como


controlador de tiempo real (RTC) de la PC

 RAM-CMOS. Es un tipo de memoria que almacena información sobre


la configuración del sistema, por ejemplo, la elección de velocidad de
buses, overclock del procesador, activación de dispositivos, entre otras.
Esta información se puede modificar por medio de una utilidad de la
ROM BIOS que puede ser invocada por el usuario durante el arranque
del sistema (SETUP). Debido a ello suele confundirse con la propia
ROM BIOS, pero es una entidad de memoria diferente. Esta memoria
es una RAM de 64 bytes de capacidad, que está vinculada con el reloj
de tiempo real del sistema. La tecnología CMOS de bajo consumo de
esta memoria permite que sea alimentada por la misma pila del reloj de
tiempo real de la tarjeta madre. En las primeras PC se usaba
una batería recargable, en la actualidad se usan baterías de litio
desechables tipo botón. La información contenida en esta RAM-CMOS
es usada por la ROM BIOS durante el arranque de la PC para establecer
la configuración del sistema. En ese momento se comprueba la
integridad del contenido del CMOS y, si los datos son incorrectos, se
genera un error y el sistema solicita una respuesta al usuario sobre la
acción a seguir: continuar o entrar a la utilidad de configuración.

En algunos casos la información contenida en la RAM-CMOS conduce


a una configuración que no permite el arranque normal de la tarjeta
madre, en ese caso es necesario borrar la información en la misma
cortando la alimentación de la pila para que el sistema se reconfigure
con los valores establecidos de fábrica, que suelen corresponder a una
configuración segura (que permite un arranque sin problemas). Este
fenómeno suele pasar durante el cambio de velocidades de buses o del
mismo procesador, cuando el sistema queda configurado con una
velocidad que no alcanza a manejar alguno de los componentes
integrados.

Unidad 1. Hardware del equipo de cómputo. 34


Los controladores que se muestran en la figura 1-16; que aún no se han
explicado, como el ACPI, APM, controladora de puertos, etcétera serán
estudiados en temas posteriores, debido a que están vinculados con los
dispositivos periféricos que controlan; por ejemplo, así cuando se aborde el
tema de teclado, será también necesario retomar el controlador de teclado en
la tarjeta madre.

1.3.4 Memorias
Cuando se habla de la memoria del sistema PC, la referencia se hace a la
memoria RAM13, a la memoria ROM BIOS se le resta importancia ya que no
es un elemento que se pueda ampliar; tampoco se indica como un
requerimiento de sistema para poder ejecutar alguna aplicación. En realidad,
ambos tipos de memoria son importantes ya que si faltara alguna de ellas el
sistema de cómputo no podría operar.

El hardware del sistema de cómputo es controlado por el procesador a


través del software. El sistema operativo es un tipo de software que gobierna
toda la operación de la PC. Windows es un sistema operativo responsable de
las operaciones básicas del equipo, por ejemplo, aceptar lo que se escribe en
el teclado, almacenar información en la memoria, controlar los programas
que se ejecutan como Word, Excel, etcétera. También se encarga de
administrar la comunicación con los equipos periféricos como impresoras y
escáneres, así como con los accesorios como tarjetas de red y ratones. Esto
lo hace apoyándose en controladores (drivers) que son pequeños programas
que le dicen a Windows como debe hacerse la comunicación con ellos. Es
decir que los drivers funcionan haciendo una abstracción del hardware, de los
equipos tangibles, traduciéndolos a una interpretación mediante software.

Cada dispositivo tiene su propio sistema de comandos especializados que


solamente conoce su driver, sin embargo, la mayoría de los programas tienen
acceso a los dispositivos usando comandos genéricos. El driver, por lo tanto,
acepta comandos genéricos de un programa y después los traduce a los
comandos especializados para el dispositivo. Si no existiera un driver, estos
periféricos no funcionarían en absoluto, incluso la existencia del driver
repercute de forma crucial en cuanto a la posibilidad que se tendra sobre el
manejo de los mismos: drivers limitados provocarán que se acceda sólo a un
grupo limitado de funcionalidades del hardware. Es el caso de los drivers en
desarrollo, que aún no están terminados y por tal razón permiten hacer sólo
una cantidad de las cosas que se podrían realizar.

13 La memoria de acceso aleatorio (en inglés: random-access memory, cuyo acrónimo es RAM) es
la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.

Unidad 1. Hardware del equipo de cómputo. 35


Memorias ROM.

ROM BIOS (Read Only Memory-Basic Input/Output System). Es una


memoria programada en la fábrica, contiene los códigos (firmware 14 ) de
inicialización, arranque y servicios básicos de entrada/salida. La función
específica de una memoria ROM BIOS es la de mantener siempre activa las
funciones del ordenador, pero principalmente en cuanto se refiere a las
características del procesador, así como de otros dispositivos como son los
discos duros y la tarjeta gráfica. Esto solo es posible mediante el BIOS que
contiene todo ordenador, mismo que se encuentra almacenado en el CI ROM
que se encuentra en la tarjeta madre de la PC.

Figura 1-17. Función del BIOS como interfaz.

El BIOS es una colección de programas y drivers incrustados en una


memoria Flash, que se cargan cuando se inicia el equipo, hacen que el sistema
funcione y actúan como interfaz con el hardware básico, véase la figura 1-17.

14
Firmware es una porción de código almacenado en una en una memoria ROM que se utiliza para
establecer las instrucciones que controlan las operaciones de los circuitos de un dispositivo.

Unidad 1. Hardware del equipo de cómputo. 36


Se puede decir que sin el BIOS no hay PC, ya que la existencia de un BIOS
por muy simple que sea, es imprescindible para que la PC pueda ponerse en
funcionamiento y comenzar el proceso de arranque del sistema. Una
definición más apropiada para el BIOS sería como “la interfaz entre el
hardware y el sistema operativo", es decir, que se configura los elementos
de hardware en nuestro PC, y además se encarga de realizar todas las
funciones necesarias para que todo funcione de forma correcta.

El BIOS en la mayoría de los PC tiene cuatro funciones principales:

 POST (Power-On Self Test). Realiza pruebas en el procesador, la


memoria del ordenador, chipset, adaptador de vídeo, controladores de
disco, unidades de disco, el teclado y otros cruciales componentes.
 Bootstrap loader. Una rutina que busca al sistema operativo y lo carga,
o inicia. Si un sistema operativo se encuentra, se carga y se le cede el
control de la PC.
 BIOS. Sistema Básico de Entrada y Salida. Esto se refiere a la
colección de los drivers utilizados para actuar como una interfaz básica
entre el sistema operativo y su hardware. Cuando se inicia DOS o
Windows en modo seguro, se ejecuta únicamente los drivers del BIOS.
 CMOS Setup. Configuración del sistema. Se trata de un programa
normalmente controlado por un menú que permite configurar los
ajustes de la tarjeta madre y el chipset, junto con la fecha y la hora, las
contraseñas, las unidades de disco, y otros ajustes básicos del sistema.
Algunos sistemas más antiguos no tienen el programa de Setup en la
memoria ROM y requieren arrancar desde un disco de instalación
especial.

Cuando iniciamos un sistema operativo tradicionalmente lo primero que se


ejecuta es el BIOS; luego viene el sistema operativo y finalmente las
aplicaciones que se tengan en la PC. Hace un par de años se empezó a utilizar
el Unified Extensible Firmware Interface (UEFI), un nuevo estándar para
PCs diseñado para el BIOS.

Fue desarrollado en colaboración con más de 140 compañías con el


objetivo de mejorar la interoperabilidad del software y solucionar las
limitaciones del BIOS, entre las que se encuentra la seguridad. Por lo tanto,
resulta interesante conocer las algunas características de UEFI.

 Mayor seguridad, ya que ayuda a proteger el proceso previo al inicio


(o prearranque) frente a ataques de bootkit.
 Tiempos de inicio y reanudación desde la hibernación más rápidos.
 Compatibilidad con unidades de más de 2.2 terabytes (TB).
 Compatibilidad con modernos controladores de dispositivos de
firmware de 64 bits que el sistema puede usar para direccionar más

Unidad 1. Hardware del equipo de cómputo. 37


de 17.2 mil millones de gigabytes (GB) de memoria durante el
inicio.
 Capacidad para usar el BIOS con hardware UEFI.

Memorias RAM.

Shadow RAM. Es una parte de la RAM cuyo contenido es copiado desde la


memoria ROM para permitir menores tiempos de accesos, porque la ROM es
más lenta que la RAM. La ROM original es inhabilitada y su nueva ubicación
en la RAM está protegida contra escritura. Este proceso es llamado
shadowing. Por ejemplo, algunos BIOS tienen una característica llamada
"Usar shadow BIOS" en las opciones de configuración. Cuando está
permitida, en vez de leerse los datos del BIOS desde el chip de la ROM, los
lee desde la RAM. Dependiendo del sistema, esto podría aumentar el
rendimiento de las llamadas al BIOS.

Figura 1-18. Jerarquía de memoria de la PC.

En la figura 1-18, se ilustra la organización piramidal de la memoria en


niveles que tienen la computadora. El objetivo es conseguir el rendimiento

Unidad 1. Hardware del equipo de cómputo. 38


de una memoria de gran velocidad al coste de una memoria de baja velocidad,
basándose en el principio de cercanía de referencias. A continuación, se
explicará el uso, que hace la PC a la memoria, indicando la función de cada
nivel; los cuales son:

Registros del procesador. Un registro es una memoria de alta velocidad y


poca capacidad, integrada en el microprocesador, que permite guardar
transitoriamente y acceder a valores muy usados, generalmente en
operaciones matemáticas. Los registros están en la cumbre de la jerarquía de
memoria, y son la manera más rápida que tiene el sistema de almacenar datos.
Los registros se miden generalmente por el número de bits que almacenan;
por ejemplo, un "registro de 8 bits" o un "registro de 32 bits". Los registros
generalmente se implementan en un banco de registros, pero antiguamente se
usaban biestables individuales, memoria SRAM o formas aún más
primitivas.

Memoria caché. Es una memoria en la que se almacenas una serie de datos


para su rápido acceso. Existen muchas memorias caché (de disco, de sistema,
incluso de datos, como es el caso de la caché de Google. Básicamente, la
memoria caché de un procesador es un tipo de memoria volátil (del tipo
RAM), pero de una gran velocidad. En la actualidad esta memoria está
integrada en el procesador, y su cometido es almacenar una serie de
instrucciones y datos a los que el procesador accede continuamente, con la
finalidad de que estos accesos sean instantáneos. Estas instrucciones y datos
son aquellas a las que el procesador necesita estar accediendo de forma
continua, por lo que para el rendimiento del procesador es imprescindible que
este acceso sea lo más rápido y fluido posible. La memoria caché contenida
dentro de una CPU está más cercana que la memoria RAM o memoria
principal de la computadora, y es por esta razón que mejora la capacidad de
procesamiento del mismo. Cada vez que se accede por vez primera a
determinado dato, este es almacenado en caché, posteriormente al intentar
leer el mismo dato se recurrirá a la información almacenada en caché,
ahorrando tiempo de acceso. La memoria caché se renueva, por lo tanto, a
todo momento. Los discos duros y otros dispositivos de almacenamiento
también hacen utilización de estos métodos, ya sea por hardware y/o por
software mediante el sistema operativo, el cual destina cierta parte de su
memoria RAM al almacenamiento de información proveniente de estos
dispositivos. Las grabadoras de CD/DVD poseen una memoria caché que va
almacenando los datos previamente a ser grabados en discos ópticos, e
incluso algunos programas brindan un caché extra para evitar aún más la
inutilización de los discos.

Hay tres tipos diferentes de memoria caché para procesadores:

Unidad 1. Hardware del equipo de cómputo. 39


 Caché de 1er nivel (L1): Esta caché está integrada en el núcleo del
procesador, trabajando a la misma velocidad que este. La cantidad de
memoria caché L1 varía de un procesador a otro, estando normalmente
entra los 64KB y los 256KB. Esta memoria suele a su vez estar
dividida en dos partes dedicadas, una para instrucciones y otra para
datos.
 Caché de 2do nivel (L2): Integrada también en el procesador, aunque
no directamente en el núcleo de este, tiene las mismas ventajas que la
caché L1, aunque es algo más lenta que esta. La caché L2 suele ser
mayor que la caché L1, pudiendo llegar a superar los 2MB. A
diferencia de la caché L1, esta no está dividida, y su utilización está
más encaminada a programas que al sistema.
 Caché de 3er nivel (L3): Es un tipo de memoria caché más lenta que
la L2, muy poco utilizada en la actualidad. En un principio esta caché
estaba incorporada a la tarjeta madre, no al procesador, y su velocidad
de acceso era bastante más lenta que una caché de nivel 2 o 1, ya que
si bien sigue siendo una memoria de una gran rapidez (muy superior a
la RAM, y mucho más en la época en la que se utilizaba), depende de
la comunicación entre el procesador y la tarjeta madre. Para tener una
idea más precisa de esto, imagine en un extremo el procesador y en el
otro la memoria RAM. Pues bien, entre ambos se encuentra la
memoria caché, más rápida cuanto más cerca se encuentre del núcleo
del procesador (L1). Las memorias caché son extremadamente rápidas
(su velocidad es unas 5 veces superior a la de una RAM de las más
rápidas), con la ventaja añadida de no tener latencia, por lo que su
acceso no tiene ninguna demora; pero es un tipo de memoria muy cara.
Esto, unido a su integración en el procesador (ya sea directamente en
el núcleo o no) limita bastante el tamaño, por un lado, por lo que
encarece al procesador y por otro por el espacio disponible. En cuanto
a la utilización de la caché L2 en procesadores multinucleares, existen
dos tipos diferentes de tecnologías a aplicar. Por un lado, está la
habitualmente utilizada por Intel, que consiste en que el total de la
caché L2 está accesible para ambos núcleos y por otro está la utilizada
por AMD, en la que cada núcleo tiene su propia caché L2 dedicada
solo para ese núcleo. La caché L2 apareció por primera vez en los Intel
Pentium Pro, siendo incorporada a continuación por los Intel Pentium
II, aunque en ese caso no en el encapsulado del procesador, sino
externamente (aunque dentro del procesador).

Memoria RAM. Su función es primordial, ya que se ocupa de almacenar la


información de las instrucciones que el procesador debe gestionar, los
resultados de dichas tareas y cualquier otro dato que fuera necesario. Se
denomina "de acceso aleatorio" porque se puede leer o escribir en una
posición de memoria con un tiempo de espera igual para cualquier posición,
no siendo necesario seguir un orden para acceder a la información de la
manera más rápida posible.

Unidad 1. Hardware del equipo de cómputo. 40


Existen diferentes tipos de memoria de RAM. Estas se presentan en forma
de módulos de memoria15 que pueden conectarse a la tarjeta madre, la figura
1-19, muestra varios de ellos. Las primeras memorias fueron CIs
denominados DIP (Paquete en Línea Doble). En términos generales, existen
tres tipos de módulos RAM:

 Módulos en formato SIMM (Módulo de Memoria en Línea Simple):


se trata de placas de circuito impresas, con uno de sus lados
equipado con chips de memoria. Existen dos tipos de módulos
SIMM, según el número de conectores. Los módulos SIMM con 30
conectores (de 89x13mm) son memorias de 8 bits que se instalaban
en los PC de primera generación (286, 386). Los módulos SIMM
con 72 conectores (sus dimensiones son 108x25mm) son memorias
capaces de almacenar 32 bits de información en forma simultánea.
Estas memorias se encuentran en los PC que van desde el 386DX
hasta los primeros Pentiums. En el caso de estos últimos, el
procesador funciona con un bus de información de 64 bits, razón por
la cual, estos ordenadores necesitan estar equipados con dos
módulos SIMM. Los módulos de 30 clavijas no pueden instalarse
en posiciones de 72 conectores, ya que la muesca (ubicada en la
parte central de los conectores) imposibilitaría la conexión.

Figura 1-19. Varios tipos de módulos de memoria.

15
Los módulos de RAM son tarjetas o placas de circuito impreso que tienen soldados CIs de memoria
DRAM, por una o ambas caras. La implementación DRAM se basa en una topología de circuito
eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando
integrados de cientos o miles de megabits. Además de DRAM, los módulos poseen un integrado que
permiten la identificación de los mismos ante la computadora por medio del protocolo de
comunicación Serial Presence Detect (SPD).

Unidad 1. Hardware del equipo de cómputo. 41


 Los módulos en formato DIMM (Módulo de Memoria en Línea
Doble), son memorias de 64 bits, lo cual explica por qué no
necesitan emparejamiento. Los módulos DIMM poseen chips de
memoria en ambos lados de la tarjeta de circuito impreso, y poseen
a la vez, 84 conectores de cada lado, lo cual suma un total de 168
clavijas. Además de ser de mayores dimensiones que los módulos
SIMM (130x25mm), estos módulos poseen una segunda muesca
que evita confusiones. Cabe observar que los conectores DIMM han
sido mejorados para facilitar su inserción, gracias a las palancas
ubicadas a ambos lados de cada conector. También existen módulos
más pequeños, conocidos como SO DIMM (DIMM de contorno
pequeño), diseñados para computadoras portátiles. Los módulos SO
DIMM sólo cuentan con 144 clavijas en el caso de las memorias de
64 bits, y con 77 clavijas en el caso de las memorias de 32 bits.

 Los módulos en formato RIMM (Módulo de Memoria en Línea


Rambus, también conocido como RD-RAM o DRD-RAM) son
memorias de 64 bits desarrolladas por la empresa Rambus. Poseen
184 clavijas. Dichos módulos poseen dos muescas de posición, con
el fin de evitar el riesgo de confusión con módulos previos. Dada la
alta velocidad de transferencia de que disponen, los módulos RIMM
poseen una película térmica cuyo rol es el mejorar la transferencia
de calor. Al igual que con los módulos DIMM, también existen
módulos más pequeños, conocidos como SO RIMM (RIMM de
contorno pequeño), diseñados para ordenadores portátiles. Los
módulos SO RIMM poseen sólo 160 clavijas.

Tecnología de los CIs en los módulos de memoria.

a) DRAM (RAM Dinámica). Es el tipo de memoria más común en


estos tiempos. Se trata de una memoria cuyos transistores se
disponen en forma de matriz, en forma de filas y columnas. Un
transistor, acoplado con un capacitador, proporciona
información en forma de bits. Los tiempos de acceso de estas
memorias son de 60 ns. Además, el acceso a la memoria en
general se relaciona con la información almacenada
consecutivamente en la memoria. De esta manera, el modo de
ráfaga permite el acceso a las tres partes de información que
siguen a la primera parte, sin tiempo de latencia adicional. De
este modo, el tiempo necesario para acceder a la primera parte
de la información es igual al tiempo del ciclo más el tiempo de
latencia, mientras que el tiempo necesario para acceder a las
otras tres partes de la información sólo es igual al tiempo de
ciclo; los cuatro tiempos de acceso se expresan, entonces, en la

Unidad 1. Hardware del equipo de cómputo. 42


forma X-Y-Y-Y. Por ejemplo, 5-3-3-3 indica que la memoria
necesita 5 ciclos del reloj para acceder a la primera parte de la
información, y 3 para acceder a las subsiguientes.

b) DRAM FPM. Para acelerar el acceso a la DRAM, existe una


técnica, conocida como paginación, que permite acceder a la
información ubicada en una misma columna, modificando
únicamente la dirección en la fila, y evitando de esta manera, la
repetición del número de columna entre lecturas por fila. Este
proceso se conoce como DRAM FPM (Memoria en Modo
Paginado). El FPM alcanza tiempos de acceso de unos 70 u 80
nanosegundos, en el caso de frecuencias de funcionamiento de
entre 25 y 33 Mhz.

c) DRAM EDO. La DRAM EDO (Salida de Información


Mejorada, a veces denominada "híper-página") se introdujo en
1995. La técnica utilizada en este tipo de memoria implica
direccionar la columna siguiente mientras paralelamente se está
leyendo la información de una columna anterior. De esta manera,
se crea un acceso superpuesto que permite ahorrar tiempo en
cada ciclo. El tiempo de acceso de la memoria EDO es de 50 a
60 nanosegundos, en el caso de una frecuencia de
funcionamiento de entre 33 y 66 Mhz. De modo que la RAM
EDO, cuando se utiliza en modo ráfaga, alcanza ciclos 5-2-2-2,
lo cual representa una ganancia de 4 ciclos al acceder a 4 partes
de información. Dado que la memoria EDO no funcionaba con
frecuencias mayores a 66 Mhz, se suspendió su uso en favor de
la SDRAM.

d) SDRAM. La SDRAM (DRAM Sincrónica), introducida en


1997, permite la lectura de la información sincronizada con el
bus de la tarjeta madre, a diferencia de lo que ocurre con las
memorias EDO y FPM (conocidas como asincrónicas), las
cuales poseen reloj propio. La SDRAM elimina de esta manera,
los tiempos de espera ocasionados por la sincronización con la
tarjeta madre. Gracias a esto se logra un ciclo de modo ráfaga de
5-1-1-1, con una ganancia de 3 ciclos en comparación con la
RAM EDO. La SDRAM puede, entonces, funcionar con una
frecuencia mayor a 150 MHz, logrando tiempos de acceso de
unos 10 ns.

e) DR-SDRAM (Rambus DRAM). La DR-SDRAM (DRAM


Directa de Rambus), es un tipo de memoria que permite la
transferencia de datos a un bus de 16 bits y a una frecuencia de
800 Mhs, lo que proporciona un ancho de banda de 1.6 GB/s. Al
igual que la SDRAM, este tipo de memoria está sincronizada con

Unidad 1. Hardware del equipo de cómputo. 43


el reloj del bus, a fin de mejorar el intercambio de información.
Sin embargo, la memoria RAMBUS es un producto de
tecnología patentada, lo que implica que cualquier empresa que
desee producir módulos RAM que utilicen esta tecnología
deberá abonar regalías, tanto a RAMBUS como a Intel.

f) DDR-SDRAM. La DDR-SDRAM (SDRAM de Tasa Doble de


Transferencia de Datos) es una memoria basada en la tecnología
SDRAM, que permite duplicar la tasa de transferencia alcanzada
por ésta utilizando la misma frecuencia. La información se lee o
ingresa en la memoria al igual que un reloj. Las memorias
DRAM estándares utilizan un método conocido como SDR
(Tasa Simple de Transferencia de Datos), que implica la lectura
o escritura de información en cada borde de entrada. La DDR
permite duplicar la frecuencia de lectura/escritura con un reloj a
la misma frecuencia, enviando información a cada borde de
entrada y a cada borde posterior.

g) DDR2-SDRAM. Las memorias DDR2 (o DDR-II) alcanzan


velocidades dos veces superiores a las memorias DDR con la
misma frecuencia externa. El acrónimo QDR (Tasa Cuádruple
de Transferencia de Datos o con Quad-pump) designa el método
de lectura y escritura utilizado. De hecho, la memoria DDR2
utiliza dos canales separados para los procesos de lectura y
escritura, con lo cual es capaz de enviar o recibir el doble de
información que la DDR.

h) DDR3-SDRAM. Las memorias DDR3 ("Dual Data Rate 3"),


tienen transmisión doble de datos tercer generación, lo que
traducido significa que son el más moderno estándar, un tipo de
memorias DRAM, las cuales tienen los CIs de memoria en
ambos lados de la tarjeta y cuentan con un conector especial de
240 terminales para ranuras de la tarjeta madre. También se les
denomina DIMM tipo DDR3, debido a que cuentan con
conectores físicamente independientes por ambas caras como el
primer estándar DIMM. Este tipo de memoria cuenta en su gran
mayoría de modelos con disipadores de calor, debido a que se
sobrecalientan. Se preveía que la tecnología DDR3 pudiera ser
dos veces más rápida que la DDR2 y el alto ancho de banda que
prometía ofrecer DDR3 era la mejor opción para la combinación
de un sistema con procesadores dual-core, quad-core y hexaCore
(2, 4 y 6 núcleos por microprocesador). Las tensiones más bajas
del DDR3 (1,5 V frente 1,8 V de DDR2) ofrecen una solución
térmica y energética más eficientes. Teóricamente, estos
módulos podían transferir datos a una tasa de reloj efectiva de
800-2600 MHz, comparado con el rango del DDR2 de 400-1200

Unidad 1. Hardware del equipo de cómputo. 44


MHz o 200-533 MHz del DDR. Existen módulos de memoria
DDR y DDR2 de mayor frecuencia, pero no estandarizados por
JEDEC. Si bien las latencias típicas DDR2 fueron 5-5-5-15 para
el estándar JEDEC, para dispositivos DDR3 son 7-7-7-20 para
DDR3-1066 y 9-9-9-24 para DDR3-1333.

i) DDR4-SDRAM. Los módulos de memoria DDR4 SDRAM


tienen un total de 288 pines DIMM. La velocidad de datos por
pin, va de un mínimo de 1.6 GT/s hasta un objetivo máximo
inicial de 3.2 GT/s. Las memorias DDR4 SDRAM tienen un
mayor rendimiento y menor consumo que las memorias DDR
predecesoras. Tienen un gran ancho de banda en comparación
con sus versiones anteriores. Sus principales ventajas en
comparación con DDR2 y DDR3 son una tasa más alta de
frecuencias de reloj y de transferencias de datos (17 GB/s), la
tensión es también menor a sus antecesoras (1.2 a 1.05 para
DDR4 y 1.5 a 1.2 para DDR3) DDR4 también apunta un cambio
en la topología descartando los enfoques de doble y triple canal,
cada controlador de memoria está conectado a un módulo único.
No es compatible con versiones anteriores por diferencias en los
voltajes, interfaz física y otros factores. Tiene una mayor latencia
lo que reduce su rendimiento.

La tabla 1-4 es una comparativa que muestra en detalle el rango de


frecuencias que maneja cada una de las distintas memorias RAM
dependiendo del módulo de memoria.

Memoria Virtual. Si alguna vez ha visto un mensaje de que la PC no tiene


suficiente espacio en memoria, esto se debe a que las computadoras
incorporan un mecanismo denominado memoria virtual para tratar de
conseguir algo más de espacio cuando se ha llenado la memoria del
ordenador. Es un mecanismo de “emergencia”, ya que el rendimiento del
ordenador baja drásticamente cuando se abusa de este mecanismo. De hecho,
es un indicador de que se debería ampliar la cantidad de memoria RAM
incorporando CIs adicionales. La memoria RAM es una pila en la que se van
introduciendo todos los programas y archivos. Primero, cuando se enciende
la PC, se carga el sistema operativo, a continuación, cada uno de los
programas de usuario (un procesador de textos, el navegador, el reproductor
de música, etcétera). Y también se colocan en la memoria todos los
documentos que abre el usuario, las páginas web que está visualizando o los
archivos de música que está escuchando. La cantidad de memoria es finita,
así que si abrimos demasiados programas llegará un momento en el que no
nos cabrán más cosas. En ese momento, entra en funcionamiento el
mecanismo de memoria virtual.

Unidad 1. Hardware del equipo de cómputo. 45


Tabla 1-4. Comparación de características de los módulos de
memoria.

Unidad 1. Hardware del equipo de cómputo. 46


Se trata de un espacio reservado en el disco duro en el que se vuelcan parte
de los programas que se están ejecutando (véase la figura 1-20). De esta
manera se puede hacer algo de hueco para abrir un nuevo documento o cargar
otro programa. Cuando hace falta la información que se ha copiado en el
disco, se debe hacer hueco de nuevo, con lo que se moverá algo al disco para
recuperar las instrucciones almacenadas en la memoria virtual. De esta forma,
se puede extender un poco la memoria disponible. Pero no es real porque no
podemos ejecutar nada que esté en la memoria virtual, sólo permite no tener
que cerrar los programas para hacer huecos y volver a abrirlos después. Los
discos son mucho más lentos que la memoria RAM, así que este proceso
ralentiza mucho todo el ordenador (recuerde el embotellamiento de Von
Neumann: el rendimiento global depende del componente más lento). Si se
emplea mucho es un síntoma de que se necesite ampliar la cantidad de
memoria del ordenador. Un síntoma del uso de la memoria virtual es que el
disco duro se activa continuamente sin que se esté abriendo un archivo,
grabándolo o abriendo; o cerrando un programa. También se puede usar
alguna herramienta de diagnóstico que indique la cantidad de memoria
disponible.

Figura 1-20. El disco duro permite crear la memoria virtual.

Swapping. Es un mecanismo para mover programas entre memoria principal


y secundaria, normalmente disco (dispositivo se swap). Con swapping, los
programas pueden salir/entrar de la memoria durante su tiempo de ejecución.
Normalmente, un programa abandona la memoria para dejar espacio a otro.
El swapping modifica el grafo de transición de estados de los procesos en un
sistema multiprogramado, desdoblando los estados de bloqueado y preparado
en dentro y fuera de memoria. La función del sistema operativo que gestiona

Unidad 1. Hardware del equipo de cómputo. 47


el intercambio entre disco y memoria se denomina intercambiador o swapper.
La operación de escribir el programa en disco se conoce como swap-out,
mientras que leer el programa de disco se denomina swap-in. El swapping
aporta las siguientes ventajas: • Permite influir en la gestión de procesos para
controlar el grado de multiprogramación (planificación a medio plazo). •
Proporciona flexibilidad en la gestión de la memoria, permitiendo una
utilización más eficiente del espacio. Para soportar swapping se requiere
espacio para el intercambio en almacenamiento secundario, generalmente
disco. Se puede utilizar un dispositivo específico independiente, una partición
del disco, o incluso compartir la misma del sistema de archivos. El
direccionamiento de los programas debe ser relativo a un registro base
(reubicación dinámica). El swapper establece el nuevo valor del registro base
para un proceso cada vez que lo carga en memoria. El sacar un programa de
memoria está motivado por la necesidad de obtener espacio libre,
generalmente para ejecutar otro programa (quizás uno más prioritario). El
swapper debe seleccionar cuidadosamente qué programas van a salir. Ya que,
como hemos comentado, el swapping condiciona la planificación de
procesos.

1.3.5 Teclado
El periférico principal que le sirve al usuario como medio de comunicación
con el sistema es el teclado, aunque en entornos gráficos es casi
imprescindible además el uso del ratón. El teclado es un dispositivo manual
que dispone de un conjunto de teclas para hacer cálculos numéricos, o entrar
información y comandos a la computadora. Forma parte de los denominados
periféricos de entrada, entre los que se encuentran el ratón, el escáner, la
palanca de juegos (joystics), las cámaras de fotos y vídeo.

El principio de funcionamiento del teclado no ha sufrido prácticamente


cambios desde la aparición de la IBM PC hasta nuestros días, solo pequeñas
modificaciones de detalle; que ha consolidado varios tipos de teclado que
pueden considerarse estándar; tres de ellos introducidos por IBM, el cuarto
preconizado por Microsoft para los sistemas Windows. Estos tipos de
teclados son:

 Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).


 Teclado AT de 84 teclas: usado con los PC AT (286/386).
 Teclado expandido de 101/102 teclas: es el teclado actual, con un
mayor número de teclas.
 Teclado Windows de 104/105 teclas: el teclado anterior con 3 teclas
adicionales para uso en Windows.
 Teclado ergonómico: diseñados para dar una mayor comodidad para
el usuario, ayudándole a tener una posición más relajada de los
brazos.

Unidad 1. Hardware del equipo de cómputo. 48


 Teclado multimedia: añade teclas especiales que llaman a algunos
programas en la computadora, a modo de acceso directo, como
pueden ser el programa de correo electrónico, la calculadora, el
reproductor multimedia, etc.

Figura 1-21. Teclado Windows de 104/105 teclas

La figura 1-21 muestra el aspecto del teclado más utilizado actualmente


por la PC.

Cuando se pulsa una tecla, el teclado envía una secuencia de números o


código de rastreo (scan code16), que no tiene nada que ver con el código
ASCII del carácter que representa, sino con la posición de la tecla (keymap17)
según el idioma y la distribución de teclado. El teclado además de
proporcionar la tecla pulsada, puede ser programado en el sentido de que
acepta un conjunto de ordenes como, por ejemplo, activar/desactivar el
bloqueo de mayúsculas, establecerse la velocidad de repetición de la tecla
que se mantiene pulsada, la demora en la detección de la tecla que se mantiene
pulsada, etc.

Figura 1-22. Ventana para ajustar los


parámetros de pulsación de las teclas.

16
Son los códigos que envía el teclado a la computadora para indicar la tecla pulsada o soltada. Su
valor no depende de la tecla, sino de su posición, así se consigue que sea independiente del idioma
del teclado.
17
Keymaps son las asignaciones del teclado que hace el sistema operativo; en cuanto tipos de letras
y distribución en el teclado.

Unidad 1. Hardware del equipo de cómputo. 49


La figura 1-22, muestra la ventana de Windows, que permite ajustar los
parámetros de velocidad de repetición y demora de las teclas pulsadas. La
aplicación “Teclado” se ubica dentro del panel de control.

Figura 1-23. Teclado y la conexión con el sistema.

En la figura 1-23 se observa que hay dos bloques que componen el


subsistema de teclado. Estos bloques son:

El teclado. Está continuamente rastreando una matriz de teclas en espera de


una tecla presionada o soltada por el usuario. Cada tecla se encuentra en el
cruce entre un hilo vertical y un hilo horizontal en la matriz de teclas. Los
hilos verticales y los horizontales no se tocan en estado de reposo, están a
distinta altura. Cuando se pulsa una tecla, se establece un contacto entre el
hilo vertical y el horizontal que forman el cruce en el que se encuentra la
tecla. El ‘chip’ de teclado está constantemente muestreando la matriz para
detectar cuándo se ha producido un contacto entre un hilo vertical y uno
horizontal, señal de que se ha pulsado una tecla. A partir del hilo vertical y el
horizontal involucrados en el contacto, el ‘chip’ de teclado reconoce la tecla
que se ha pulsado. Cuando el ‘chip’ de teclado reconoce que se ha pulsado
una tecla, calcula el código correspondiente a la tecla pulsada (un código de
8 bits llamado código ‘scan’), y lo transmite por el cable serie al controlador
de teclado. La transmisión consta de un bit de arranque, 8 bits de datos, uno
de paridad (impar) y uno de parada. El cable serie contiene un hilo que lleva
la señal de reloj, por lo que la transmisión es síncrona. Las funciones que
realiza el teclado se pueden resumir en las siguientes:

Unidad 1. Hardware del equipo de cómputo. 50


• Prevenir falsas repeticiones (rebotes) o pulsaciones incorrectas.
• Captura las pulsaciones del usuario sobre la matriz de teclas.
• Codifica las pulsaciones en códigos de rastreo.
• Transmite los códigos de rastreo a través de su cable hacia la interface del
teclado en el la PC.
• Recibir los comandos enviados por el sistema.

Interfaz de teclado. Es el segundo componente de este subsistema que une


al teclado la PC. La interfaz de teclado es de tipo serie síncrono
aproximadamente a 10 Kbps, tiene esencialmente las siguientes funciones:

• Suministra energía al teclado.


• Trasmite comandos del host al teclado.
• Recibe las respuestas del teclado ante los comandos enviados.
• Recibe los códigos de rastreo desde el teclado.
• Proporciona una interfaz para el bus de sistema de la PC.

Cuando se produce una pulsación, el controlador transfiere un código a la


PC (“makecode”) que genera una interrupción para que la rutina de
tratamiento lea el código enviado. Es el driver de teclado el que en estas
interrupciones se encarga de combinar los códigos para generar los caracteres
(mayúsculas, minúsculas, teclas de función, control, etcétera). Las teclas
expandidas o las combinaciones de teclas como ALT; teclado numérico,
tienen un comportamiento especial, ya que pueden generar hasta 4
interrupciones consecutivas (con un intervalo de unos 1.5 milisegundos, ó 3
ms en los códigos dobles que convierte en uno el 8042). En la figura 1-24 se
observa un diagrama similar de cómo funciona el teclado de un ordenador.

El enlace de comunicación del teclado no solo transmite y recibe datos


desde el teclado, sino que también comprueba los datos recibidos para
detectar errores de transmisión y controla el flujo de datos desde el teclado
hacia el host. La interface del bus de sistema de la PC es el punto donde el
microprocesador de la PC interacciona con el teclado. El host configura y
monitoriza el teclado a través de la interface, enviando comandos de teclado
directamente hacia el teclado o escribiendo comandos del controlador de
teclado en la interfaz del controlador. La interfaz de teclado consiste en un
buffer de entrada, un buffer de salida y los registros de control y estado del
controlador de teclado.

En la figura 1-25 se muestran los grupos de teclas que según las normas
ANSI (American National Standars Institute) los teclados; deben contener los
siguientes tipos de letras:

 El teclado alfanumérico es similar al teclado de una


máquina de escribir, dispone de todas las letras del alfabeto, los diez

Unidad 1. Hardware del equipo de cómputo. 51


dígitos decimales y todos los signos de puntuación y acentuación,
además de la barra espaciadora.

Figura 1-24. Interfaz de teclado que genera una interrupción para el


tratamiento del código enviado.

 El teclado numérico es similar al de una calculadora,


dispone de los diez dígitos decimales, las operaciones matemáticas
más habituales (suma, resta, multiplicación y división) Además de
la tecla “Bloq Num” o “Num Lock” que activa o desactiva este
teclado.

 Las teclas de función se sitúan en la parte superior del


teclado alfanumérico, van del F1 al F12, y son teclas que aportan
atajos en el uso del sistema informático. Por ejemplo, al pulsar F1
se suele activar la Ayuda del programa que se está usando. Algunos
teclados modernos incluyen otro conjunto de teclas en la parte
superior a las de función que permiten acceder a Internet, abrir el
correo electrónico o controlar la reproducción de archivos
multimedia 18 . Estas teclas no tienen un carácter universal y

18
Que reúne distintos medios integrados, como audio, video y televisión.

Unidad 1. Hardware del equipo de cómputo. 52


dependen de cada fabricante, pero también se pueden considerar
teclas de función.

 Las teclas de Dirección se sitúan entre el teclado


alfanumérico y el teclado numérico y son las flechitas que permiten
mover el cursor a la derecha-izquierda y arriba-abajo.

Figura 1-25. Tipos de agrupaciones de teclas del teclado.

Tecnología de construcción de las teclas. Existen numerosas técnicas para


la fabricación de los teclados como los mecánicos, con elastómero, con
membrana, de capacidad, con efecto Hall, piezoeléctricos, ópticos, etcétera.
Algunas de las características que permiten seleccionar algún tipo de
tecnología son la sensación al usarlo; durabilidad; mantenimiento, el sonido
producido al presionar las teclas, la visibilidad de las teclas, costo, etcétera.
La tabla 1-5, es una comparativa de los tipos de teclas empleadas por los
teclados, en ella se describen la tecnología utilizada para la construcción de
las teclas.

Unidad 1. Hardware del equipo de cómputo. 53


Apariencia Tecnología Características.
En la actualidad, los teclados más
Cúpula de populares emplean teclas de
"cúpula de goma". Las teclas
goma. reposan sobre una cúpula
fabricada en goma, de pequeño
tamaño y gran flexibilidad, con un
centro rígido de carbono. Cuando
se realiza una pulsación, una pieza
colocada bajo la superficie de la
tecla hunde la cúpula. Esto hace
que el centro de carbono se hunda
también, hasta tocar una pieza
metálica situada en la matriz de
circuitos. Mientras la tecla
permanezca pulsada, el centro de
carbono cerrará el circuito
apropiado. Cuando la tecla se
libera, la cúpula de goma vuelve a
su posición original, y el centro de
carbono deja de cerrar el circuito
asociado a la tecla. Como
consecuencia, la tecla también
vuelve a su posición original,
quedando lista para volver a ser
presionada. Estos teclados
resultan económicos y, además,
presentan una excelente respuesta
táctil. Otra ventaja se centra en su
gran resistencia al polvo y la
suciedad, ya que las cúpulas de
goma aíslan los interruptores. La
imagen de la izquierda muestra un
teclado de este tipo.

Se basa en unas láminas


Membrana. extendidas a lo largo de todo el
interior del teclado, dos de esas
láminas llevan impreso el circuito
eléctrico, una tercera hace de
separador entre ambas, y la cuarta
capa es una membrana donde se
alzan los interruptores en forma de
cúpulas de goma.

La membrana tiene una cúpula de


goma que se sitúa debajo de cada
tecla, y cada tecla incluye un
émbolo en su interior, al ser ésta
presionada el émbolo empuja la
cúpula de goma y cierra el circuito
eléctrico al producir contacto en
las capas inferiores, generando así
la señal de pulsación de la tecla.

Unidad 1. Hardware del equipo de cómputo. 54


Es un tipo de diseño de teclado
Capacitivos. que usa los cambios de
capacitancia, en lugar de cambios
en el flujo eléctrico usado en los
teclados de contacto para registrar
cuando un usuario presiona una
tecla específica. Debajo de las
teclas del teclado hay capacitores
que almacenan electricidad como
cargas estáticas opuestas en pares
de placas conductoras de niquel-
cobre plateado, separadas por un
material no conductor
(típicamente algún tipo de
plástico). Las cargas estáticas
opuestas mantienen un campo
atractivo entre ellas, pero la capa
aislante previene que las cargas se
anulen si se tocan. Cuando se
presiona una tecla, las placas se
acercan y cambia su capacidad
para almacenar una carga, lo cual
es detectado por el teclado como
un inicio o parada en el flujo
eléctrico e indica la tecla
correspondiente.
Los teclados capacitivos son más
durables que los de contacto y son
resistentes a la oxidación, que
eventualmente daña la mecánica
de un teclado.

Los teclados de contacto metálico


Contacto o mecánicos constan de una serie
de teclas con unos interruptores
metálico. mecánicos colocadas encima de
unos resortes, que son los que
hacen retornar las teclas a la
posición original, de modo que al
ser pulsadas estas hacen contacto
con unas terminaciones metálicas
del circuito impreso del propio
teclado, cerrando así el circuito, y
volviendo a abrirlo al dejar de
pulsar por efecto de retorno del
muelle. El contacto establecido
entre las terminales metálicas de
las teclas y del circuito impreso
determina la señal diferenciada.

Tabla 1-5. Comparación de características de los distintos tipos de


teclas.

1.3.6 Video
El video es un sistema de registro de imágenes ejecutadas en secuencia,
simulan movimiento. Se almacenan en un determinado formato digital. El
subsistema de video de una PC consta de dos componentes principales:
 Adaptador de video o tarjeta gráfica.

Unidad 1. Hardware del equipo de cómputo. 55


 Monitor19 o pantalla de video.

Tarjeta gráfica.

La tarjeta gráfica o tarjeta de video se considera como una interfaz de salida


de datos. Un adaptador de vídeo típico para PCs constará de una placa de
circuito impreso con un conector de 14 o 15 pines al que se conecta el cable
del monitor (hay monitores que no cumplen esta característica), y un conector
de ranura de 2 x 31 contactos que se inserta en una de las ranuras de expansión
(slots) de la tarjeta madre de la PC, la figura 1-26, muestra el aspecto físico
de una tarjeta moderna de video.

Figura 1-26. Tarjeta de video actual, para puertos HDMI-DVI-VGA-PCIE.

Como se observa en la figura 1-27, la tarjeta de video es el componente de


hardware que transmite al monitor la información gráfica que debe presentar
en la pantalla, realiza dos funciones:

19
Un monitor es un periférico de salida que muestra la información de forma gráfica de una
computadora. Los monitores se conectan a la computadora a través de una tarjeta gráfica (o adaptador
o tarjeta de video). Un monitor puede clasificarse, según la tecnología empleada para formar las
imágenes en: LCD, CRT, plasma o TFT.

Unidad 1. Hardware del equipo de cómputo. 56


Figura 1-27. Diagrama a bloques de una tarjeta de video.

a) Interpreta los datos que le llegan del procesador, ordenándolos y


calculando el valor de cada pixel20 lo almacena en la memoria de video
para poder presentarlos en la pantalla.
b) Desde la memoria de video, recibe la salida de datos digitales resultante
del proceso anterior y la transforma en una señal analógica que pueda
entender el monitor.

Al principio las computadoras no tenían monitor; la historia de las tarjetas


gráficas comienza a finales de los años 1960, cuando se pasa de usar
impresoras como elemento de visualización a utilizar monitores. Las
encargadas de crear aquellas primeras imágenes fueron las tarjetas de vídeo,
han existido varios tipos de tarjetas de vídeo a lo largo de la evolución de la
plataforma PC.

20
El píxel tiene su origen en el vocablo inglés pixel y surgió como acrónimo entre los términos pix
(expresión coloquial que refiere a picture, “imagen”) y element (traducido al español como
“elemento”). La noción se utiliza en el ámbito informático para indicar la superficie homogénea más
diminuta que forma parte de una imagen.

Unidad 1. Hardware del equipo de cómputo. 57


La primera tarjeta gráfica, que se lanzó con los primeros IBM PC, fue
desarrollada por IBM en 1981. La MDA (Monochrome Graphics Adapter)
trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres
en pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía
trabajar con una página de memoria. Se usaba con monitores monocromo, de
tonalidad normalmente verde. A partir de ahí se sucedieron diversas
controladoras para gráficos, resumidas en la siguiente tabla 1-6.

Fecha Tipo de Descripción Resolución Numero de


adaptador típica colores
1981 CGA Color 640x200 2
Graphics 160x200 16
Adapter
1984 EGA Enhanced 640x350 16 hasta 64
Graphics
Adapter
1987 VGA Video 640x480 16 hasta
Graphics 262,144
Array 320x200 256
1990 SVGA Super Video 800x600 256 to
Graphics 16.7
Array million
1990 8514/A IBM 1024x768 16 hasta
interlaced 262,144
standard
1990 XGA Extended 1024x768 16.7
Graphics Array milliones
1990 SXGA Super 1280x1024 16.7
Extended milliones
Graphics Array
1990 UXGA Ultra XGA 1600x1200 16.7
milliones
1990 WXGA Wide XGA 1366x768 16.7
milliones
Tabla 1-6. Comparación de características de las tarjetas gráficas.

El primer estándar ampliamente aceptado para las resoluciones de pantalla


fue conocido como VGA, visual graphics array (matriz de gráfico de video).
Las pantallas VGA tienen una resolución máxima de 640 por 480 píxeles.
IBM usó por primera vez la tecnología en 1987 y desde ese año en adelante,
las computadoras pasaron repentinamente a tener una amplia matriz de
colores disponible, comparadas con las viejas pantallas monocromáticas.
SVGA, o super VGA, apareció poco después, con una resolución máxima de

Unidad 1. Hardware del equipo de cómputo. 58


800 por 600. Luego apareció XGA, o extended graphics array (matriz de
gráficos extendida), con una resolución máxima de 1024 por 768 -la base de
WXGA. La matriz de ampliación de resolución horizontal se expandió en
base al XGA estándar, aumentando las resoluciones desde 1024 por 768 a tres
opciones panorámicas diferentes: 1280x800, 1360x768 y 1366x768. Las
resoluciones más altas ofrecen una calidad de imagen más clara que el VGA,
SVGA o incluso XGA, pero las pantallas WXGA tienen otra característica
distintiva importante. La proporción de las pantallas WXGA es igual a la
proporción de video HD de 16:9, por lo que estas pantallas son la base de las
de alta definición. Las pantallas de grandes dimensiones pueden; ser
utilizadas como monitores y/o televisores, algunas de las características de
estas se las resoluciones de están se resumen en la tabla 1-7.

Nombre de Pixeles Otros Dispositivos


resolución horizontales x nombres
Verticales
8K 7,680 x 4,320 ninguno Televisores
conceptuales
"Cinema" 4,096 x [sin 4K Proyectores
4K especificar]
UHD 3,840 x 2,160 4K, Ultra Televisores
HD,
Definición
Ultra Alta
2K 2048 x [sin ninguno Proyectores
especificar]
WUXGA 1920 x 1200 Widescreen Monitores,
Ultra proyectores
Extended
Graphics
Array
1080p 1920 x 1080 Full HD, Televisores
FHD, HD, y monitores
Alta
Definición,
2K
720p 1280 x 720 HD, Alta Televisores
Definición

Tabla 1-7. Comparación de pantallas que pueden servir como monitores y/o
televisores.

Unidad 1. Hardware del equipo de cómputo. 59


Las tarjetas de video (véase figura 1-27), están conformadas por muchas
partes independientes que son de gran importancia para su funcionamiento.
Entre las principales partes clasificables de las tarjetas de video se encuentran
las siguientes:

1. La Unidad de Procesamiento Gráfico (GPU, Graphical Processing


Unit), que es el corazón de la tarjeta de gráficos y que procesa las
imágenes de acuerdo a la codificación utilizada. La GPU es un
procesador especializado con funciones relativamente avanzadas de
procesamiento de imágenes, en especial para gráficos 3D. Debido a las
altas temperaturas que puede alcanzar un procesador gráfico, a menudo
se coloca un radiador y un ventilador.

2. La función de la memoria de video es la de almacenar las imágenes


procesadas por el GPU antes de mostrarlas en la pantalla. A mayor
cantidad de memoria de video, mayor será la cantidad de texturas que
la tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El
término búfer de trama se utiliza para referirse a la parte de la memoria
de video encargada de almacenar las imágenes antes de mostrarlas en
la pantalla. Las tarjetas de gráficos presentan una dependencia
importante del tipo de memoria que utiliza la tarjeta. Su tiempo de
respuesta es fundamental en lo que respecta a la rapidez con la que se
desea mostrar las imágenes. La capacidad de la memoria también es
importante porque
afecta el número y la resolución de imágenes que puede almacenarse en
el búfer de trama.

3. El Convertidor digital-analógico de RAM (RAMDAC, Random Access


Memory DigitalAnalog Converter) se utiliza a la hora de convertir las
imágenes digitales almacenadas en el búfer de trama en señales
analógicas que son enviadas a la pantalla. La frecuencia del RAMDAC
determina a su vez la frecuencia de actualización (el número de
imágenes por segundo, expresado en Hercios: Hz) que la tarjeta gráfica
puede soportar.

4. El BIOS de video contiene la configuración de tarjeta gráfica, en


especial, los modos gráficos que puede soportar el adaptador.

5. La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta


gráfica en la placa madre. El bus AGP está especialmente diseñado para
controlar grandes flujos de datos, algo absolutamente necesario para
mostrar un video o secuencias en 3D. El bus PCI Express presenta un

Unidad 1. Hardware del equipo de cómputo. 60


mejor rendimiento que el bus AGP y en la actualidad, casi puede
decirse que lo ha remplazado.
6. Las tarjetas gráficas tienen varios puertos; la interfaz VGA estándar: La
mayoría de las tarjetas gráficas tienen un conector VGA de 15 clavijas
(Mini Sub-D, con 3 hileras de 5 clavijas cada una); por lo general estas
son de color azul. Este conector se utiliza principalmente para las
pantallas CRT (Tubo de Rayos Catódicos). Este tipo de interfaz se usa
para enviar 3 señales analógicas a la pantalla. Dichas señales
corresponden a los componentes rojos, azules y verdes de la imagen.
La Interfaz de Video Digital (DVI, Digital Video Interface) se
encuentra en algunas tarjetas gráficas y se utiliza para el envío de datos
digitales a los distintos monitores que resultan compatibles con esta
interfaz. De esta manera, se evita convertir los datos digitales en
analógicos o los analógicos en digitales. La interfaz S-Video: En la
actualidad, son cada vez más numerosas las tarjetas gráficas que
incluyen un conector S-Video. Esto permite visualizar en una pantalla
de televisión lo mismo que se observa en el ordenador. Por este motivo,
generalmente se lo suele llamar conector "Salida de TV", la interfaz
HDMI (interfaz multimedia de alta definición) es una tecnología
moderna para conectar dispositivos de video de alta definición y
además audio. Esto ha remplazado los métodos antiguos de conexión
como los cables compuestos y de video-S. El HDMI transfiere señal de
forma digital, y puede soportar señales de audio y video. Un cable
HDMI es también una de las formas más fáciles de conectar varios
dispositivos y requiere muy poca configuración.

Existen tarjetas de video llamadas “aceleradora”; es una placa de circuito


impreso que amplía las capacidades gráficas del microprocesador principal
de un equipo realizando las tareas de generación de gráficos 2D o
generalmente 3D, como la generación de triángulos o el rellenado de
polígonos. La tarjeta aceleradora permite al usuario ampliar un sistema
dotándolo de un microprocesador más rápido sin necesidad de sustituir las
tarjetas, unidades, teclado o caja.

El campo del 3D es bastante reciente, y cada vez más importante. Algunas


PC cuentan con más poder de cómputo que ciertas estaciones de trabajo. En
líneas generales, el cómputo de gráficos en 3D es un proceso que puede
dividirse en cuatro etapas:

 Secuencia de comandos: presentación de elementos.


 Geometría: Creación de objetos simples.
 Configuración: transformación de los objetos a triángulos 2D
 Renderizado: aplicación de textura a los triángulos.

Unidad 1. Hardware del equipo de cómputo. 61


Cuanto más rápido la tarjeta aceleradora 3D pueda computar estos pasos
por sí misma, mayor será la velocidad con la que se mostrará en pantalla. En
un principio, los primeros chips sólo podían renderizar y le dejaban el resto
de la tarea al procesador. Desde entonces, las tarjetas gráficas suelen incluir
un "setup engine", que permite controlar los últimos dos pasos mencionados
anteriormente. Por ejemplo, un procesador Pentium II de 266 Mhz que
computa los tres primeros pasos, procesa 350000 polígonos por segundo;
cuando computa tan sólo dos, puede llegar a procesar hasta 750000 polígonos
por segundo. Esto demuestra cuánta es la carga que las tarjetas gráficas alivian
en los procesadores. Este tipo de bus también es un factor importante. Aunque
el bus AGP no mejora las imágenes 2D, las tarjetas que utilizan ese bus (en
lugar de utilizar el PCI) poseen un mejor rendimiento. Esto se debe a que el
bus AGP está conectado directamente a la memoria RAM, lo que le otorga su
vez un ancho de banda mayor al del bus PCI. En la actualidad, estos productos
de alta tecnología necesitan ser fabricados con la misma calidad que los
procesadores, como un ancho de canal de entre 0.25 µm y 0.35 µm.

Tipos de monitores.

Los programas generan datos e imágenes que se muestran en una pantalla


del monitor. El proceso de visualización de los datos es posible gracias al
sistema de video de la PC. El monitor visualiza la información que genera el
programa. Está controlado por una tarjeta gráfica y no influye en la velocidad
del sistema. Las principales variables que definen una pantalla son el tamaño,
la resolución el color, y las frecuencias de trabajo.

En cuanto al tamaño no hace falta comentar gran cosa; la resolución y los


colores van internamente ligados a las tarjetas gráficas.

La velocidad de refresco. El refresco, es el número de veces que se dibuja


la pantalla por segundo (como los fotogramas del cine); evidentemente,
cuanto mayor sea, menos cansancio visual. Se mide en hertzios, por ejemplo,
70 Hz significa que la pantalla se dibuja 70 veces por segundo. El mínimo
recomendado como velocidad de regeneración es 70 Hz. Para trabajar más
cómodamente y reducir al mínimo la fatiga visual utilice 75-80 Hz o más. El
mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren
muchísimo, y unos minutos bastan para empezar a sentir escozor o incluso un
pequeño dolor de cabeza.

Resolución. Denominando también pixeles por columna se refiere a la


calidad de imagen (precisión y nitidez). Esta viene expresada en función de
la cantidad de puntos que pueden ser representados en la pantalla. Esto quiere

Unidad 1. Hardware del equipo de cómputo. 62


decir que a mayor cantidad de puntos o pixeles se tendrá una mayor
resolución.

Pixel. Es la abreviatura de Picture Element, es un único punto en una


imagen gráfica. Los monitores gráficos muestran imágenes dividiendo la
pantalla en miles (o millones) de pixeles, dispuestos en filas y columnas. Los
pixeles están tan juntos que parece que estén conectados. El número de bits
usados para representar cada pixel determina cuántos colores o gamas de gris
pueden ser mostrados. Por ejemplo, en modo color de 8 bits, el monitor en
color utiliza 8 bits para cada pixel, permitiendo mostrar 2 elevado a 8 (256)
colores diferentes o gamas de gris. En monitores de color, cada pixel se
compone realmente de tres puntos uno rojo, uno azul, y uno verde.
Idealmente, los tres puntos convergen en el mismo punto, pero todos los
monitores tienen cierto error de convergencia que puede hacer que el color
los pixeles aparezca borroso. La calidad de un sistema de visualización
depende en gran medida de su resolución, es decir, cuántos bits utilizan para
representar cada pixel.

Las características anteriores son comunes a cualquier monitor, en


particular si se considera la forma en cómo se forma la imagen, se puede
clasificar a los monitores según su tecnología en:

a) Tubo de rayos catódicos o CRT (Cathode Ray Tube). El tubo de rayos


catódicos tuvo su origen en 1896, en experimentos del inglés J.J.
Thomson con tubos al vacío y electrodos con alto voltaje. Esto fue la
base para el descubrimiento de los electrones y la fabricación de
pantallas para osciloscopios, televisores y los primeros monitores. El
monitor a color (mostrado en la figura1-28) está interiormente
recubierto por una delgada capa de tres sustancias fosfóricas diferentes,
para producir luz de color primario rojo (red), verde (green) y azul
(blue): RGB. El tubo de rayos catódicos tiene tres cañones de electrones
que apuntan a los puntos de fósforo R, G o B que les corresponde. Se
realiza un barrido de la pantalla con los cañones electrónicos y se activa
cada uno de los puntos de fosforo a distintas intensidades; se forma así
la imagen a color. Actualmente estos monitores ya no se utilizan,
debido a que son muy voluminosos y tienen gran consumo de energía.

b) Pantalla de cristal líquido o LCD (Liquid Crystal Display). Con respecto


a una pantalla de tubo de rayos catódicos, el monitor de cristal líquido
es plano, tiene menos partes, es más liviano, ocupa menos espacio,
consume menos energía y no emite radiaciones electromagnéticas
dañinas, por lo que la fatiga visual y los posibles problemas oculares se
reducen.

Unidad 1. Hardware del equipo de cómputo. 63


Figura 1-28. Estructura de un monitor CRT.

A mediados de los años 1960 los científicos demostraron que los


cristales líquidos, cuando eran estimulados por una carga eléctrica
externa, podían cambiar las características de la luz que pasaba a través
ellos. Los monitores LCD tienen un panel compuesto de dos hojas
fabricadas de un material de vidrio especial, con una fina capa de
solución compuesta de cristal líquido entre ellas, como se muestra en la
figura 1-29.

Cuando una carga de corriente eléctrica pasa a través de la capa de


cristal líquido, los cristales se alinean o se enroscan, evitando o
permitiendo que la luz pase a través del conjunto. Este es el mismo
principio aplicado en los relojes de cuarzo digitales y en las pantallas de
las calculadoras, y que hoy se emplea también en computadores de
escritorio; portátiles tipo laptops y notebooks.

La figura 1-30 muestra el aspecto físico de los monitores que se acaban de


describir.

Unidad 1. Hardware del equipo de cómputo. 64


Figura 1-29. Estructura de un monitor LCD.

Figura 1-30. A la izquierda un monitor CRT y a la derecha el LCD.

Unidad 1. Hardware del equipo de cómputo. 65

También podría gustarte