Está en la página 1de 153

Introducción.

Tomando como base el Modelo Educativo Integral y Flexible (MEIF) de la


Universidad Veracruzana, el cual uno de sus nuevos conceptos tiende a hacer que los
alumnos sean más autodidactas; y observando la necesidad de que el estudiante
cuente con la información de las experiencias educativas fuera del aula de clases, con
información suficiente y apegada a su plan de estudios, se ha propuesto desarrollar este
curso en línea sobre la experiencia educativa “Arquitectura de Computadoras”.

De esta manera, el estudiante que esté cursando dicha experiencia y el que no,
pero esté interesado, puede contar con la información necesaria en línea ya sea en la
facultad o desde cualquier computadora con acceso a Internet fuera de la misma.
Este curso cuenta con autoevaluaciones al final de cada capítulo como herramienta
de diagnóstico, para que el alumno pueda reafirmar sus conocimientos de cada tema
estudiado.

Dichas autoevaluaciones fueron elaboradas en la plataforma Hot Potatoes, ya


que es un software libre que cuenta con cuatro modalidades de evaluación que se irán
presentando al final de cada capítulo para que el alumno se pueda autoevaluar en
dicho tema con alguna modalidad del software presentado.
Unidad 1.Introduccion a la Arquitectura
de Computadoras

La Computadora

1. Introducción a la Arquitectura de Computadores


La arquitectura de computadoras es el diseño conceptual y la
estructura operacional fundamental de un sistema que conforma una
computadora. Es decir, es un modelo y una descripción funcional de los
requerimientos y las implementaciones de diseño para varias partes de una
computadora, con especial interés en la forma en que la unidad central de
proceso (CPU) trabaja internamente y accede a las direcciones de memoria.

La arquitectura de una computadora explica la situación de sus


componentes y permite determinar las posibilidades de
un sistema informático, con una determinada configuración, pueda realizar
las operaciones para las que se va a utilizar. La arquitectura básica de
cualquier ordenador completo está formado por solo 5 componentes básicos:
procesador, memoria RAM, disco duro, dispositivos de entrada/salida y
software.

1.1 Conceptos Iniciales de la Arquitectura


de Computadores
Un computador es un sistema secuencial síncrono complejo que
procesa información, esta se trata de información binaria, utilizando solamente
los dígitos de valores lógicos ‘1’ y ‘0’. Estos valores lógicos binarios se
corresponden con valores de tensión eléctrica, de manera que un ‘1’ lógico
corresponde a un nivel alto a 5 voltios y un ‘0’ lógico corresponde a un nivel
bajo de tensión cercano a 0 voltios; estos voltajes dependen de la tecnología
que utilicen los dispositivos del computador.

1.1.1 Procesador

Es el cerebro del sistema, encargado de procesar todos los datos e


informaciones. A pesar de que es un dispositivo muy sofisticado no puede
llegar a hacer nada por sí solo. Para hacer funcionar a este necesitamos
algunos componentes más como lo son memorias, unidades de disco,
dispositivos de entrada/salida y los programas. El procesador o núcleo central
está formado por millones de transistores y componentes electrónicos de un
tamaño microscópico. El procesamiento de las tareas o eventos que este
realiza va en función de los nanosegundos, haciendo que los miles de
transistores que contiene este trabajen en el orden de los MHz. La información
binaria se introduce mediante dispositivos periféricos que sirven de interfaz
entre el mundo exterior con el usuario. Estos periféricos lo que van a hacer será
traducir la información que el usuario introduce en señales eléctricas, que
serán interpretadas como unos y ceros, los cuales son interpretados de una
manera más rápida por la computadora, ya que el lenguaje maquina utiliza el
código binario para ser interpretado por el computador.

Un sistema jerárquico es un conjunto de sistemas interrelacionados,


cada uno de los cuales se organiza de manera jerárquica, uno tras otro, hasta
que alcanza el nivel más bajo de subsistema elemental. Una posible
clasificación seria:

1. Nivel de Componente. Los elementos de este nivel son


difusiones de impurezas tipo P y de tipo N en silicio, polisilicio
cristalino y difusiones de metal que sirven para construir los
transistores.

2. Nivel Electrónico. Los componentes son transistores,


resistencias, condensadores y diodos construidos con las
difusiones del nivel anterior. Esta tecnología de muy alta escala
de integración o VLSI es la que se utiliza en la fabricación de
circuitos integrados. En este nivel se construyen las puertas
lógicas a partir de transistores.

3. Nivel Digital. Se describe mediante unos y ceros son las


puertas lógicas, biestables y otros módulos tanto
combinacionales como secuenciales. Este nivel es la aplicación
del algebra booleana y las propiedades de la lógica digital.

4. Nivel RTL. El nivel de transferencia de registros RTL será el


preferido para la descripción de los computadores. Elementos
típicos en este nivel de abstracción son los registros y módulos
combinacionales aritméticos.

5. Nivel PMS. Este nivel es el más alto de la jerarquía. Las siglas


PMS provienen del ingles Processor Memory Switch. Con
elementos de jerarquía los buses, memorias, procesadores y otros
módulos de alto nivel.

1.2 Arquitectura Clásica de un


Computador Modelo Von Neumann
La arquitectura Von Neumann tiene sus orígenes en el trabajo del
matemático John Von Neumann desarrollado con John Mauchly y John P.
Eckert y divulgado en 1945 en la Moore School de la Universidad de
Pensilvania, Estados Unidos, en el que se presentaba e EDVAC ( Electronic
Discrete Variable Automatic Computer). De aquí surgió la arquitectura del
programa almacena en memoria y búsqueda/ejecución secuencial de
instrucciones. En términos generales una computadora tiene que realizar 3
funciones:

✓ Procesamiento de Datos

✓ Almacenamiento de Datos

✓ Transferencia de Datos

Tal que un PC (Personal Computer) debe procesar datos, transformando la


información recibida, de igual forma tiene que almacenar datos, como
resultado final de estas. También debe de realizar transferencia de datos entre
su entorno y el mismo. La arquitectura de un computador hace referencia a la
organización de sus elementos en módulos con una funcionabilidad definida
y a la iteración entre ellos. En el esquema de la Figura 1.1 se muestra la
estructura básica de Von Neumann que debe llevar una computadora para
su correcta operación.
FIGURA 1.1: ESTRUCTURA BÁSICA DE UNA COMPUTADORA.

• CPU (por el acrónimo en inglés de central processing unit) : La unidad


central de proceso es el corazón del computador. Controla el flujo de datos,
los procesa, y gobierna el secuenciamiento de las acciones en todo el sistema.
Para ello necesita un oscilador externo o reloj que sincroniza las operaciones y
marca la velocidad de proceso, este va marcando la evolución del CPU y
mide su velocidad de funcionamiento; en forma no afortunada la frecuencia
del reloj del CPU viene limitada por la tecnología del CPU y del computador
completo ya dependiendo de los periféricos, sus tarjetas graficas, memorias,
etc. Por lo tanto, el uso excesivo de los recursos que tenga la computadora
puede resultar un sobrecalentamiento que deteriore parcial o totalmente la
CPU.

• Memoria: es la responsable del almacenamiento de datos.

• Entrada/Salida: transfiere datos entre el entorno exterior y el computador.


En él se encuentran los controladores de periféricos que forman la interfaz entre
los periféricos, la memoria y el procesador.

• Sistema de interconexión: Buses; es el mecanismo que permite el flujo de


datos entre la CPU, la memoria y los módulos de entrada/salida. Aquí se
propagan las señales eléctricas que son interpretadas como unos y ceros
lógicos.

• Periféricos: estos dispositivos son los que permiten la entrada de datos al


computador, y la salida de información una vez procesada. Un grupo de
periféricos puede entenderse como un conjunto de transductores entre la
información física externa y la información binaria interpretable por el
computador. Ejemplos de estos dispositivos son el teclado, el monitor, el ratón,
el disco duro y las tarjetas de red.

1.2.1 Unidad Central de Procesamiento


Controla el funcionamiento de los elementos de un computador. Desde
que el sistema es alimentado por una corriente, este no deja de procesar
información hasta que se corta dicha alimentación. La CPU es la parte más
importante del procesador, debido a que es utilizado para realizar todas las
operaciones y cálculos del computador. La CPU tiene a su vez otra estructura
interna que se muestra en la Figura 1.2.

FIGURA 1.2: ESTRUCTURA DE LA CPU Y SU CONEXIÓN CON LA


MEMORIA.

• Unidad de Control (UC): La unidad de control se encarga de leer de la


memoria las instrucciones que debe de ejecutar y de secuenciar el acceso a
los datos y operaciones a realizar por la unidad de proceso. La UC genera las
señales de control que establecen el flujo de datos en todo el computador e
interno en la CPU. Una instrucción no es más que una combinación de unos y
ceros. Consta de un código de operaciones binarias para ejecutar la
instrucción, la UC la almacena en un registro especial, interpreta su código de
operación y ejecuta la secuencia de acciones adecuada, en pocas palabras
decodifica la instrucción.

• Unidad Aritmética Lógica o ALU (por su acrónimo en ingles Arithmetic


Logic Unit): Es la parte de la CPU encargada de realizar las
transformaciones de los datos. Gobernada por la UC, la ALU consta de una
serie de módulos que realizan operaciones aritméticas y lógicas. La UC se
encarga de seleccionar la operación a realizar habilitando los caminos de
datos entre los diversos operadores de la ALU y entre los registros internos.

• Registros Internos: el almacenamiento de los resultados a la ejecución de


las instrucciones en la memoria principal podría ser lento y excesivamente
tendría muchos datos en el sistema de interconexión con la memoria, con lo
que el rendimiento bajaría. De la misma manera también se almacenan en
registros internos la configuración interna del CPU o la información durante la
última operación de la ALU. Los principales registros de un CPU son:

1. Contador de programa.- se encarga de almacenar la


dirección de la siguiente instrucción a ejecutar.

2. Registro de Instrucción.- se almacena la instrucción


capturado en memoria y la que se está ejecutando.

3. Registro de Estado.- compuesto por una serie de bits que


informan el resultado obtenido en la última operación de la ALU.

4. Registro Acumulador.- algunos CPU’s realizan operaciones


aritméticas en un registro llamado acumulador, su función es la
de almacenar los resultados de las operaciones aritméticas y
lógicas.

El ciclo para ejecutar cualquier instrucción se divide en ciclo de


búsqueda y ciclo de instrucción como es ilustrado en el esquema de la Figura
1.3 . El primero hace que el CPU genere señales adecuadas para acceder a
la memoria y leer la instrucción; el segundo es similar; la diferencia entre los dos
es el código de operación de cada instrucción.

FIGURA 1.3: CICLOS DE LA MAQUINA VON NEUMANN

1.2.2 Memoria

En la memoria se almacena el programa y los datos que va a ejecutar


el CPU. Las instrucciones son códigos binarios interpretados por la unidad de
control, los datos de igual manera se almacenan de forma binaria.

Las diversas tecnologías de almacenamiento, dependen del tiempo de


acceso a los datos; por lo tanto se realiza un diseño jerárquico de la memoria
del sistema para que esta pueda acceder rápidamente a los datos. El principio
de que sea más rápida la memoria haciendo que tenga velocidades similares
al CPU, sirve para diseñar el sistema de memoria. La memoria principal de los
computadores tiene una estructura similar a la mostrada en el esquema de la
Figura 1.4. Se considera como una matriz de celdas en la que la memoria
puede acceder a los datos aleatoriamente.

FIGURA 1.4: ESQUEMA DE UNA MEMORIA DE ACCESO ALEATORIO.

Dicha matriz está organizada en palabras, cada una de las cuales tiene
asignada una dirección que indica su posición. Cada palabra está formada
por una serie de celdas a las que se accede en paralelo; en cada una se
almacena un bit y estos son los que definen las instrucciones.

1.2.3 Entrada/Salida

Como sabemos una computadora tiene dispositivos de entrada y salida


como son los que contiene el gabinete, disco duro, placa madre, unidades de
CD o DVD, etc. El problema principal que existe entre ellos es su tecnología y
que tienen características diferentes a los del CPU, estos también necesitan
una interfaz de cómo se van a entender con el CPU, al igual que el procesador
y el controlador periférico para intercambiar datos entre la computadora.

En la Figura 1.5 se muestra como cada control de periférico tiene una


dirección única en el sistema. La interfaz de E/S decodifica el bus de
direcciones para detectar que el CPU se dirige a él. El direccionamiento es
muy similar a la de las memorias. El bus de datos se utiliza para el paso de datos
entre el periférico y la memoria. Las líneas especiales de control sirven para
coordinar y sincronizar la transferencia.

FIGURA 1.5: ESQUEMA DE UNA INTERFAZ DE ENTRADA/SALIDA.

1.2.4 Sistema de Interconexión: Buses.

La conexión de los diversos componentes de una computadora, tales


como discos duros, tarjetas madres, unidades de CD, teclados, ratones, etc. se
efectúan a través de los buses. Un bus se define como un enlace de
comunicación compartido que usa múltiples cables para conectar
subsistemas. Cada línea es capaz de transmitir una tensión eléctrica que
representa un ‘1’ o un ‘0’. Cuando hay varios dispositivos en el mismo bus,
habrá uno que podrá enviar una señal que será procesada por los demás
módulos. Si se mandan los datos al mismo tiempo marcara un error o una
contención del bus, por lo que el acceso estará denegado. Según si criterio de
funcionabilidad los buses se dividen en:

• Buses de datos: es el que se utiliza para transmitir datos entre los


diferentes dispositivos del computador.

• Buses de Direcciones: sirve para indicar la posición del dato que se


requiere acceder.

• Bus de Control: sirven para seleccionar al emisor y al receptor en una


transacción del bus.
• Bus de alimentación: sirve para proporcionar a los dispositivos voltajes
distintos.

1.2.5 Periféricos.

Se entenderán todos aquellos dispositivos que son necesarios para


suministrar datos a la computadora o visualizar los resultados. Los periféricos se
conectan mediante un bus especial a su controlador o al modulo de E/S.

Entre los periféricos de entrada tenemos al teclado, ratones,


pantallas, digitalizadoras y más. Otros dispositivos periféricos fundamentales
para la interacción del hombre con la computadora son las terminales de
video y las tarjetas graficas.

1.3 Tecnología de los computadores.


Las tendencias tecnológicas van avanzando con el paso del tiempo,
así mismo en términos informáticos y de electrónica van saliendo circuitos
integrados digitales más veloces, lo cual también va ligado en términos
monetarios altos, las actualizaciones de un sistema de computo sale
relativamente costoso dependiendo de las características de la tecnología
que se le este implementando. Los circuitos integrados como sabemos hoy en
día estos se van haciendo aun más pequeños ya que existen muchos avances
en la tecnología en las ciencias de la miniaturización como son la micro y
nanotecnología que estos ocupan, ya que los dispositivos que antes eran
enormes y ocupaban el tamaño de una habitación ahora son tan pequeños
que pueden caber en la palma de nuestras manos. Lo que implica que los
sistemas avancen son los siguientes términos:

• Tecnología: los transistores utilizados por los dispositivos de un computador


son los llamados transistores de unión bipolar o BJT que estos a su vez generaron
familias tecnológicas como lo son los TTL. Esta tecnología ha tenido como
ventajas su facilidad para suministrar corriente y su rapidez, apareciendo como
desventaja su alto consumo de energía en comparación con los CMOS; esta
segunda tecnología se basa en la utilización de transistores de efecto de
campo, es elegida actualmente para fabricar la mayoría de los CPU’s. otra
tecnología como la BiCMOS combina en un solo proceso tecnológico de
transistores BJT y CMOS tratando de combinar las ventajas de ambos.

• Velocidad: hace referencia al tiempo de respuesta y los retrasos


inevitables que aparecen en su funcionamiento. Esto hace que los CI más
sencillos dependan de la tecnología utilizada. El problema de la velocidad
estribara en que la ejecución paralela requerirá más circuitería y el circuito
seria mayor.

• Escala de Integración: los CIs (Circuitos Integrados) CMOS se construyen a


partir de la litografía que se aplican mascaras que proyectan las siluetas de los
polígonos que forman a los transistores. Se trata la oblea químicamente y en
las diferentes fusiones se hacen los transistores; estos se dividen en segmentos
que pueden alcanzar a las micras de tamaño. Cuanto mejor y preciso sea el
proceso de la creación de las difusiones, los tamaños serán menores, y por
tanto en una misma superficie de silicio se podría incluir más lógica.

• Tamaño: depende de la fabricación del CI ya sea sencillo o que tan


complejo pueda ser este para las operaciones para la cual fue programado.

1.3.1 Circuitos de Memoria.

El almacenamiento de la información se hace a través de dispositivos


de memoria que almacenan la información de forma binaria para después
tener la posibilidad de recuperar dichos datos. Estos contribuyen una jerarquía
en la que están más cerca de la CPU los dispositivos más rápidos y en niveles
más alejados los dispositivos más lentos. Los parámetros más importantes para
medir los circuitos de memoria son:

• Tiempo de Acceso: es el tiempo necesario para poder recuperar


la información de los dispositivos de memoria.

• Densidad de información: depende de la tecnología utilizada ya


que ocupan un espacio distinto por cada bit de información.

• Volatilidad: se refiere a la pérdida de información si no se


mantiene en alimentación al circuito, esta información debe de
recuperarse de forma automática cuando se conecte de nuevo la
alimentación y comience el funcionamiento de la computadora.

a) RAM estática asíncrona.

Es una memoria volátil, de acceso rápido que puede almacenar y


leer información su característica es que la hace ideal para ser memoria
principal en los ordenadores, la celda de almacenamiento de la SRAM
contiene 4 transistores MOS que almacenan 1 y 0 mientras se mantenga la
alimentación del circuito.

b) RAM estática síncrona


Utiliza la misma tecnología que las SRAM, con lo que son volátiles y de
rápido acceso. La diferencia es que existe una señal de reloj que sincroniza el
proceso de lectura y escritura. Las memorias cache externas de algunos
microprocesadores son de este tipo para facilitar el acceso de datos en modo
ráfaga y acelerar el proceso de acceso a bloques de memoria.

c) RAM Dinámica.

La DRAM tiene capacidades que accede con un solo transistor, en


vez de celdas con varios transistores. El problema es que las capacidades se
descargan mediante la corriente de pérdidas de transistores y aparte son
lentas comparadas con la SRAM; tienen una estructura de forma de matriz,
estando multiplexadas las direcciones en forma de filas y columnas, tienen
modos de acceso más rápido en lo que suministra la parte alta de dirección;
este modo de acceso se denomina modo pagina y acelera el acceso al no
tener que suministrar para cada acceso la dirección de página completa.

d) Memorias ROM

Las memorias de solo lectura una vez que han sido escritas o
programadas solo se puede leer el contenido de las celdas, se suelen utilizar
para almacenar el código que permite arrancar a los sistemas; estas se
fabrican para aplicaciones masivas con mascaras de silicio. Hay 3 tips de
memorias ROM que pueden ser programadas en el laboratorio, algunas
pueden ser borradas.

• Memoria PROM: son memorias ROM programables eléctricamente


mediante un programador especial que genera picos de alta tensión, que
funden físicamente unos fusibles grabando en el dispositivo de forma
permanente. Tienen el inconveniente que no pueden ser borradas y para su
lectura requieren una tarjeta especial.

• Memoria EPROM: se programan también con un dispositivo de


programación conectado al ordenador la diferencia con la PROM es que
estas si se pueden borrar; se realiza mediante rayos UV, para que suceda esto
las EPROM tienen una ventana de cuarzo pequeña transparente en la cual se
hace la exposición de la matriz de celdas como se muestra en la figura 1.6.
Una vez programadas se tiene que etiquetar esta ventana para evitar que sea
borrada accidentalmente.
FIGURA 1.6 MEMORIA EPROM

• Memoria EEPROM: son memorias programables y borrables mediante un


dispositivo especial que se conectara al ordenador.

e) Memoria FLASH

Son memorias que tienen un comportamiento igual a una SRAM, pero


en su escritura es diferente, deben ser primero borradas y después escritas; este
tipo de memorias tienen internamente un registro de instrucción y una
maquina de estados que genera las señales necesarias para borrar/escribir en
un bloque o en toda la memoria.

La memoria se divide en varias capas o niveles con una estructura cuya


forma puede recordarnos a una estructura piramidal. La tabla 1.1 que se
muestra a continuación nos muestra el tamaño máximo y mínimo que pueden
presentarnos las memorias flash, así como el tiempo que tardan al accesar a
la información.

Nombre Tamaño Tiempo de Acceso


Máximo

Registros Hasta 200 Menos de 10


Bytes Nanosegundos

Memoria Hasta 512 Entre 10 y 30


Caché Bytes Nanosegundos

Memoria Más de 1 Entre 30 y 100


Principal Gigabyte Nanosegundos

Tabla 1.1. Capas en la que se divide la memoria.


1.4 La Mejor Configuración.
Lo primero que debemos de tomar en cuenta para la configuración
de nuestro equipo es para que va a ser destinado, es decir, que programas
serán utilizados en el. Por ejemplo un PC utilizado en una oficina ocupa Word,
Excel e Internet, no necesita tener un procesador poderoso, pero es
indispensable proporcionarlo de una buena memoria RAM y un disco duro
rápido en cuanto a lectura y escritura de datos. En cambio cuando una
computadora es destinada para aplicaciones pesadas o para juegos con
gráficos tridimensionales, lo principal es tener un procesador rápido
combinado con una buena y rápida tarjeta de gráficos.

1.4.1 La Placa Base

Es el componente principal, por lo tanto este se tiene que escoger


con el más sumo cuidado para que el ordenador tenga una calidad excelente
al igual que su rendimiento en la ejecución de tareas. Al comprar la placa base
debemos ver qué tipo de procesador soporta, si posee slots de expansión
suficientes para los periféricos que deseemos instalar. Una placa se
confecciona usando una técnica llamada MPCB( Multiple Layer Contact
Board), que consiste en varias placas apiladas como si fueran una; este tipo
de placas deben ser fabricadas de forma minuciosa, pues un mínimo error en
la posición de las pistas, haría que sufriese interferencias y convertirán a la
placa en inestable. La calidad de las placas no depende precisamente de la
marca pero si nos debemos cerciorar de la marca que estamos adquiriendo,
ya que, para encontrar controladores de los dispositivos de dicha placa será
más fácil entrando a la página del fabricante.

1.4.2 Memoria RAM

Si la computadora tiene poca memoria RAM, nuestro sistema deberá


utilizar nuestro disco duro para almacenar aquellos programas que no caben
en RAM esta es la llamada Memoria Virtual; la cual por sobrecarga puede
llegar a volver muy lento nuestro sistema. Por otro lado, al instalar mas memoria
RAM será un desperdicio pues no hará al sistema más rápido se notara que se
debe instalar más cuando el sistema se encuentre lento. Por ejemplo si se
trabaja con aplicaciones sencillas de oficina la mínima de RAM a ocupar seria
de 64MB, pero lo ideal sería 128MB; si se mantienen programas al mismo tiempo
con 256MB es suficiente ya que en si el uso de memoria RAM en la actualidad
también depende de nuestro Sistema Operativo ya que al pasar los años estos
van evolucionando de forma creciente ocupando aplicaciones más
complejas por lo cual se necesita más RAM. Cuanta más memoria RAM el PC
se mantendrá más rápido por más tiempo ya que con el paso del tiempo hay
aplicaciones más complejas y estas hacen que el sistema sea más sofisticado.
1.4.3 Procesador

Depende para que se va a utilizar la computadora por ejemplo si esta


será utilizada para juegos valdría la pena invertir en un procesador como un
Athlon o Pentium 4. Si es para aplicaciones pequeñas con que tenga suficiente
RAM es más que suficiente un procesador Duron.

1.4.4 Disco Duro

Es importante saber el tiempo de acceso, la velocidad de rotación y


la densidad del disco duro. El tiempo de acceso determina cuanto tiempo
tarda el cabezal de lectura en encontrar el dato que debe leerse. La
velocidad de rotación se mide en rpm, revoluciones por minuto. La densidad
o cantidad de datos que caben en cada disco duro, también determina su
rendimiento, pues los datos estarán más expuestos entre sí, serán localizados
más rápidamente.

1.4.5 Tarjeta Grafica

Existen tarjetas de 2D y 3D. También existen tarjetas aceleradoras de


3D que deben usarse con una tarjeta de 2D común. También existen las tarjetas
graficas “combo”, que realizan funciones de 2D y 3D. Al día de hoy, incluso las
tarjetas graficas on board (se refiere a dispositivos que vienen integrados en la
placa madre) vienen con recursos 3D, aunque su rendimiento no se compara
en lo absoluto con el de una tarjeta grafica de calidad.

1.4.6 Tarjeta de Sonido

No tiene ninguna influencia con el rendimiento del equipo, solamente


determina la calidad de audio. Para uso normal, se utilizan las Sound Blaster
generalmente con chipsets Yamaha. Las tarjetas de sonido más caras marcan
la diferencia si pretendemos trabajar en la edición musical, o queremos oír
música MIDI en máxima calidad. También existen las tarjetas de sonido 3D,
como la Sound Blaster Live, que generan sonidos que parecen venir de todas
direcciones. Este efecto es muy utilizado en teatros en casa, para escuchar el
sonido de forma más real.

1.5 Ampliaciones y Actualizaciones.


Realizar una ampliación significa cambiar algunos componentes de
un equipo ya viejo a fin de mejorar su rendimiento. Sin embargo, muchas
veces, el equipo es tan viejo que sería necesario cambiar casi todos los
componentes para conseguir un rendimiento aceptable; en este caso sería
mejor comprar un equipo nuevo con las actualizaciones más recientes para
un rendimiento óptimo. El secreto de realizar una buena actualización es
detectar los “puntos débiles” de la configuración, los componentes para
conseguir alcanzar un rendimiento aceptable con el conjunto de los demás.
Aparte hay que saber escoger los componentes en relación a la calidad.
Cabe mencionar que no es necesario comprar un equipo anticuado para
hacer una actualización que bien valga la pena porque si el equipo está muy
anticuado lo mejor es comprar uno nuevo con las actualizaciones que
satisfagan las necesidades que requiere en ese momento el usuario y así poder
tener un equipo de vanguardia y bien actualizado.
Unidad 2.La Placa Base y Componentes

La Placa Base y
Componentes

2. La Placa Base y Componentes


Es una placa de circuito impreso sobre la que hay montada
una seria de componentes electrónicos. También llamada tarjeta
madre es el componente que se utiliza para conectar los demás
componentes esenciales de una computadora. Aparte de los
componentes pasivos, existe una serie de elementos importantes:

• Un zócalo para la instalación del microprocesador. En algunos


casos, existe otro zócalo para instalar el coprocesador si el
microprocesador no lo lleva integrado.

• Slots de expansión, una ‘especie’ de conectores sobre los


cuales se conectan las tarjetas.

• Un controlador de teclado, que traduce las teclas pulsadas a


códigos adecuados para que el microprocesador pueda
interpretarlos.
• Una serie de conectores llamados bancos, sobre los que se
monta la memoria RAM.

• Un grupo de zócalos sobre los que se instala una memoria


caché, que agiliza la transferencia de datos del microprocesador a
la memoria principal (RAM) y viceversa. Aunque en algunas placas
esta memoria viene integrada.

• Un conector para teclado y para mouse.

• Un pequeño chip de memoria ROM denominado BIOS, en la


que se encuentran grabadas las instrucciones de arranque del
sistema y un programa de configuración del equipo denominado
SETUP.

• Un conjunto de Jumpers y/o micro interruptores que se abren o


cortocircuitan para configurar la placa, e indica que componentes
se instalan en ella.

En la figura 2.1, de la página siguiente se muestra la


distribución de estos componentes en la placa base.

FIGURA 2.1 DISTRIBUCIÓN DE LOS COMPONENTES EN UNA PLACA BASE


Existe una gran variedad y tipos de placas base. Hasta la
aparición del microprocesador Pentium o Intel, no existía ninguna
norma en concreto para la clasificación de estas placas. Dichas
placas estaban formadas por un gran número de chips para
controlarlas. A partir de la aparición de este microprocesador, se
desarrolla una serie de placas base que necesitan un pequeño
número de chips para controlarlas. Estas placas se clasifican según
el chipset (el conjunto de chips que la conforman).

2.1 Formatos de las Placas Base


La placa base del PC ha sufrido numerosas variaciones
desde su aparición. Cada nuevo formato ha ido buscando siempre
mejoras en cuanto a la facilidad de montaje, ventilación,
proximidad de elementos afines, seguridad y protecciones
eléctricas. Por orden cronológico, la evolución de estos formatos
viene marcada por los modelos AT, Baby-AT, ATX y micro-ATX. A
continuación se van a describir los tres últimos formatos, que son los
más utilizados actualmente:

2.1.1 El estándar de placa (B)AT.


Las placas base en su tamaño original, tal como se
introdujeron con el ordenador denominado AT (procesador 286),
han dejado de ser habituales hace tiempo. En su lugar, dominan
ahora las placas Mini Baby y Baby AT, también conocidas como
placas BAT o BAT Boards. Por este motivo, a menudo se encuentra
el nombre estándar BAT en vez de estándar AT.

Baby-AT fue el estándar absoluto durante años. Se basa en


el formato original de IBM PC-AT, pero de dimensiones más
reducidas (una placa de 215 x 326 mm), con unas posiciones
determinadas para el conector de teclado, los slots de expansión y
los agujeros de anclaje en la caja. Estas placas son típicas de los
ordenadores ‘clónicos’, desde el 80286 hasta los
primeros Pentium. Con el auge de los periféricos, salieron a luz sus
principales carencias: mala verificación en cajas y, sobre todo,
muchos cables que impide acceder a la placa sin desconectar al
menos uno. Desde la aparición de las placas BAT para el
procesador Pentium, es habitual que se encuentren ya en la placa
las controladoras (IDE, Unidad de disquete) y los puertos (impresora,
RS232) rutinarios.
Los datos más importantes para el tamaño de las placas
base de los PCs se han indicado en la tabla 2.1. En dicha tabla se
encuentra, la medida correspondiente a las anchuras de la placa
base hace referencia al lado donde se encuentra la conexión del
teclado, la cual también determina claramente la posición de la
placa base en la carcasa del PC.

Tipo de Medidas en mm Aplicaciones habituales


Placa Base
Ancho x Largo (tipos de PC)
Placa AT 305 x 335 PCs 8088 – 486 antiguos,
PCs EISA
Placa Baby 220 x 330 PCs ISA, EISA, PCI
≥Baby 220 x 275 PCs ISA, PCI, VLB
Mini Baby 220 x 220 PCs ISA, VLB

Tabla 2.1. Tamaño y Aplicaciones de las Placas Base (B)AT.

Para identificar una placa Baby-AT, lo mejor es observar el


conector del teclado, que es una clavija DIN de 5 pines, o bien
mirar el conector de alimentación que deberá estar dividido en dos
piezas, cada una con 6 cables como se muestra en la figura 2.2.

FIGURA 2.2 CONECTOR DE CORRIENTE DE UNA PLACA AT

A continuación mostramos la figura 2.3 la cual nos muestra


como se aprecia una placa base de tipo (B)AT.
FIGURA 2.2 PLACA BABY AT

2.1.2 El estándar de placa ATX.


Es el más moderno, el que mayores ventajas ofrece, y
físicamente incompatible con los formatos previos. Desde el año de
1995, existen los estándares ATX y LPX y, desde 1996, el estándar LNX.
Estas tres versiones definen nuevos factores de forma para las
placas base y las fuentes de alimentación que no son compatibles
entre sí ni con el estándar BAT. No obstante las fuentes del ATX y el
NLX son intercambiables ya que tienen el mismo conector para
corriente.

El ATX mejora la ventilación y reduce los cables de mas que


tenían las Baby-AT, debido a la nueva situación de los
componentes. Por ello. El microprocesador y la memoria están
reubicados de modo que queden más accesibles y no interfieran
con las tarjetas de expansión por muy largas que sean. Además, los
conectores de las unidades de discos se encuentran cerca de los
bordes de la placa, para que no se hagan tan estorbosos los cables
que había en las placas anteriores. Con ATX dio un cambio radical
con la placa Baby-AT, de modo que, ahora, las conexiones para
impresora (IEEE1284), los dos puertos RS232 y el ratón (PS/2), se
encuentran directamente en la placa base, lo cual evita tener que
utilizar cables que comuniquen las conexiones de la placa con las
ranuras correspondientes. Otras conexiones habituales aquí, son las
de Universal Serial Bus (USB), Firewire (IEEE1394) o de audio. Dichas
conexiones se muestran en la figura 2.3.

FIGURA 2.3 CONEXIONES DE UNA PLACA ATX

Las fuentes de alimentación también se han mejorado, tanto


en el aspecto eléctrico como en el mecánico, y la corriente de aire
de ventilador de la fuente de alimentación pasó ahora a través de
la electrónica de la placa base, hecho que produce un efecto
positivo sobre el estado de la temperatura. La placa contiene un
sistema de enfriamiento y disipadores de calor los cuales son útiles
para que no esté expuesta a altas temperaturas; no obstante el
procesador se suele acompañar por un ventilador adicional; para
mejorar el desempeño de la computadora. Cada placa ATX
requiere su carcasa tipo ATX ya que no se puede adecuar a una
BAT.

Para identificar una placa ATX, lo mejor es observar sus


conectores, ya que están agrupados el de teclado, ratón, series,
paralelo y USB, mostrando una apariencia como la de la figura 2.3.
Además, el conector del teclado y ratón son clavijas mini-DIN
(PS/2), y la placa recibe la alimentación mediante un conector
formado por una única pieza como se muestra en la figura 2.4.

FIGURA 2.4 CONECTOR DE CORRIENTE DE UNA PLACA ATX


En la figura 2.5 se muestra una placa tipo ATX, la cual da la
descripción anterior de dicha placa.

FIGURA 2.5 PLACA ESTÁNDAR ATX

2.1.3 Micro-ATX
Es una versión reducida del formato ATX que se puede
acoplar a su misma carcasa. Mientras que en el formato ATX la
placa tiene unas dimensiones de 305 x 244 mm, el micro-ATX tiene
208 x 204 mm. Tal placa micro-ATX se muestra en la figura 2.6
FIGURA 2.6 PLACA MICRO-ATX

2.2. Los componentes de la placa base.


Como se menciono en la introducción de este capítulo la
placa base contiene distintas partes que lo conforman los cuales se
muestran más adelante del documento, cabe mencionar que sin
estos componentes conectados entre si nuestro equipo de
computo no operaria de forma correcta inclusive no prendería
nuestra computadora.

• zócalo del microprocesador


• ranuras de memoria (SIMM, DIMM...)
• chipset de control
• BIOS
• ranuras de expansión (ISA, PCI, AGP...)
• memoria caché
• conectores internos
• conectores externos
• conector eléctrico
• pila
• elementos integrados variados

2.2.1. Zócalo del microprocesador


Es el lugar donde se inserta el "cerebro" del ordenador. Durante
más de 10 años consistió en un rectángulo o cuadrado donde el "micro",
una pastilla de plástico negro con patitas, se introducía con mayor o
menor facilidad; la aparición de los Pentium II cambió un poco este
panorama, introduciendo los conectores en forma de ranura (slot).

Veamos en detalle los tipos más comunes de zócalo, o socket como


se dice regularmente a estos zócalos donde se introduce el
microprocesador:

• PGA: pin grid array, son el modelo clásico, usado en el 386 y muchos
486; consiste en un cuadrado de conectores en forma de agujero
donde se insertan las patitas del chip por pura presión. Según el
chip, tiene más o menos agujeritos.
• ZIF: Zero Insertion Force (socket), es decir, zócalo de fuerza de
inserción nula. El gran avance que relajó la vida de los aficionados
a la ampliación de ordenadores. Eléctricamente es como un PGA,
aunque gracias a un sistema mecánico permite introducir el micro
sin necesidad de fuerza alguna, con lo que el peligro de romper
alguno de los pines del microprocesador desaparece. Apareció en
la época del 486 y sus distintas versiones (sockets 3, 5 y 7,
principalmente) se han utilizado hasta que apareció el Pentium II.
Actualmente se fabrican los siguientes tipos de zócalos ZIF:

• Socket 7 "Súper 7": variante del Socket 7 que se caracteriza


por poder usar velocidades de bus de hasta 100 MHz, es el
que utilizan los micros AMD K6-2.
• Socket 370 o PGA370: físicamente similar al anterior, pero
incompatible con él por utilizar un bus distinto. Dos
versiones: PPGA (la más antigua, sólo para micros Intel
Celeron Mendocino) y FC-PGA (para Celeron y los más
recientes Pentium III).
• Socket A (462): utilizado únicamente por los más recientes
AMD K7 Athlon y por los AMD Duron.
• Socket 423: utilizado únicamente por los Pentium 4.

FIGURA 2.7 ZÓCALO ZIF DE MICROPROCESADOR

• Slot 1: Fue un invento de Intel para enchufar los Pentium II, o más
bien para desenchufar a su competencia, AMD y Cyrix.
Físicamente, no se parece a nada de lo anterior; en vez de un
rectángulo con agujeritos para las patitas del chip, es una ranura
(slot), una especie de conector alargado como los ISA o PCI.
Técnicamente, y por mucho que diga Intel, no tiene muchas
ventajas frente a los ZIF (e incluso puede que al estar los conectores
en forma de "peine" den lugar a más interferencias), aunque tiene
una irreprochable: es 100% Intel.
• Slot A: la respuesta de AMD al Slot 1; físicamente ambos "slots" son
idénticos, pero lógica y eléctricamente son totalmente
incompatibles por los motivos indicados antes. Utilizado
únicamente por los primeros AMD K7 Athlon.
• Otros: en ocasiones, no existe zócalo en absoluto, sino que el chip
está soldado a la placa, en cuyo caso a veces resulta hasta difícil
de reconocer. Es el caso de muchos 8086, 286 y 386SX. O bien se
trata de chips antiguos (esos 8086 o 286), que tienen forma
rectangular alargada (parecida a la del chip de BIOS) y patitas
planas en vez de redondas; en este caso, el zócalo es asimismo
rectangular, del modelo que se usa para multitud de chips
electrónicos de todo tipo.

2.2.2. Ranuras de memoria


Son los conectores de la memoria principal del ordenador, la RAM.
Dichos conectores son como los que se muestran en la figura 2.8.

FIGURA 2.8 RANURAS PARA MEMORIA RAM

Antiguamente, los chips de RAM se colocaban uno a uno sobre la


placa, de la forma en que aún se hace en las tarjetas de vídeo, lo cual
no era una buena idea debido al número de chips que podía llegar a ser
necesario y a la delicadeza de los mismos; por ello, se agruparon varios
chips de memoria soldados a una plaquita, dando lugar a lo que se
conoce como módulo.

Estos módulos han ido variando en tamaño, capacidad y forma de


conectarse; al comienzo los había que se conectaban a la placa
mediante unas patitas muy delicadas, lo cual se desechó del todo hacia
la época del 386 por los llamados módulos SIMM, que tienen los
conectores sobre el borde del módulo.

Los SIMMs originales tenían 30 conectores, esto es, 30 contactos, y


medían unos 8,5 cm. Hacia finales de la época del 486 aparecieron los
de 72 contactos, más largos: unos 10,5 cm. Este proceso ha seguido hasta
desembocar en los actuales módulos DIMM, de 168 contactos y 13 cm.

2.2.3. Chipset de control


El "chipset" es el conjunto (set) de chips que se encargan de
controlar determinadas funciones del ordenador, como la forma en que
interacciona el microprocesador con la memoria o la caché, o el control
de puertos PCI, AGP, USB.... la figura 2.9 muestra un ejemplo de chipset.
FIGURA 2.9. CHIPSET INTEL DE UNA PLACA BASE

Antiguamente estas funciones eran relativamente sencillas de


realizar, por lo que el chipset era el último elemento al que se concedía
importancia a la hora de comprar una placa base, si es que alguien se
molestaba siquiera en informarse sobre la naturaleza del mismo. Sin
embargo, la llegada de micros más complejos como los Pentium o los K6,
además de nuevas tecnologías en memorias y caché, le ha hecho cobrar
protagonismo, en ocasiones incluso exagerado.

Debido a lo anterior, se puede decir que el chipset de un 486 o inferior


no es de mayor importancia (dentro de un límite razonable), por lo que
vamos a tratar sólo de los chipsets para Pentium y superior:

• chipsets de Intel para Pentium ("Tritones"): son muy conocidos, pero


a decir verdad más por el marketing que ha recibido su nombre
comercial genérico (Tritón) que por sus capacidades, aunque
éstas son destacables.
• 430 FX: el Tritón clásico. Un chipset bastante apropiado para
los Pentium "normales" (no MMX) con memorias tipo EDO.
Hoy en día desfasado y descatalogado.
• 430 HX: el Tritón II, la opción profesional del anterior. Mucho
más rápido y con soporte para placas duales (con 2
Pentium). Algo anticuado pero muy bueno.
• 430 VX: ¿el Tritón III? Más bien el 2.5; algo más lento que el
HX, pero con soporte para memoria SDRAM. Se puede decir
que es la revisión del FX, o bien que se sacó para que la
gente no se asustara del precio del HX...
• 430 TX: el último Tritón. Soporte MMX, SDRAM, UltraDMA... Sin
embargo, carece de AGP y de bus a 100 MHz, por lo que ha
quedado algo desfasado. Un problema: si se le pone más
de 64 MB de RAM, la caché deja de actuar; aunque más de
64 MB es mucha RAM.
• chipsets de VIA para Pentium ("Apollos"): unos chipsets bastante
buenos, se caracterizan por tener soporte para casi todo lo
imaginable (memorias SDRAM o BEDO, UltraDMA, USB...); su pelea
está en la gama del HX o TX, aunque suelen ser algo más lentos
que éstos con micros Intel. Lo bueno de las placas con chipsets VIA
es que su calidad suele ser intermedia-alta, mientras que en placas
con chipsets Intel hay un abanico muy amplio entre placas muy
buenas y otras francamente malas. Además, y al contrario que
Intel, siguen con el campo de placas socket 7 (las de tipo Pentium
y Pentium MMX), por lo que ofrecen soluciones mucho más
avanzadas que el TX (con AGP y bus a 100 MHz, por ejemplo).
• chipsets de SiS, ALI, VLSI y ETEQ para Pentium: como los anteriores,
sus capacidades son avanzadas, aunque su velocidad sea en
ocasiones algo más reducida si los usamos con micros Intel. Su
principal propiedad, al igual que en los chipsets VIA, está en el
soporte de características avanzadas de chips no Intel
"compatibles Pentium" (y a veces mejores), como son el AMD K6, el
K6-2 o el Cyrix-IBM 6x86MX (M2); si su opción está en uno de estos
micros o quiere usar tarjetas AGP, su placa ideal es muy probable
que no se llame "Intel inside".
• chipsets de Intel para Pentium II: teniendo en cuenta otros chipsets
futuros para procesadores con mayor capacidad, aun no tenían
competencia a su año de lanzamiento.
• 440 FX: un chipset fabricado para el extinto Pentium
Pro, liquidado en favor del Pentium II (que es un Pro
revisado, algo más barato y con el mágico "MMX").
Para un Pentium Pro, bueno; para un Pentium II y los avances
actuales (memorias, AGP...), muy malo.
• 440 LX: el primer y muy eficiente chipset para Pentium II. Lo
tiene casi todo, excepto bus a 100 MHz, lo que hace que no
admita micros a más de 333 MHz.
• 440 BX: la última novedad de Intel. Con bus de 100 MHz, es
el tope de la gama.
• 440 EX: un chipset basado en el LX pero de características
recortadas. Muy malo, sólo válido para Celeron.
• 440 ZX: un chipset basado en el BX pero de características
recortadas, como el EX. Sólo válido para Celeron.
• otras marcas para Pentium II: VIA Apollo Pro y ALI Aladdin Pro.
Chipsets muy completos, con soporte incluso para bus a 100 MHz,
pero que tienen su mayor problema en convencer a los fabricantes
y al público de no usar los chipsets de Intel, que han estado en
solitario durante todo un año.

2.2.4. La BIOS
La BIOS realmente no es sino un programa que se encarga de dar
soporte para manejar ciertos dispositivos denominados de entrada-
salida (Input-Output). Físicamente se localiza en un chip que suele tener
forma rectangular, como el de la figura 2.10.
FIGURA 2.10 BIOS PHOENIX

Además, la BIOS conserva ciertos parámetros como el tipo de disco


duro, la fecha y hora del sistema, etc., los cuales guarda en una memoria
del tipo CMOS, de muy bajo consumo y que es mantenida con
una pila cuando el ordenador está desconectado.

Las BIOS pueden actualizarse bien mediante la extracción y


sustitución del chip (método muy delicado) o bien mediante software,
aunque sólo en el caso de las llamadas Flash-BIOS.

2.2.5. Slots para tarjetas de expansión


Son unas ranuras de plástico con conectores eléctricos (slots) donde
se introducen las tarjetas de expansión (tarjeta de vídeo, de sonido, de
red...). Según la tecnología en que se basen presentan un aspecto
externo diferente, con diferente tamaño y a veces incluso en distinto
color.

• Ranuras ISA: son las más veteranas, un legado de los primeros


tiempos del PC. Funcionan a unos 8 MHz y ofrecen un máximo de
16 MB/s, suficiente para conectar un módem o una tarjeta de
sonido, pero muy poco para una tarjeta de vídeo. Miden unos 14
cm y su color suele ser negro; existe una versión aún más antigua
que mide sólo 8,5 cm.
• Ranuras Vesa Local Bus: un modelo de efímera vida: se empezó a
usar en los 486 y se dejó de usar en los primeros tiempos del
Pentium. Son un desarrollo a partir de ISA, que puede ofrecer unos
160 MB/s a un máximo de 40 MHz. Son larguísimas, unos 22 cm, y su
color suele ser negro, a veces con el final del conector en marrón
u otro color.
• Ranuras PCI: el estándar actual. Pueden dar hasta 132 MB/s a 33
MHz, lo que es suficiente para casi todo, excepto quizá para
algunas tarjetas de vídeo 3D. Miden unos 8,5 cm y generalmente
son blancas.
• Ranuras AGP: se dedica exclusivamente a conectar tarjetas de
vídeo 3D, por lo que sólo suele haber una; además, su propia
estructura impide que se utilice para todos los propósitos, por lo
que se utiliza como una ayuda para el PCI. Según el modo de
funcionamiento puede ofrecer 264 MB/s o incluso 528 MB/s. Mide
unos 8 cm y se encuentra bastante separada del borde de la
placa.

Las placas actuales tienden a tener los más conectores PCI posibles,
manteniendo uno o dos conectores ISA por motivos de compatibilidad
con tarjetas antiguas y usando AGP para el vídeo.

2.2.6. Memoria caché


Se trata de un tipo de memoria muy rápida que se utiliza de puente
entre el microprocesador y la memoria principal o RAM, de tal forma que
los datos más utilizados puedan encontrarse antes, acelerando el
rendimiento del ordenador, especialmente en aplicaciones ofimáticas.

Se empezó a implantar en la época del 386, no siendo de uso


general hasta la llegada de los 486. Su tamaño ha sido siempre
relativamente reducido (como máximo 1 MB), tanto por cuestiones de
diseño como por su alto precio, consecuencia directa de su gran
velocidad. Este precio elevado hizo que incluso se llegara a vender un
número considerable de placas base con cachés falsas, algo que
afortunadamente en la actualidad es bastante inusual. La figura 2.11
muestra una memoria cache.

FIGURA 2.11. MEMORIA CACHE.

También se la conoce como caché externa, secundaria o de


segundo nivel (L2), para diferenciarla de la caché interna o de primer
nivel que llevan todos los microprocesadores desde el 486 (excepto el
486SX y los primeros Celeron). Su presentación varía mucho: puede venir
en varios chips o en un único chip, soldada a la placa base o en un zócalo
especial (por ejemplo del tipo CELP) e incluso puede no estar en la placa
base sino pertenecer al microprocesador, como en los Pentium II y los
modernos Celeron Mendocino.
2.2.7. Conectores externos
Se trata de los conectores para periféricos externos: teclado, ratón,
impresora... En las placas Baby-AT lo único que está en contacto con la
placa son unos cables que la unen con los conectores en sí, que se sitúan
en la carcasa, excepto el de teclado que sí está adherido a la propia
placa. En las ATX los conectores están todos agrupados entorno al de
teclado y soldados a la placa base.

Los principales conectores son los que se muestran en la tabla 2.2:

Teclado Clavija DIN ancha, propio de


las placas Baby-AT, o mini-DIN
en placas ATX y muchos
diseños propietarios.

Puerto En los pocos casos en los que


paralelo existe más de uno, el
(LPT1) segundo sería LPT2. Es un
conector hembra de unos 38
mm, con 25 pines agrupados
en 2 hileras.

Puertos serie Suelen ser dos, uno estrecho


(COM o RS232) de unos 17 mm, con 9 pines
(habitualmente "COM1"), y
otro ancho de unos 38 mm,
con 25 pines (generalmente
"COM2"), como el paralelo
pero macho, con los pines
hacia fuera. Internamente
son iguales, sólo cambia el
conector exterior; en las
placas ATX suelen ser ambos
de 9 pines.

Puerto para En realidad, un conector


ratón PS/2 mini-DIN como el de teclado;
el nombre proviene de su uso
en los ordenadores PS/2 de
IBM.
Puerto de O puerto para joystick o
juegos teclado midi. De tamaño
algo mayor que el puerto
serie estrecho, de unos 25
mm, con 15 pines agrupados
en 2 hileras.

Puerto VGA Incluyendo las modernas


SVGA, XGA... pero no las
CGA o EGA. Aunque lo
normal es que no esté
integrada en la placa base
sino en una tarjeta de
expansión, de unos 17 mm,
con 15 pines agrupados en 3
hileras.

USB En las placas más modernas


(ni siquiera en todas las ATX);
de forma estrecha y
rectangular.

Tabla 2.2. Principales conectores externos.

Actualmente los teclados y ratones tienden hacia el mini-DIN o


PS/2, y se supone que en unos años casi todo se conectará al USB, en una
cadena de periféricos conectados al mismo cable.

2.2.8. Conectores internos


Bajo esta denominación englobamos a los conectores para
dispositivos internos, como puedan ser la disquetera, el disco duro,
el CD-ROM o el altavoz interno, e incluso para los puertos serie,
paralelo y de joystick si la placa no es de formato ATX.
FIGURA 2.12 CONECTORES IDE PARA DISCO DURO, CD-ROM Y
DISQUETERA

En las placas base antiguas el soporte para estos elementos se


realizaba mediante una tarjeta auxiliar, llamada de Input/Output o
simplemente de I/O, como la de la figura 2.12 en la parte superior; pero
ya desde la época de los 486 se hizo común integrar los chips
controladores de estos dispositivos en la placa base, o al menos los
correspondientes a discos duros y disquetera.

FIGURA 2.13 PLACA BASE INTERNA CON CONECTORES PARA DISCOS


DUROS, DISQUETERA, ETC.

Siguiendo la figura 2.13 de izquierda a derecha, el primer conector


es el correspondiente a la disquetera; tiene 34 pines, y equivale al de
menor tamaño de la foto del comienzo de este apartado; el siguiente es
el de disco duro, que en las placas actuales es doble (uno para cada
canal IDE); tiene 40 pines (a veces sólo 39, ya que el pin 20 carece de
utilidad) y equivale a uno cualquiera de los otros dos que aparecen en la
figura 2.12.

Por último, el altavoz interno, los leds (las bombillitas) para el disco
duro, el indicador de encendido, el turbo (si existe, en las placas
modernas está totalmente en desuso) y los interruptores de reset o stand-
by se conectan todos ellos con cables de colores a una serie
de jumpers que se conectan en pines como los que se muestran en la
figura 2.14, cuya posición y características de voltaje vendrán indicadas
en el manual de la placa y/o en el serigrafiado de la misma.
FIGURA 2.14. PINES PARA CONEXIÓN DE JUMPERS.

2.2.9. Conector eléctrico


Es donde se conectan los cables para que la placa base
reciba la alimentación proporcionada por la fuente. En las placas
Baby-AT los conectores son dos, si bien están uno junto al otro,
mientras que en las ATX es único.

FIGURA 2.15 CONECTORES ELÉCTRICOS.

Cuando se trata de conectores Baby-AT, deben disponerse de


forma que los cuatro cables negros (2 de cada conector), que son las
tierras, queden en el centro. El conector ATX suele tener formas
rectangulares y trapezoidales alternadas en algunos de los pines de tal
forma que sea imposible equivocar su orientación.

2.2.10. Pila
La pila del ordenador, o más correctamente el acumulador,
se encarga de conservar los parámetros de la BIOS cuando el
ordenador está apagado. Sin ella, cada vez que encendiéramos
tendríamos que introducir las características del disco duro, del
chipset, la fecha y la hora. Dicha pila es como la que se muestra en
la figura 2.16.
FIGURA 2.1.6 PILA DEL ORDENADOR.

Se trata de un acumulador, pues se recarga cuando el ordenador


está encendido. Sin embargo, con el paso de los años pierde poco a
poco esta capacidad (como todas las baterías recargables) y llega un
momento en que hay que cambiarla. Esto, que ocurre entre 2 y 6 años
después de la compra del ordenador, puede preverse observando si la
hora del ordenador "se retrasa" más de lo normal.

2.2.11. Elementos integrados variados


En las placas base modernas resulta muy común que ciertos
componentes se incluyan en la propia placa base, en vez de ir en forma
de tarjetas de expansión. Los más comunes son:

• Controladoras de dispositivos: en general todas las placas Pentium,


y algunas 486, disponen de unos chips en la placa base que se
encargan de manejar los discos duros, disqueteras y puertos serie
(puertos COM); algunas de gama alta incluso tienen controladoras
SCSI integradas.
• Tarjeta de sonido: ahora que una tarjeta de 16 bits suele consistir
en un único chip y los conectores, cada vez más placas base la
incorporan.
• Controladora de vídeo: lo que suele llamarse "tarjeta de vídeo",
pero sin la tarjeta. Las que incorporan las placas base no suelen ser
de una potencia excepcional, pero sí suficiente para trabajos de
oficina, como por ejemplo una Intel 740.

Sobre la conveniencia o no de que las placas base tengan un alto


grado de integración de componentes hay opiniones para todos los
gustos. Indudablemente, salen más baratas y es más cómodo, ya que el
interior de la caja está limpia de cables y tarjetas; sin embargo, no siempre
son componentes de alta gama (sobre todo en tarjetas de sonido y
vídeo), además de que cualquier falla importante en la placa nos deja
sin casi nada que poder aprovechar del ordenador.
Unidad 3. RAM CMOS

RAM CMOS

3. RAM CMOS
Es un tipo de memoria en que se guardan los datos que se
pueden configurar del BIOS y contiene información básica sobre
algunos recursos del sistema que son susceptibles de ser
modificados como el disco duro, el tipo de disco flexible, etc. Esta
información es almacenada en una RAM, de 64 bytes de
capacidad, con tecnología CMOS, que le proporciona el bajo
consumo necesario para ser alimentada por una pila que se
encuentra en la placa base y que debe durar años, al ser necesario
que este alimentada constantemente, incluso cuando el
ordenador se encuentra apagado. Para ello antiguamente se
usaba una batería recargable que se cargaba cuando el
ordenador se encendía. Mas modernamente se ha sustituido por
una pila desechable de litio (generalmente modelo CR-2032) y que
dura de 2 a 5 años.

Como ejemplo tenemos la memoria RAM CMOS en un


conjunto de 64 bytes residentes en el chip MC146818A
de Motorola, o equivalente. Estos bytes no se encuentran en el
mapa de direcciones físicas del microprocesador. Sin embargo, se
puede acceder a ellos por medio de los puertos de E/S 70H y 71H.

Esta memoria se utiliza para almacenar los datos que indican


las características más importantes de la configuración del
ordenado, tales como:

• Fecha y hora del sistema.

• Tipo y características del disco duro.

• Tipo y características de las unidades de disco flexible.

• Secuencia de unidades de disco para el arranque.

• Habitación o desactivación de la Shadow RAM.

• Palabra de acceso (Password).

Esta tipo de memoria aparece en los AT y está alimentada


por una batería de larga duración para que la información
almacenada no se pierda al desconectarse el equipo. El hecho de
que los ordenadores XT no tuvieran este tipo de memoria
provocaba que cada vez que se encendía el ordenador era
necesario introducir la hora y la fecha. Para la configuración de
todas las características anteriormente mencionadas,
el BIOS dispone de un programa denominado SETUP.

A partir de los modelos AT la placa base integra de serie


un chip de reloj (RTC, Real Time Clock). Este chip contiene la RAM
CMOS, encargada de guardar la configuración actual del BIOS.
Para conservar los datos cuando el ordenador esta apagado se
utiliza un acumulador o una batería.

3.1 El SETUP del BIOS


La BIOS contiene un programa de configuración al que hay
que acceder cuando se termina el montaje, o cuando se haya
modificado su configuración (instalación de una nueva tarjeta,
cambio de disco duro o conexión de una segunda unidad, etc.)
antes de poder utilizar el ordenador.

En este programa de configuración llamado SETUP, debe


definirse una seria de parámetros que permite al sistema conocer
lo que se tiene instalado. Se encuentra implementado en la placa
base sobre una memoria RAM con pila, para poder cambiar su
contenido y que este no se pierda al desconectar la alimentación.
Aunque en las ultimas placas está siendo sustituida por memorias
del tipo FLASH.

Aunque el SETUP contiene toda la configuración del sistema,


cuando se utilice dicho sistema no debe temer al equivocarse ya
que cualquier error cometido se puede corregir activando la
configuración por defecto, o simplemente no guardando los
cambios que realizo al salir de la aplicación. Casi todas las BIOS
tienen las mismas opciones dependiendo de los fabricantes.

3.1.1 El principio de funcionamiento


Generalmente la RAM CMOS dispone de mas de 50 Bytes
para guardar la configuración del BIOS y de 14 Bytes para las
funciones internas del reloj, es decir, tiene una capacidad total de
64Bytes como mínimo. Las direcciones de E/S 70h y 71h utilizan
como elementos de comunicación con el chip. La primera
dirección constituye el denominado puerto índice. En este espacio
de memoria se escribe la dirección de la RAM CMOS a seleccionar.
Mientras que la dirección 71h representa el puerto de datos
correspondiente, es decir, el valor que se va a leer o a escribir.

A lo largo de los años la RAM CMOS ha visto ampliada su


funcionabilidad y con ella también su capacidad, aunque puede
variar de un sistema a otro (PCs EISA, PS/2, PCI) y también puede
diferir entre distintos fabricantes.

3.1.2 Modo de Operar


En los primeros Pcs, no existía el Setup BIOS de la RAM CMOS,
y la configuración del sistema se realizaba por medio de jumpers.
Lo que implicaba abrir el equipo y el peligro de no manipular
correctamente la placa base. Sin embargo, la configuración en
el Setup consiste en la introducción de ciertos parámetros que
la BIOS no puede determinar por si misma automáticamente, sin
riesgos físicos para la maquina. Durante el proceso de arranque que
ejecuta la BIOS, se suele dar una opción pulsando una serie de
teclas, “CTRL + ALT + ESC”, “SUPR” o las indicadas por el fabricante
para acceder al Setup, en los sistemas actuales por lo regular para
entrar al BIOS basta con pulsar la tecla F10 o F2 dependiendo del
fabricante como se menciona con anterioridad. Una vez dentro
del Setup,se muestra un menú principal que puede ser mas o menos
amigable dependiendo del fabricante. Para movernos por las
opciones del menú utilizamos las teclas de cursor (flechas) o ratón
según el modelo, y para acceder a las opciones pulsamos Enter o
hacemos ‘clic’ con el botón izquierdo del ratón.

3.2 Tipos y Tratamiento de Errores


Para conservar los datos de la RAM CMOS es importante
que la memoria se refresque sin problemas mientras el ordenador
está apagado, es decir el abastecimiento de corriente, que corre
a cargo de un acumulador o de una batería como se muestra en
la figura 3.1.

FIGURA 3.1 MEMORIA RAM Y PILA DE RELOJ

La tensión de la batería es alrededor de 3V hasta 3.6V para


que no se pierda el contenido de la RAM CMOS, lo que podría
suceder si no se enciende el ordenador durante un periodo de
tiempo largo si el acumulador es algo viejo. En ese caso las
configuraciones realizadas en el SETUP del BIOS se reducen a sus
valores predeterminados y el reloj no funciona correctamente. Si el
ordenador ha perdido la memoria y es necesario ejecutar de nuevo
el SETUP del BIOS significa que el acumulador se ha deteriorado o
que existe algún fallo en la conexión de recarga. Podemos saber
directamente si el acumulador esta deteriorado si se han formado
pequeños cristales en los polos o derivan a tonos verdes/azules. Esto
no es un indicio inequívoco de que la batería esta estropeada pero
en cualquier caso es conveniente limpiar toda la suciedad de los
contactos, si es posible con un spray especial y un paño.
Con un voltímetro podremos examinar fácilmente el estado
del acumulador; los dos polos están identificados como – y +. La
medida de tensión se debe realizar con el ordenador apagado ya
que de otro modo la batería se recargara a través de la placa base
y, por lo tanto, mediremos la tensión de carga y no la propia del
acumulador. Si se constata que el acumulador tiene poca tensión
es relativamente fácil cambiarlo. Un soldador con experiencia no
tendrá problemas en calentar los contactos y extraer el
acumulador dañado pero en cualquier caso hay que tener mucho
cuidado, la placa base suele estar fabricada usando la técnica
multicapa, donde hay varias caras superpuestas en las líneas
conductoras. En esta parte es fácil dañar las líneas situadas debajo
y ya no sería posible reparar la placa. En lugar de calentar y extraer
los contactos del acumulador con la placa es mejor dejarlos y
cortarlos. Luego solo se solda el nuevo acumulador. En la placa
base no siempre hay un acumulador para mantener la RAM CMOS,
otras veces esta tarea la realiza una batería de litio generalmente
sujeta con una cinta adhesiva. Sustituir la batería es muy sencillo y
no requiere en absoluto usar un soldador. El chip de reloj necesita
algunos componentes externos: un cuarzo que genera la
frecuencia del reloj, la unidad mencionada para la recarga así
como un acumulador.

En las placas bases modernas de nueva generación no suele


haber ningún chip especial para la RAM CMOS y reloj. Además
la RAM CMOS y el reloj de tiempo real se incluyen otros elementos
complementarios como por ejemplo los dos controladores DMA y
de interrupciones así como el Timer, dos puertos USB y un
controlador EIDE para discos duros. Para conservar la información,
las placas modernas no utilizan un acumulador sino una batería de
botón que suele proporcionar una tensión de 3V, la duración va
hasta los 3 años y se debe cambiar para no tener problemas con la
configuración del BIOS.

3.3 El Juego de Chips – Chipset


El chipset es el conjunto de chips que se encarga de controlar
algunas funciones concretas del ordenador, como la forma en que
interacciona el microprocesador con la memoria o la caché, o el control
de los puertos y slots ISA, PCI, AGP, USB, etc. Como se muestra en la figura
3.1 se muestra el esquema de un conjunto de chipsets Intel.
FIGURA 3.1 ESQUEMA DEL CONJUNTO CHIPSETS DE UNA PLACA TRITÓN
PARA TARJETAS INTEL

El chipset de una placa base es un conjunto de chips cuyo número


varía según el modelo y que tiene como misión gestionar todos los
componentes de la placa base tales como el micro o la memoria; integra
en su interior las controladores encargados de gestionar los periféricos
externos a través de interfaces como USB, IDE, serie o paralelo. El chipset
controla el sistema y sus capacidades, es el encargado de realizar todas
las transferencias de datos entre los buses, la memoria y el
microprocesador, por ello es casi el "alma" del ordenador. Dentro de los
modernos chipset se integran además distintos dispositivos como la
controladora de vídeo y sonido, que ofrecen una increíble integración
que permite construir equipo de reducido tamaño y bajo costo.

Una de las ventajas de disponer de todos los elementos que integra


el chipset, agrupados dentro de dos o tres chips, es que se evitan largos
períodos de comprobación de compatibilidades y funcionamiento.
Como inconveniente nos encontramos con que el chipset no se puede
actualizar, pues se encuentra soldado a la placa.
Antes estas funciones eran relativamente fáciles de realizar y el
chipset tenía poca influencia en el rendimiento del ordenador, por lo que
éste era un elemento poco importante o influyente a la hora de comprar
una placa base. Pero los nuevos microprocesadores, junto al amplio
espectro de tecnologías existentes en materia de memorias, caché y
periféricos que aparecen y desaparecen continuamente, han logrado
aumentar la importancia del chipset. Las características del chipset y su
grado de calidad marcarán los siguientes factores a tener en cuenta:

• Que obtengamos o no el máximo rendimiento del


microprocesador.

• Posibilidades de actualizar el ordenador.

• Poder utilizar ciertas tecnologías más avanzadas de memorias


y periféricos.

Chipset y placa base forman un conjunto indisoluble y muy


importante. Se debe tener en cuenta que un buen chipset por sí mismo
no implica que la placa base en conjunto sea de calidad. La placa base
hemos de comprarla mirando y pensando en el futuro, máxime si vamos
a realizar posteriormente ampliaciones.

A través de estos circuitos se calcula toda la información que


utiliza el ordenador, gran parte de la cual no sabemos ni que existe.
Cuando el procesador quiere sacar un dato del disco duro tiene
que acceder a través del chipset a la controladora IDE, que está
integrada en el mismo. Todas las operaciones son similares, puesto
que el chipset comunica el procesador con la memoria, con las
ranuras de expansión, con los puertos y con la tarjeta grafica, si es
que no esta integrada en el mismo. En la figura 3.2 podemos
observar el chipset de una placa base.
FIGURA 3.2 CHIPSET DE UNA PLACA BASE

3.3.1 Las Funciones del Chipset


La inmensa mayoría de las funciones del ordenador
dependen del chipset sobre el que esta basada la placa base. Este
controla la memoria, los dispositivos IDE, la disquetera, el
controlador DMA, las ranuras PCI, el teclado, el ratón, los puertos
seria, paralelo, USB, prácticamente todo. La placa base se diseña
en función del chipset que se vaya a emplear y adaptar para las
capacidades de rendimiento del computador.

Al igual que el chipset determina las características de una


placa base, también influye directamente en el rendimiento del
ordenador. En las placas base de hace unos años podíamos
encontrar varias docenas de circuitos integrados. Cada uno hacia
una función determinada, o incluso eran necesarios varios chips
para hacer algo, el conjunto de ellos formaba prácticamente todo
el ordenador. Los chipsets actuales están formados por dos o tres
circuitos integrados, con lo que se ha reducido el número de
componentes de la placa base a la mínima expresión. Gracias a la
integración se consigue que el proceso de diseño de una placa
base se acorte considerablemente, aunque a costa de alargar el
espacio entre lanzamientos de nuevos chipsets. Recientemente
han aparecido una serie de chipsets nuevos de la mano de los dos
fabricantes mas importantes de este tipo de componentes, Intel y
Via Technologies. Sin embargo, antes de describir las novedades de
estos chipsets vamos a describir los componentes que lo forman y
algunas funciones que integran.

3.3.2 El Chipset por dentro.


Los chipsets actuales están formados por dos componentes
principales, North Bridge o Puente Norte y South Bridge o puente
sur. El Puente Norte es el más importante, y en la mayoría de las
ocasiones es el que marca la diferencia entre un chipset y otro.
Interviene en la mayoría de la circuitería de la placa, puesto que
está conectado directamente al procesador, incluye el
controlador de memoria, la implementación del bus AGP y la del
bus PCI. A continuación se muestra la figura 3.3 del Puente Sur en la
cual se muestran la serie de chips que contiene.
FIGURA 3.3 EL PUENTE SUR (SOUTHBRIDGE) DE UN JUEGO DE CHIPS INTEL.

El Puente Sur está conectado al Norte a través del bus PCI y


es el encargado de las funciones que no son imprescindibles para
el funcionamiento del sistema. Controla los dispositivos IDE, los
puertos serie, paralelo, USB, teclado, ratón y, en general los accesos
a periféricos y demás funciones secundarias. Mientras que el Puente
Norte es el único para cada modelo de chipset, el Puente Sur es
posible verlo en varios chipsets de la misma marca, puesto que
todos suelen proporcionar las mismas funciones secundarias, a
continuación la figura 3.4 muestra el chipset Norte con sus
componentes.
FIGURA 3.4 EL PUENTE NORTE (NORTHBIRDGE) DE UN JUEGO DE CHIPS
INTEL

Últimamente se están poniendo muy de moda las placas


base que integran muchos dispositivos, como la circuitería grafica,
la de sonido, controladoras Ethernet para conectar el equipo a
redes locales e, incluso, controladoras SCSI de altas prestaciones.
Normalmente, integrar todos estos periféricos en la placa base es
más económico que instalarlos mediante tarjetas. Tienen menos
problemas, porque la unión entre el dispositivo y la placa base es
permanente, no como la que ofrece una ranura de expansión.
Además no se ocupan estas ranuras, que quedaran libres para
ampliar el equipo con otros dispositivos. En general, es mas
cómodo y eficiente, porque se producen menos problemas.

3.3.3 Chipsets para Pentium y Pentium AMX


• 430 FX de Intel (Tritón): Fue la primera placa base creada con
un número muy reducido de chips. Actualmente no se fabrica, pero
existen muchos ordenadores que aun la incorporan. Esta placa
base lleva la referencia 82430FX y es controlada por 4 chips en
formato QFD (Quadratic Flat Package) o encapsulamiento
cuadrático plano. Pueden controlar 256 ó 512 Kbytes de memoria
caché y la memoria central puede ser del tipo FPM o EDO y
alcanzar un máximo de 128 Mbytes.

• 430 HX de Intel (Tritón H): Salio un año después que la FX y


orientada hacia el mercado profesional. Esta placa con
referencia 82430HX,esta formada únicamente por 2 chips en
formato BGA (Ball Grid Array), que mejora la fiabilidad de los
contactos. En estas placas se consiguen funciones semejantes a las
FX, pero con la adición de que pueden controlar hasta dos
procesadores y memoria central con paridad y ECC con un
máximo instalable de 512 Mbytes.

• 430 VX de Intel (Tritón III): Salió al poco de la HX y orientada


hacia el mercado multimedia. Esta placa lleva la referencia
82430VX y vuelve a adoptar los 4 chips en formato estándar QFP. En
estas placas se consiguen funciones similares a las HX, mejora la
memoria SDRAM, que es una memoria dinámica de acceso
aleatorio que espera una seña de reloj antes de responder a
cualquier bus de datos de la computadora, lo que quiere decir que
trabaja de forma síncrona y es muy veloz.

• 430 TX de Intel: es el chipset mas novedoso y ampliamente


implantado por las grandes marcas de placa madre. Estos chipsets
sacan el máximo rendimiento a los microprocesadores con
funciones multimedia MMX. Llevan la referencia 82430TX y, al igual
que la HX, vuelve a utilizar únicamente 2 chips en formato BGA,
pero manteniendo los 128 Mbytes máximos en los tipos FDM, EDO, y
SDRAM.

• Apollos VIA: Es el competidor de Intel en el campo de las placas


base con los procesadores K6 de AMD. Desde su primer producto,
sobrepasa en presentaciones a todos los Tritón de Intel. La tabla 3.1
muestra una comparativa entre los Apollos VIA y los 430 de Intel.

Fabricante Chipset Memoria Caché Velocidad


máxima de Bus
430FX FDM y EDO 128 512 66 Mhz
Mbytes Kbytes
Intel 430HX FPM, EDO y ECC 512 66 Mhz
512 Mbytes Kbytes
430VX FPM, EDO y 512 66 Mhz
SDRAM 128 Kbytes
Mbytes
430TX FPM, EDO y 512 66 Mhz
SDRAM 256 Kbytes
Mbytes
VPX FPM, EDO, BEDO 2 Mbytes 75 Mhz
y SDRAM 512
VIA-AMD MBytes
(Apollos) VP2 FPM, EDO, BEDO 2 Mbytes 66 Mhz
y SDRAM 512
Mbytes
VP3 FPM, EDO y 2 Mbytes 66 Mhz
SDRAM 1Gbyte
MVP3 FPM, EDO y 2 Mbytes 100 Mhz
SDRAM 1Gbyte
Tabla 3.1 Comparativa de chipsets de Intel y VIA para Pentium y Pentium
MMX.

3.3.4 Chipsets para Pentium PRO


• 440 KX y 440GX de Intel (Mars y Orion): Ambos se basan en una
estructura similar, con un numero total de chips que puede llegar a
nueve dependiendo de la configuración. Mientras la KX puede
controlar dos microprocesadores, la GX puede controlar cuatro.

• 440 FX de Intel (Natoma): Con la referencia 82440FX, la Natoma


es controlada por 4 chips y permite manejar hasta dos
microprocesadores. Soporta hasta 1 Gbyte de Memoria EDO y
puertos USB.

• 450KX y 450GX de Intel: Es la evolución de los respectivos 440KX


y 440GX, incluyendo soporte para Ultra-DMA, memoria SDRAM y bus
AGP.

3.3.5 Chipsets para Pentium II y Celeron


• 440 FX de Intel: Es la placa Natoma del Pentium PRO, a la que
simplemente se le ha cambiado el zócalo por el Slot 1 del Pentium
II.

• 440 LX de Intel: Esta placa ha sido diseñada para obtener el


máximo rendimiento del procesador Pentium II, utilizando para ello
la última tecnología: el puerto AGP (Accelerated Graphics Port),
que acelera el rendimiento de las tarjetas graficas, un bus
denominado USB (Universal Serial Bus) que alcanza altas
transferencias de datos y la nueva arquitectura DIB (Dual
Independent Bus), que incrementa el rendimiento global del
sistema.

• 440 BX de Intel: Al igual que la LX, ha sido desarrollada para el


Pentium II, pero sobre ella se pueden instalar procesadores de
mayor velocidad con un bus de 100 Mhz.

• 440 ZX de Intel: Es el juego de chipset mas reciente para Pentium


II. Se trata de una versión reducida del 440 BX con el objeto de
adaptarlo a placas mas pequeñas. Para ello utiliza zócalos y
carcasas más pequeñas, que reducen los costos finales de la placa.

• 440 EX de Intel: Es una placa diseñada para soportar un modelo


especial de Pentium II denominado Celeron. Este microprocesador
es una versión reducida del Pentium II, orientada a aquellos usuarios
a los que sus posibilidades económicas no les permitan comprar un
Pentium II original. En líneas generales se trata de una versión
recortada del 440LX.

• 440 GX de Intel: Es el chipset de Intel optimizado para la versión


Xeon del Pentium II. Soporta hasta 2 Gbytes de memoria SDRAM y
AGP 2x.
• 450 NX de Intel: A diferencia del anterior, este esta optimizado
para placas con múltiples procesadores Xeon. Soporta hasta 8
Gbytes de memoria EDO o SDRAM, pero no soporta el bus AGP.

• Apollo Pro de VIA: Al igual que sucedía con los Pentium, VIA ha
desarrollado placas para el Pentium II y Celeron. La tabla 3.2
muestra una comparativa del Apollo Pro de VIA con los de Intel.

Fabricante Chipset Memoria Velocidad de


Bus
Intel 440FX FPM y EDO 512 Mbytes 66Mhz
440LX EDO 1 Gbyte ó SDRAM 66Mhz
512 Mbytes
440BX SDRAM y PC100 SDRAM 1 100Mhz
Gbytes
440ZX SDRAM y PC100 SDRAM 100Mhz
256 Mbytes
440EX FPM, EDO y SDRAM 256 66Mhz
Mbytes
440GX SDRAM 2 Gbytes 100Mhz
450NX EDO y SDRAM 8 Gbytes 100Mhz
VIA Apollo FPM, EDO, SDRAM y 100Mhz
Pro PC100 SDRAM 1Gbyte
Tabla 3.2. Comparativa de chipsets de Intel y VIA para Pentium II y Celeron

3.3.6 Chipsets para Pentium III


• i820 de Intel: Este chipset vio la luz a finales de 1999, cuando
todo parecía indicar que la nueva memoria RDRAM se apoderaría
de todo el mercado. Por ello, dotaron a es te juego de chips en 3
versiones:

o i820 DP-133 (Dual Processor, memoria de 133 Mhz): Es


la versión mas completa, permite en controlar memoria
SDRAM PC133 y RDRAM PC600, PC700 y PC800 y dos
microprocesadores.

o i820 UP-133 (Uniprocessor, memoria de 133 Mhz): Es la


versión monoprocesador de la anterior.

o i820 PC-600: Es la mas reducida, solo soporta


memoria RDRAM PC600.
• Apollo Pro 133 de VIA: Compite con la i820 con prestaciones
muy parecidas: SDRAM PC133 y AGP 4x.

• Apollo Pro 266 de VIA: Es una reconversión de la anterior para


dar cobertura a la memoria DDRAM PC266, y que además incluye
un juego de chips en dos versiones para las conexiones EIDE: El 686A
que solo cubre Ulta-ATA66, y el 686B que da cobertura a Ultra
ATA/!00.

• i830 de Intel: Este chipset pretende rivalizar con el anterior de


VIA y dar cobertura a la memoria DDRAM, AGP 4x, controlador para
USB 2.0 con 6 puertos y conexión Ultra ATA/100.

3.3.7 Chipsets para K7


• AMD-750: Es el chipset más modesto para K7, únicamente
soporta memoria PC100 y AGP 2x. Su ámbito se restringe a los
Athlon bajo Slot A de frecuencia hasta los 600 Mhz.

• AMD-760: Consisten una versión mejorada de la anterior con


cobertura para memoria SDRAM PC133 y bus AGP 4x, además de
tener dos procesadores en un producto de la compañía AMD.

• KX133 de VIA: Es la versión del fabricante VIA para competir con


el AMD-760, e incluye unas prestaciones parecidas a este: Bus de
hasta 200 Mhz, memoria principal SDRAM PC133 hasta un máximo
de 1.5 Gbytes, bus AGP 4x, conexión EIDE Ultra ATA33 y 66, dos
puertos USB y un zócalo AMR. Este juego de chips da cobertura
tanto a las versiones de K7 bajo Slot A como a las de Socket A.

• KT133 de VIA: Presenta unas características muy similares a la


anterior, mejorando la conexión EIDE a Ultra ATA/100, y soportando
el AGP Pro.

• KT266 de VIA: Es idéntica a la anterior, pero en lugar de soportar


memoria SDRAM, soporta DDRAM de 200 y 266 Mhz.

3.3.8 Chipsets para Pentium IV


• i850 de Intel: Es el primer juego de chips que soporta el bus local
de 400 Mhz. Soporta memoria RDRAM PC600 y PC800 con hasta 2
Gbytes de memoria principal, incluye corrección de errores ECC,
AGP 4x, controlador para cuatro puertos USB 2.0 y conexión Ultra
ATA/100.

• PX266 de VIA: Es el rival de VIA para los Pentium IV. Da cobertura


a PCI de 64 bits, soporta zócalo dual ( dos procesadores) y memoria
DDRAM de 266 Mhz.

• i850 de Intel: Este juego de chips esta destinado a su uso en


servidores, y es el que ha desarrollado la firma para su Pentium IV
Xeon y el Itanium. Las primeras placas base para Itanium montaran
un juego de chips con bus local a 266 Mhz y posteriormente se
elevara a los 400 Mhz.

3.4 La Memoria Caché.


Las memorias SRAM son muy rápidas, debido a que no
necesitan ciclo de refresco para mantener los datos, pero su precio
es muy elevado comparado con la DRAM. Así se ha llegado al
compromiso de poner una pequeña cantidad de memoria SRAM
(de 8 a 512 KB) entre el microprocesador y la memoria principal. El
uso de esta pequeña memoria caché (SRAM). Si el
microprocesador vuelve a necesitar esos datos, los lee de la
memoria caché (mas rápida) en lugar de la memoria principal. Este
esquema de conexionado se muestra en la figura 3.5

FIGURA 3.5. CONEXIONADO DE LA MEMORIA CACHÉ.

Al principio, la caché venia fuera del microprocesador


(caché del nivel 2), pero en la actualidad dos microprocesadores
incorporan una pequeña caché dentro de la propia CPU (caché
de nivel 1) y una caché de mayor tamaño de nivel 2. Por ejemplo,
Intel incorpora 8KB de memoria caché directamente en el
microprocesador i486 y unos 128 KB de caché de nivel 2. Debido a
que se obtiene un mayor rendimiento, si la caché se encuentra
dentro de la CPU, ya que puede trabajar a su misma velocidad, en
los últimos microprocesadores como el Pentium Pro y Pentium II/III,
ambos niveles de caché se integran en el propio encapsulado del
microprocesador.

La idea de la memoria caché es similar a la de la memoria


virtual en el sentido de que existe una pequeña porción de la
memoria principal que esta duplicada en una memoria especial
llamada caché de alta velocidad. El termino cache se utiliza para
denominar al nivel superior de la jerarquía de memoria. Cuando se
genera una petición de memoria, la petición es presentada
primero a la caché, y si esta no proporciona el dato se le presenta
entonces a la memoria principal.

3.4.1 Principio de Localidad


Con el uso de la memoria caché el rendimiento es mayor,
debido a que se basan en un principio informático denominado
principio de localidad de referencia:

• Espacial: Si observamos la ejecución de un programa, podemos


ver una distribución espacial. Es decir, se repiten mucho los accesos
a unas posiciones de memoria.

• Temporal: En este principio está comprobado que si el


microprocesador accede a una posición de memoria, lo más
probable es que unos ciclos después vuelva a acceder a la misma
posición.

Para asimilar mejor ambos conceptos, pongamos un


ejemplo: Si tenemos una memoria central de unos 32 Mbytes y
ejecutamos un programa, podemos observar que su distribución en
la memoria no es uniforme y que esta dividida en concentraciones
de instrucciones como se muestra en la figura 3.6. Es decir, en
grupos de rutinas, ya que contienen saltos condicionales.
FIGURA 3.6 DISTRIBUCIÓN DE UN PROGRAMA EN LA MEMORIA.

Cuando la CPU acaba de ejecutar un grupo de


instrucciones, hay un tránsito y se produce la repetición de otro
grupo de instrucciones. Si analizamos cada una de estas
concentraciones, podemos ver que difícilmente superan los 150
Kbytes. Así, lo que la caché hace es copiar la agrupación de
instrucciones que se están ejecutando en ese momento en una
memoria estática, que al ser mucho más rápida acelera el
proceso. Una vez terminada la ejecución de esa agrupación, la
caché se actualizara con la siguiente y así continuamente,
aumentando considerablemente el rendimiento global del sistema.

3.4.2 Componentes de la caché


Todo el sistema caché está formado por los siguientes
elementos:

• Una memoria asociativa: Constituida por chips de memoria


SRAM (10/45 ns), más rápida que la DRAM (100/80/70/60 ns), y que
se sitúa entre la memoria principal y el microprocesador. Suele ser
de capacidad muy pequeña, comprendida entre 8 KB y 512 KB, y
de precio mucho más elevado que la DRAM.

• Un controlador de caché: Para que el sistema funcione


correctamente, se necesitara un elemento hardware que se
encargue de actualizar el contenido de la caché y de la memoria
central. Este controlador, como por ejemplo el 82385, mejora la
velocidad de acceso a la memoria en un 80%, con un porcentaje
en aciertos del 95%.
Este tipo de memorias no se puede añadir al ordenador, sino que
debe venir implementada en el sistema.

NOTA: El disco caché no tiene nada que ver con este tipo de
memorias, dado que reside en memoria convencional o en memoria
extendida y lo que reduce es el tiempo de acceso a disco. En el caso
de memoria caché lo que se reduce es el tiempo de acceso a
memoria.

3.4.3. Funcionamiento de la memoria caché.


El funcionamiento de la caché es la siguiente: Cuando el
microprocesador lee o escribe datos en la memoria principal,
también los escribe en la memoria caché, de forma que si vuelve a
necesitar esos datos, accede a la caché en vez de acceder a la
memoria principal, mejorando de esta forma considerablemente la
velocidad del sistema.

Como la caché interna esta unida al microprocesador por


un bus de datos de 128 bits, cada línea de cada vía deberá tener
una longitud que, traducida a bytes, es 16. Como resultado, cada
porción mínima de esta memoria que puede ser direccionada es
de 16 bytes. En consecuencia, como cada línea de la vía tiene 16
bytes, el total de cada set será: 4 vías x 16 bytes = 64 bytes y, como
la caché es de 8 Kbytes, cada vía tendrá un máximo de 128 sets o
posiciones. Esta distribución se puede observar en la figura 3.7.

FIGURA 3.7 DISTRIBUCIÓN DE LAS VÍAS.

En estas vías se van a almacenar los datos, pero necesitamos


asociar esos datos a una etiqueta. Para conseguirlo la caché
dispone de un directorio o tag con tantas entradas como sets
tengan las vías, en este caso 128. Cada entrada del directorio
contiene:

• 4 campos tag de entrada: de 21 bits cada uno de ellos,


asociado a cada una de las vías.

• 1 campo tag valido: de 4 bits, que marcan como valido/invalido


cada uno de los tags asociado a las vías.

• 1 campo LRU: de 3 bits, que va a servir como determinar el


criterio de reemplazo.

Esta distribución del directorio se ilustra en la Figura 3.8.

FIGURA 3.8 DISTRIBUCIÓN DEL DIRECTORIO O TAG.

El proceso a seguir es el siguiente: Cuando la CPU pone una


dirección, sus bits Ax…A10seleccionan uno de los 128 sets. De
encontrarse dicha dirección contenida en la caché, habrá de
estarlo en una de las 4 líneas de las vías. Seguidamente se realiza la
comparación de los 21 bits más altos de la dirección de los 4 tags
de la entrada del directorio. Esta comparación se realiza
simultáneamente con los 4 tags por mecanismos hardware, lo que
no ocupa un tiempo significativo. En caso de que alguna de estas
comparaciones resulte positiva y el bit de tag valido
correspondiente este activo, se produce un acierto. En caso
contrario un error. Como se observa en la figura 3.9 los bits
A0…,A3 no se usan en la memoria caché, ya que la caché va a
escoger siempre agrupaciones de 16 bytes debido a la localidad
espacial. Es decir, después de que el microprocesador ejecute esa
instrucción pedirá la siguiente.

FIGURA 3.9. ESTRUCTURA Y ESQUEMA DE FUNCIONAMIENTO DE LA CACHÉ


INTERNA DEL I486.

A continuación en la figura 3.10 se muestra los pasos que


realiza la memoria caché en el proceso de lectura y escritura de la
misma.

FIGURA 3.10. ALGORITMO DE REEMPLAZO PSEUDO-LRU DE LA CACHÉ


INTERNA DEL I486.
Unidad 4. Los Sistemas de BUS

Los Sistemas de BUS

4. Los Sistemas de BUS


Los buses son el mecanismo más común para la
comunicación entre los dispositivos del computador. Físicamente
son conductores por donde viajan señales eléctricas. Algunos
ejemplos de buses se muestran en la figura 4.1.
Figura 4.1. Buses

Los buses son casi todos esos caminos que se ven en las
tarjetas madre de las imágenes anteriores.

El bus es un dispositivo en común entre dos o más dispositivos,


si dos dispositivos transmiten al mismo tiempo señales las señales
pueden distorsionarse y consecuentemente perder
información. Por dicho motivo existe un arbitraje para decidir quién
hace uso del bus.

Por cada línea se pueden trasmitir señales que representan


unos y ceros, en secuencia, de a una señal por unidad de tiempo.
Si se desea por ejemplo transmitir 1 byte, se deberán mandar 8
señales, una detrás de otra, en consecuencia se tardaría 8
unidades de tiempo. Para poder transmitir 1 byte en 1 sola unidad
de tiempo tendríamos que usar 8 líneas al mismo tiempo.
Existen varios tipos de buses que realizan la tarea de interconexión
entre las distintas partes del computador, al bus que comunica al
procesador, memoria y E/S se lo denomina bus del sistema.

La cantidad de líneas del bus a medida que pasa el tiempo


se va incrementando como uno de los métodos para incrementar
la velocidad de transferencia de señales en el computador, y así
incrementar el desempeño. Cada línea tiene un uso específico, y
hay una gran diversidad de implementaciones, pero en general
podemos distinguir 3 grandes grupos de buses:
a) Bus de datos: Por estas líneas se transfieren los datos, pueden ser
de 8, 16, 32 o más líneas, lo cual nos indica cuantos datos podemos
transferir al mismo tiempo, y es muy influyente en el rendimiento del
sistema. Por ejemplo si el bus es de 8 líneas y las instrucciones son de
16 bits, el sistema va a tener que acceder 2 veces a memoria para
poder leer la instrucción, el doble de tiempo en leer instrucciones
comparando con un bus de datos de 16 líneas.

b) Bus de direcciones: Por estas líneas se envía la dirección a la cual


se requiere hacer referencia para una lectura o escritura, si el bus
es de 8 líneas por ejemplo, las combinaciones posibles para
identificar una dirección irían del 00000000 al 11111111, son 256
combinaciones posibles, en consecuencia el ancho del bus de
datos nos indica la cantidad de direcciones de memoria a la que
podemos hacer referencia. Dentro de las direcciones posibles, en
general el sistema no usa todas para hacer referencia a la memoria
principal, una parte las usa para hacer referencia a los puertos de
E/S.

c) Bus de control: Estas líneas son utilizadas para controlar el uso del
bus de control y del bus de datos. Se transmiten órdenes y señales
de temporización. Las órdenes son muy diversas, las más comunes
son:

• Escritura en memoria.

• Lectura de memoria.

• Escritura de E/S.

• Lectura de E/S.

• Transferencia reconocida.

• Petición del bus.

• Sesión del bus.

• Petición de interrupción.

• Interrupción reconocida.

• Señal de reloj.

• Inicio..
Las señales de temporización indican la validez de los datos
que están en el bus en un momento dado. En la siguiente figura 4.1
mostramos el Esquema de Interconexión de los buses en el sistema.

Figura 4.2 Interconexión de los Buses

Todo elemento que esté conectado al bus tiene que saber


reconocer si la dirección que está en el bus de datos le
corresponde, tiene que reconocer algunas órdenes transmitidas
por el bus de control, y puede emitir algún tipo de señal por el bus
de control (señal de interrupción, señal de reconocimiento de
alguna petición, etc.).

En general, cuanto más dispositivos conectamos al bus,


disminuye el rendimiento del sistema; las causantes de esto son
varias, pero las más importantes son el tiempo de sincronización que
se necesita para coordinar el uso del bus entre todos los dispositivos,
y que el bus tiene una capacidad máxima, la cual puede llegar a
convertirse en un cuello de botella del sistema. Una de las formas
de tratar este problema es implementando jerarquía de buses.

4.1. Jerarquía de buses:


Para mejorar el rendimiento del bus, las jerarquías de buses
fueron implementadas cada vez más, una primera aproximación a
una jerarquía de bus básica seria como la que se muestra en la
figura 4.2:
Figura 4.2. Esquema de la jerarquía de buses.

Primero tenemos un bus local, de alta velocidad que


conecta el procesador a la cache, el controlador de la cache
también puede acceder al bus del sistema, con esta
implementación, la mayor parte de los datos a los que va a
acceder el procesador, que están en la cache, serán entregados
a una alta velocidad, otro punto a destacar de esta parte es que
los accesos a memoria por parte de la cache no van a interrumpir
el flujo de datos entre procesador y cache. También se ve la
posibilidad de conectar un dispositivo de entrada salida al bus
local. Luego tenemos el bus del sistema, al cual está conectada la
memoria y por debajo el bus de expansión, al cual se pueden
conectar una amplia diversidad de dispositivos, entre el bus del
sistema y el bus de expansión se encuentra una interface, que entre
las principales tareas está la de adaptar las velocidades de
transmisión, por ejemplo para un dispositivo muy lento conectado
al bus de expansión la interface podría acumular una cierta
cantidad de datos y luego transmitirla a través del bus del sistema.

El hecho de que cada vez mas salgan al mercado dispositivos


que requieren más velocidad de transmisión en los buses, hizo que
los fabricantes implementaran los buses de alta velocidad, el cual
está muy estrechamente ligado al bus local, solo hay un adaptador
que los une. Debajo de este bus tenemos el bus de expansión, más
lento conectado mediante otro adaptador. La figura 4.3 lo muestra
detalladamente:

Figura 4.3 Sistema de Bus y Periféricos que se interconectan a él.

Existen varios parámetros y elementos en los buses con los


cuales podemos clasificarlos.

4.1.1. Tipos de buses


Una clasificación que podemos hacer es según la
funcionalidad de este, los podríamos dividir en dedicados o
multiplexados.

Un ejemplo común de dedicados serian el bus de datos y el


bus de direcciones, cada uno se utiliza solo para una función
específica. Esta situación de bus de datos y de direcciones
dedicados es lo más común, pero podría llegar a implementarse
con un solo bus multiplexado el tiempo. Esto funcionaria a grandes
rasgos de la siguiente forma:

Al comienzo de la transferencia se sitúa en el bus la dirección


de donde se quiere leer o a donde se desea escribir, luego se emite
por el bus de datos una señal indicando que en el bus se encuentra
una dirección valida.

A partir de ese momento se dispone de una unidad de


tiempo para que los dispositivos identifiquen si es su dirección, luego
de esto se pone en el mismo bus los datos y se realiza la
transferencia en el sentido que lo indique una orden emitida por el
bus de control. La Ventaja de este método es la reducción de la
cantidad de líneas, lo cual ahorra espacio y costos, la desventaja
son que para poder implementar la forma de operar la circuitería
en cada modulo tiene que ser más compleja, y que el rendimiento
del sistema será menor por no poder transmitir los datos
simultáneamente, en paralelo (datos y dirección).

Otro tipo de clarificación podría ser según su dedicación


física: Podríamos poner como ejemplo el bus de E/S, el cual se
encarga de conectar solo los dispositivos de E/S, este bus se
conecta al bus principal mediante algún adaptador, la ventaja
está en que al ser dedicado solo a E/S, el rendimiento de este va a
ser mejor, ya que solo van a operar con él los módulos de E/S, y no
va a haber tanta competencia por el bus.

4.2. Método de arbitraje.

Por la razón de que en un momento dado solo puede usar el


bus un solo dispositivo, debe existir un método para decidir quién
hace uso de él. Todos los métodos que existen en general pueden
ser clasificados en 2 grandes grupos:

• Arbitraje centralizado: Una parte del hardware del sistema


denominada controlador del bus se encarga de decidir el uso del
bus en cada momento, este dispositivo puede ser un modulo
separado o puede estar incorporado al procesador.

• Arbitraje distribuido: En este esquema no existe un controlador


centralizado, en su lugar, cada dispositivo que hace uso del bus
tiene que tener incorporada la lógica necesaria para poder
interactuar con los demás dispositivos y decidir quién hace uso del
bus.

En cualquiera de los dos casos lo que se busca es que se


decida quién va a tener la posesión del bus en un momento dado,
procesador, modulo de E/S o memoria, al cual se lo denomina
maestro del bus, el maestro del bus establecerá una comunicación
con otro dispositivo (lectura o escritura) al cual se lo denominara
esclavo.

4.3. Temporización:

La temporización clasifica al método utilizado para coordinar


los eventos dentro del bus. Según la temporización usada podemos
clasificar los buses en 2 grupos.

Temporización síncrona: Todos los eventos del bus se rigen a


través del reloj del computador. Una de las líneas del bus transmite
continuamente una señal de reloj, simplemente una secuencia de
unos y ceros, la cual puede ser leída por todos los dispositivos
conectados al bus. Al intervalo transcurrido en la emisión de un uno
y un cero se lo llama ciclo de reloj, todos los eventos ocurridos
dentro del bus comienzan el principio del ciclo y puede durar uno
más . En este método de temporización todos van al ritmo del reloj
como mostramos en la figura 4.4.

Figura 4.4 Temporización Síncrona

En el diagrama anterior podemos apreciar como seria en


forma simplificada una lectura de datos a través del bus. Tener en
cuenta que hay muchísimas más líneas que no se figuran en el
gráfico, por ejemplo la línea del reloj, que sería algo más constante
como la figura 4.5.

Figura 4.5. Señal de Reloj

Las líneas solo pueden tener uno de dos estados, uno o


cero. La velocidad en el ritmo que se alterna de un uno a un cero
en la línea del reloj nos da la velocidad del bus, y como todas las
operaciones se van a realizar al ritmo del reloj, al aumentar la
velocidad del ciclo vamos a aumentar la velocidad del sistema.

Con referencia al gráfico de un ciclo de lectura de datos, el


maestro (el que tiene permiso para el uso del bus) pone en el bus
de direcciones la dirección de la cual desea leer su contenido,
luego de haber puesto la dirección en las líneas correspondientes,
envía por una línea del bus de control una señal indicando que
desea hacer una lectura, el dispositivo correspondiente a esa
dirección reconoce la dirección, y pone en el bus de datos la
información solicitada, tras lo cual, manda otra señal por una línea
del bus de control indicando que se le ha reconocido su petición
(que los datos situados en el bus de datos son validos, son los datos
solicitados)

Todo con este método de temporización empieza o finaliza


rigiéndose de las señales del reloj, en general la mayoría de los
eventos tiene un duración de un ciclo.

Temporización asincrónica:

Acá los eventos no se rigen por la línea del reloj, en general


todo evento es disparado por otro evento anterior. Asi como
mostramos en la figura 4.6.

Figura 4.6 Temporización Asíncrona.

El procesador pone en el bus de direcciones la dirección a


ser leída y en el bus de control por la línea correspondiente señal
de lectura, luego de un breve tiempo para que las señales
eléctricas se estabilicen, se manda señal por la línea MSYN
(sincronización del maestro) indicando que hay señales validas en
el bus de dirección y de control, el modulo correspondiente
reconocerá su dirección, pone el dato solicitado en el bus de datos
y emite una señal SSYN(sincronización del esclavo) por el bus de
control indicando en las señales del bus de datos que la
información es válida.

La temporización síncrona es más fácil de implementar y


comprobar, pero es menos flexible que la síncrona. Por ejemplo, en
el caso de que hubiesen varios dispositivos conectados al bus, de
distintas velocidades, todos tienen que funcionar a la velocidad del
reloj, si hay uno más rápido, este tiene que bajar su velocidad: En
cambio con el asíncrono, cada uno funcionaria a su velocidad, en
el mismo bus se trabajaría a distintas velocidades, cada
transferencia se haría con la velocidad óptima de sus dos partes
(maestro-esclavo).

Anchura del bus:

La anchura del bus es simplemente la cantidad de líneas que


posee, y está directamente relacionado con el rendimiento del
sistema, cuanto más ancho el bus de direcciones, mayor va a ser la
cantidad de direcciones posibles utilizadas para direccionar
memoria y dispositivos de E/S, y cuanto más ancho el bus de datos,
mayor será la cantidad de bits que se va a poder transmitir en
paralelo.

4.4. Tipo de transferencia de datos:

Todos los buses permiten la transferencia de datos, ya sea


para escritura como para lectura. La transferencia de dichos
datos se muestra en la figura 4.7.

Figura 4.7. Transferencia de Datos


En el gráfico tenemos ejemplificado una escritura y una
lectura, en este caso el bus esta multiplexado en el tiempo, primero
se utiliza para transmitir la dirección y luego los datos.

Para optimizar el rendimiento existen algunas operaciones


combinadas en las cuales se pasa la dirección una sola vez, por
ejemplo "lectura-modificación-escritura", seria la lectura del dato,
se le aplica alguna modificación y luego se escribe nuevamente.
Todo esto es una sola operación, nadie puede acceder al bus en
el medio de la operación, se utiliza para proteger los recursos de
memoria compartida en sistemas con multiprogramación para
mantener la integridad de los datos. Otra instrucción es "lectura
después de escritura" que serviría para comprobar el resultado.

Otra operación muy común es la transferencia por bloque, se


pasa al principio de la operación la dirección inicial y luego se
realiza lectura o escritura a las siguientes direcciones, la cantidad
de direcciones siguientes también es un parámetro que hay que
pasar. Dichas operaciones se muestran en la figura 4.8.

Figura 4.8. Bloque de Transferencia de Datos

4.5. El BUS ISA ( Industry Standard


Architecture)
Desarrollado por IBM en 1981 fue el primer bus de expansión
incorporado en los ordenadores personales. Posee una velocidad
de funcionamiento de 4.77 Mhz y 8 bits ( con un ancho de banda
máximo de 2 MB/seg). Posteriormente con la aparición de los
ordenadores AT, este bus de expansión de vio ligeramente
modificado, denominándose bus AT-ISA. Las modificaciones
consistieron en la ampliación del conector para obtener 16 bits.

Con el paso de los años, en 1986 el bus AT se modifico con


un estándar complementario y desde entonces se ha denominado
bus ISA. Desde hace ya algún tiempo, el bus ISA ha dejado paso al
bus PCI aunque algunas placas base continúan incluyendo una o
dos ranuras ISA.

A partir de las placas base para Pentium II ya no se montaron


ranuras de 8 bits aunque esto no supuso ninguna desventaja ya que
las tarjetas de 8 bits podían seguir instalándose en la ranura ISA.

4.6. ISA Plug & Play


Gracias a la tecnología Plug & Play la configuración del PC
es hoy prácticamente automática y permite integrar fácilmente en
el sistema las tarjetas de expansión. Pero lamentablemente en la
práctica no siempre es así, a veces se trata de armonizar una
mezcla de dispositivos y tecnologías tan diferentes que llegan a
confundir a cualquier usuario. En todo esto, los siguientes
componentes juegan un papel importante:

• BIOS Plug & Play.

• PCI Plug & Play.

• ISA Plug & Play.

• Diseño Plug & Play especifico del fabricante del dispositivo.

• Plug & Play del sistema operativo.

Como podemos comprobar hay varios factores que


desempeñan su papel y normalmente el problema suele aparecer
en las relaciones entre las diferentes unidades. Por otro lado se da
el hecho de que el termino Plug & Play no está patentado, y
aunque aparezca con grandes letras en el envoltorio del PC la
realización de esta función puede ser muy diferente de lo
esperado, aunque cada vez menos. En sus inicios, con este término
solo se quería expresar que no era necesario colocar ningún
jumper, y a partir de ahí ya no existía ninguna funcionabilidad Plug
& Play tal y como Intel y Microsoft las definieron en su momento.

Estas tarjetas funcionaban y se configuraban sin jumpers o


interruptores DIP, en base a un método especifico del fabricante y
que simplificado se puede presentar así: la posición de los
interruptores se sustituirá por un latch o un chip de registro. Con un
controlador de software generalmente antes del programa de
instalación y se utilizaban para la tarjeta hasta el siguiente proceso
de arranque. Pero la configuración automática de las tarjetas
apenas factible ya que el programa de instalación del fabricante
no podía obtener información fiable sobre que recursos del PC
quedaban libres y cuales estaban ya ocupados.

Las unidades PCI tienen una propiedad llamada Plug & Play, y
en teoría se pueden configurar automáticamente con la ayuda del
BIOS, mientras que en ISA esto no es posible desde el principio. Por
esta razón, en 1993 Intel y Microsoft definieron ISA Plug & Play para
proporcionar esta propiedad a las tarjetas ISA.

4.7. El bus PCI


A diferencia de su predecesor el VESA Local Bus (VLB), el
Peripheral Component Interconnect (PCI) no es un complemente
de una arquitectura de bus ya existente, sino que define su propio
estándar de componentes, para el que son necesarios unos
chipsets especiales. El bus PCI no es el único de la arquitectura de
PCs, sino que también encuentra aplicación en los Apple o en las
estaciones de trabajo Alpha de la antigua casa DEC (Compaq HP
en la actualidad).

Toda unidad que siga en el estándar PCI, ya se encuentre


directamente en la placa base o en forma de tarjeta de expansión,
utiliza, en principio, además de una dirección de Entrada/Salida y/o
de memoria, un espacio de configuración para la identificación y
la configuración de unidades PCI, con lo cual puede prescindirse
de los puentes y otros elementos de configuración manuales. Por
consiguiente, el estándar PCI trae la función Plug & Play de fabrica,
y es el primer sistema que posee esta funcionalidad
completamente en el BIOS y no requiere ningún software de
configuración adicional. Igual que en el ya inexistente VESA Local
Bus, en el bus PCI se emplea la misma solución mecánica de
ranuras, que se utilizo por primera vez en MicroChannel. Sin
embargo, las ranuras PCI no se encuentran detrás de la conexión
ISA, sino que en las placas base de PC se encuentran
inmediatamente al lado de ellas, o bien se colocan en otro lugar
de la placa base, separadas de las otras ranuras de expansión.

4.8. Tarjeta de bus PCMCIA


Desde el año de 1989 se ofrecen tarjetas de memoria para
ordenadores portátiles que se encuentran bajo las siglas PCMCIA,
que provienen de Personal Computer Memory Card International
Association. Si bien las tarjetas de memoria siguen siendo una
aplicación, como por ejemplo para cámaras digitales,
actualmente también se pueden obtener tarjetas de fax/modem,
tarjetas RDSI, discos duros y otros dispositivos PCMCIA. El bus de
tarjeta es el perfeccionamiento de la interfaz PCMCIA y, por lo
tanto, compatible hacia atrás, aunque las distintas señales y sus
funciones difieren mucho. Casi todos los ordenadores portátiles
nuevos disponen por lo menos de una ranura para bus de tarjeta,
aunque ni en la ranura ni en las tarjetas correspondientes puede
verse inmediatamente si se trata de PCMCIA o del bus de tarjeta.
En los catálogos de productos y en la publicidad estos nombres a
menudo se confunden y, por lo tanto, el usuario debería informarse
exactamente sobre la versión a que se hace referencia, ya que las
tarjetas más nuevas se ofrecen exclusivamente en la versión de bus
de tarjeta. Por consiguiente, no funcionarían correctamente en un
portátil con ranura PCMCIA.

PCMCIA trabaja con una interfaz de 16 bits asíncrona de


modo esclavo. El bus de datos tiene un ancho de 16 bits, y con las
26 líneas de direcciones pueden direccionar directamente con el
un área máxima de 64 MBytes. Para el modo de entrada/salida el
estándar es la transferencia de 8 bits. Con tarjetas de memoria no
se utilizan las señales para las funciones de entrada/salida. Los 68
contactos de una tarjeta PCMCIA están distribuidos en dos filas y
siempre encuentran en la parte frontal, más estrecha. Las tarjetas
más finas en principio también pueden utilizarse en ranuras para
tarjetas más finas en principio también pueden utilizarse en ranuras
para tarjetas más gruesas. En noviembre de 1994 se presento el
estándar de bus de tarjeta para PC, que sustituía a la versión
PCMCIA 2.0 y JEIDA 4.2. No obstante, en contra de lo que su nombre
indica, no se trata de un sistema de bus a nivel electrónico, sino a
nivel lógico, es decir, que aquí también hay solamente una
conexión punto a punto entre el adaptador del PC y la tarjeta.

4.9. Accelerated Graphics Port – AGP


El Accelerated Graphics Port (traducido como puerto
gráfico acelerado y abreviado AGP) forma parte de las placas
base desde mediados de 1997, en las que se monta en forma de
ranura para instalar exclusivamente tarjetas graficas AGP.

Una tarjeta AGP debe ofrecer mayores prestaciones que


una tarjeta grafica PCI, detalle muy importante, principalmente, en
la ejecución de juegos en tercera dimensión 3D. Los usuarios que
no sean aficionados a los juegos también les dará cierta ventaja en
las representaciones 2D, ya que con una tarjeta AGP ofrece algo
más de memoria y alcanza frecuencias más rápidas, por lo que
soportan también unas resoluciones de 1280 x 1024 puntos de
pantalla con una profundidad de color de 16 bits y una frecuencia
de actualizacion de 85 Hz. Hasta hace muy poco, estos valores de
rendimiento eran exclusivos de tarjetas gráficas muy caras, y la
memoria del mismo PC no superaba muchas veces a la memoria
de las tarjetas graficas actuales.

El puerto AGP no es ni un complemente ni una ampliación


del bus PCI. Al contrario, su instalación en la placa base se realiza
en un slot adicional destinado a la conexión punto a punto. Al igual
que el bus PCI, el bus AGP también tiene en sus inicios un ancho de
banda de 32 bits, pero funciona a 66 Mhz. Esto hace que, cuando
se utilizan los dos flancos de la señal de frecuencia, se alcance una
tasa de transmisión máxima de 533 MB/s. el slot AGP es bastante
más pequeño que el slot PCI y no es compatible con este ni desde
el punto de vista mecánico ni desde el punto de vista electrónico.
A pesar de estas diferencias, el bus AGP utiliza igualmente algunas
señales PCI, y la inicialización de la tarjeta grafica AGP se realiza en
un primer momento completamente a través del bus PCI, antes de
que el bus AGP pueda entrar en acción.

Las funciones en si del bus AGP se pueden activar tanto a


través del BIOS como del sistema operativo. El puerto AGP está
integrado como puente dentro del chipset de la placa base y es
independiente del procesador del PC. De este modo, no hay nada
que impida, el funcionamiento simultaneo del procesador y del
chip grafico que funciona como master del bus. Así mismo esta
conexión se muestra en la figura 4.9.

Figura 4.9 La integración del puerto AGP en el circuito electrónico de la


placa base.

Una tarjeta gráfica AGP puede utilizar parte de la memoria


del PC como memoria para la textura. Para ello es imprescindible
que la tarjeta AGP posea un búfer de escritura. Las aplicaciones 3D,
especialmente los juegos, dependen en gran arte de que la
memoria gráfica sea lo más grande posible. Esta memoria consta
básicamente de tres áreas: bufer frame, bufer Z y un area para los
datos de textura. Con las tarjetas gráficas AGP, se puede utilizar una
parte de la memoria normal del PC para las texturas y ahorrar así la
cantidad correspondiente de memoria en la tarjeta gráfica. La
configuración necesaria para ello se realiza en el Setup del BIOS.

De acuerdo con el AGP initiator de Intel, la memoria de las


placas base con AGP debe constar de SDRAMs, que funcionen con
una frecuencia mínima de 66 Mhz y preferiblemente de 100 Mhz
hacia adelante. La práctica, sin embargo, es que los fabricantes de
tarjetas gráficas prefieren no confiarse a la memoria de la placa
base, por lo que equipan las tarjetas normalmente con SDRAM de
16 bits o con los SGRAM más rápidas. La ruta de la memoria de una
tarjeta AGP tiene un ancho, por lo general, de 126 bits, y los chips
de memoria de las tarjetas gráficas son, en la mayoría de los casos,
más rápidos que los chips de las placas base. No es nada raro que
se alcancen frecuencias de memoria de hasta 130 MHz, por lo que,
en definitiva, la memoria principal no se ve afectada por el bus
AGP, lo cual llevaría posiblemente a una disminución del
rendimiento global del sistema.

4.9.1 Las Tarjetas Graficas AGP


El rendimiento de una tarjeta gráfica AGP no es
necesariamente superior al de una tarjeta grafica PCI. Un
controlador mal programado puede hacer que disminuya el
rendimiento de la tarjeta. Las prestaciones dependen básicamente
del tipo de chip de grafico y del tipo de memoria de la tarjeta
gráfica, y no tanto del tipo de bus o de puerto. Muchas tarjetas
graficas se ofrecen en una versión PCI y en versión AGP, siendo la
única diferencia entre ambas versiones la electrónica de su interfaz.
Además, la configuración de la tarjeta AGP puede presentar en la
práctica bastantes problemas, algo que con las PCI muy raramente
sucedió a lo largo del tiempo.

En cuanto al precio, actualmente no existe mucha


diferencia entre una tarjeta gráfica PCI y una AGP, por lo que es
lógico adquirir una tarjeta gráfica AGP, que una PCI, ya que de este
modo se dispone de un slot PCI adicional. A veces las versiones AGP
son incluso más económicas que las PCI, y algunas tarjetas gráficas
3D más modernas ya solo se pueden adquirir en su versión AGP. A
las siguientes figuras 4.10 (a) y 4.10 (b) muestran una tarjeta AGP y
PCI respectivamente.

(a)
(b)

Figura 4.10 Tarjeta AGP (a) y Tarjeta PCI (b).

4.10 Los Puertos COM del PC.


Habitualmente ordenadores tienen dos puertos COM
instalados. Se trata de interfaces seria definidas en el estándar
RS232. Los puertos COM del PC solo representan una pequeña
parte de las implementaciones definidas en el estándar RS232, lo
que significa que no está garantizado en absoluto que se puedan
comunicar entre si, sin más, dos dispositivos por el hecho de
pertenecer a la normativa RS232.

En un PC hay un conector de 9 pines o de 25 pines para la


interfaz RS232 como se muestra en la figura 4.11. Para evitar
confusiones con la interfaz paralela que también posee 25
contactos, las conexiones seria del PC son de tipo clavija, es decir,
macho:
Figura 4.11 Conectores COM de 25 y 9 Pines

La Interfaz serie habitual en los PC trabaja exclusivamente en


modo asíncrono, y en el caso mas sencillo la conexión RS232 consta
únicamente de 3 líneas:

• RXD o RD, línea de recepción.

• TXD o TD, línea de emisión.

• GND, masa.

Como las líneas RXD y TXD del PC se conectan a los periféricos


dependen del aparato que se va a conectar. En este aspecto se
diferencian dos variantes:

• Equipo terminal de datos, o DTE (Data Terminal Equipment).

• Equipo transmisor de datos, o DCE (Data Carrier Equipment).

Normalmente un ordenador es un DTE y un modem un DCE. La


conexión de dos ordenadores es perfectamente posible y se suele
denominar como Nullmodem (sin modem).

Como se puede apreciar en la figura 4.12, algunas líneas están


conectadas en cruz, lo que significa que el periférico utiliza la línea
de Emisión del PC como línea de recepción, tal puede ser el de la
figura 4.12 A, lo mismo se observa en sentido inverso. La conexión
Nullmodem como la de la figura 4.12 B requiere siempre la conexión
de líneas cruzadas, por ejemplo al intercambiar datos entre dos PCs
o cuando se conecta una impresora o un plotter al equipo.

Figura 4.12 Conexiones RS232 típicas para conectar impresoras, plotter y


otros dispositivos serie

Las conexiones de la figura 4.12 C y D son para tener mejor


seguridad en los datos; la conexión 4.12 E se utiliza cuando hay un
programa especial para las líneas de las señales de control, por
último la conexión de la figura 4.12 F se utiliza para la conexión de
plotters. Al conectar dispositivos periféricos al PC también nos
podemos encontrar con que no se cruzan las líneas. Este es el caso
de la conexión del modem, desde el que podemos tanto recibir
como enviar datos. Pero esos datos no se procesan en el modem
sino que se envían al PC. El modem funciona como un equipo
transmisor de datos DCE y el ordenador como equipo terminal de
datos DTE. La seguridad de la transferencia se puede aumentar
introduciendo un intercambio de señales de control entre los dos
dispositivos. Entonces los dos periféricos no solo están comunicados
por las líneas de datos, sino también por líneas RTS y CTS. Con Clear
to Send (CTS) el periférico comunica que tiene los datos
preparados. Si el receptor está listo tomara los datos y comunicara
a su recepción con Request to Send (RTS).

4.11. Firewire
El estándar IEEE-P1394 se denomina también Firewire, aunque
en realidad Firewire, no es más que una de las implementaciones
posible que obedecen a este estándar. No obstante es
actualmente la única variante interesante de IEEE-1394 con
posibilidades de conseguir un terreno propio en el segmento del
Comercio. Apple lo desarrollo en 1987. Con el fin de estos modelos,
en un primer momento dio la impresión que el estándar IEEE1394
también caería en el olvido pero recupero el interés con el auge de
los sistemas de bus serial para periféricos, se desmarca como una
buena solución para aplicaciones de video y audio. Asimismo,
fabricantes de instrumentos de medida como National Instruments
y Hewlett-Packard consideran a Firewire como un posible sucesor
del viejo bus IEC para tecnologías de medida con soporte
informático. Como se muestra en la figura 4.13 está el tipo de
conector y el puerto IEEE 1394.

(a)

(b)

Figura 4.13. Dos tipos de Conector IEEE1394 (a) y Puertos IEEE1394 (b)
4.12. DVI (Digital Visual Interface)
A mediados de 1998, un grupo de empresas, principalmente
del sector informático, creó el llamado DDWG (Digital Display
Working Group). Viendo la cada vez mayor implantación de los
monitores informáticos digitales basados en tecnología LCD, en
sustitución de los clásicos monitores analógicos de tubos de rayos
catódicos TRC (o CRT del acrónimo anglosajón), el DDWG diseñó
una nueva interfaz de comunicación para transmitir, sin molestas
conversiones, la señal de vídeo 100% digital desde la tarjeta gráfica
del PC hasta el monitor.

Bautizado como DVI, este sistema está basado en una


tecnología denominada TMDS (Transition Minimized Differential
Signaling) que utiliza cuatro canales de datos para la transmisión de
la señal. En los tres primeros se conduce la información de cada uno
de los tres colores básicos (rojo, verde y azul - RGB) y los datos de
sincronización vertical y horizontal necesarios, y se reserva el cuarto
canal para transmitir la señal del reloj de ciclos. Gracias a este
sistema, el ancho de banda disponible es lo suficientemente
grande como para transportar sin ningún tipo de compresión todos
los formatos provistos de señales de vídeo en Alta Definición y
resoluciones informáticas de hasta 1.600x1.200 puntos (UXGA). El
DVI también tiene implementado un sistema de mayor
envergadura denominado DVI Dual-Link, que utiliza en el mismo
conector un enlace TMDS adicional que comparte la señal del reloj
y que permite resoluciones de hasta 2.048x1.536 píxeles (QXGA).
Debido a la nula utilización del sistema Dual-Link en equipos de cine
en Casa domésticos, nos centraremos en la versión simple, llamada
Single-Link. Los conectores DVI son como los que se muestran en la
figura 4.14.
Figura 4.14. Conector DVI

Además de los datos TMDS, el estándar DVI maneja otro tipo


de señales denominadas DCC (Display Data Channel). En este
canal se establece una comunicación entre la fuente y la pantalla
de informaciones auxiliares de vídeo (AVI), que permite entre otras
cosas identificar la resolución soportada por el monitor, la relación
de aspecto nativa del mismo, el tipo de señal que envía (RGB o
Y/Cb/Cr) y diversos datos sobre colorimetría o geometría de la
imagen.

Para evitar la piratería, se desarrolló un sistema de


encriptación de nombre HDCP (High-Bandwidth Digital Contention
Protect) que se basa en el intercambio de información entre dos
dispositivos con conexiones DVI y que obligatoriamente han de
confirmar las señales de validación que se envían entre ellos para
seguir transmitiendo. Esto nos puede llevar al caso de tener una
fuente DVI-HDCP y un proyector o panel de plasma que no
disponga de este certificado anticopia y resulten absolutamente
incompatibles a pesar de contar con el mismo conector. Para
concluir la migración del DVI desde el mundo informático al
audiovisual, se añadieron las señales digitales de vídeo por
componentes de diferencia de color Y/Cb/Cr a las originarias
señales RGB como los que se muestran en la figura 4.15. Esta
combinación, más cercana a nuestros intereses de conexión
DVI+HDCP+Y/Cb/Cr, ha sido denominada DVI-HDTV.

Figura 4.15. Conector DVI y conectores para las señales digitales del
mismo.

El conector DVI está compuesto por dos grupos de pines. En


un extremo del conector siempre encontraremos un grupo de 24
pines en tres filas de ocho. Puede existir en el otro extremo un solo
pin central de mayor tamaño (24+1) que nos indica que el mismo
es DVI-D o digital y que sólo transmite este tipo de señales, o bien
podemos tener este mismo pin rodeado de cuatro pines añadidos
(24+5) que contienen adicionalmente la señal de vídeo analógica
por componentes RGB y que se denomina DVI-I o Integrado. En la
tabla 4.1. se detallan los diferentes tipos de conectores DVI que hay
y sus diferencias:

Nombre Conector Señal Descripción


DVI-I Single Link analógica Pin central + 4
y digital pines a la
izquierda.
Tres filas de
seis pines a la
derecha.
DVDI-I Dual Link analógica Pin central + 4
y digital pines a la
izquierda.
Tres filas de
ocho pines a
la derecha.
DVI-D Single Link digital Pin central a la
izquierda.
Tres filas de
seis pines a la
derecha.
DVI-D Dual Link digital Pin central a la
izquierda.
Tres filas de
ocho pines a
la derecha.
DVI-A analógica Pin central + 4
pines a la
izquierda.
A la derecha
una fila de
cinco pines,
otra de tres y
la última de
cuatro.
P&D analógica Pin central + 4
y digital pines a la
izquierda.
Tres filas de
diez pines a la
derecha.
Tabla 4.1. Distintos conectores tipo DVI.

4.12. Universal Serial Bus (USB)


Universal Serial Bus (USB) es un conjunto de especificaciones de
conectividad desarrollada por Intel en colaboración con los líderes de la
industria. USB permite alta velocidad y fácil conexión de periféricos a un
PC. Mientras está enchufado, todo lo que configura
es automáticamente. USB la interconexión mas exitosa en la historia de
la computación personal y ha migrado a la electrónica de consumo (CE)
y productos móviles. El símbolo de los puertos USB es como el mostrado en
la figura 4.16.

Figura 4.16 . Símbolo del puerto USB

4.12.1.The USB standard El estándar USB


Prestación de un estándar de la industria, USB fue originalmente
lanzado en 1995 a 12 Mbps. Hoy en día, USB funciona a 480 Mbps y se
encuentra en más de seis mil millones de PC, electrónica de consumo
(CE), y los dispositivos móviles con una tasa de recorrido de 2 millones de
productos USB que se envían en el mercado aumenta cada año.Además
de alto rendimiento y la ubicuidad, USB cuenta con un fuerte
reconocimiento de marca del consumidor y una reputación de facilidad
de uso.

4.12.2.USB hoy
Hoy en día, Hi-Speed USB 2.0, proporciona una mayor mejora en el
rendimiento hasta 40 veces más rápido que USB 1.0, con una tasa de
datos de diseño de hasta 480 megabits por segundo (Mbps). Además, USB
On-The-Go (OTG), un suplemento a la especificación USB 2.0, fue creado
en 2002. USB OTG define un doble dispositivo de papel, que puede actuar
como servidor o periférico, y puede conectarse a un PC u otros
dispositivos portátiles a través del mismo conector.
Dispositivos móviles tales como computadoras de mano, teléfonos
celulares y cámaras digitales que se conectan a la PC como un periférico
USB beneficio de tener mayor capacidad para conectarse a otros
dispositivos USB directamente. Por ejemplo, los usuarios pueden realizar
funciones tales como enviar fotos desde una cámara digital a una
impresora, PDA, teléfono celular o envío de archivos de música desde un
reproductor de MP3 a otro reproductor portátil, PDA o teléfono celular.

4.12.3. El paso a USB inalámbrico


Wireless USB es la extensión inalámbrica de nuevo a USB que
combina la velocidad y la seguridad de la tecnología de cableado con
la facilidad de uso de la tecnología inalámbrica. La conectividad
inalámbrica ha permitido a un estilo de vida móvil lleno de comodidades
para los usuarios de informática móvil. Tiene un gran apoyo para la
conectividad inalámbrica de alta velocidad, el USB inalámbrico utiliza el
común WiMedia Ultra-wideband (UWB) plataforma de radio desarrollado
por la WiMedia Alliance.

4.12.4. USB en el futuro


El próximo avance en la tecnología presente en todas partes es el
SuperSpeed USB (USB 3.0) que entregará más de 10 veces la velocidad
específica de Hi-Speed o USB 2.0. La tecnología tiene objetivos de
sincronización de PC para una transferencia rápida entre las
aplicaciones, para que estas satisfagan las exigencias de la
CE(Conformidad Europea) y en los segmentos móviles se centro para que
estos tengan una mayor velocidad de transmisión y recepción en la
información.

USB 3.0 va a crear un estándar compatible hacia atrás con


la misma facilidad de uso y capacidades de Plug and Play de tecnologías
USB anteriores. Dirigidas a aumentar el rendimiento a velocidades de
datos hasta los 5Gbps, la tecnología se basaría en la misma arquitectura
de USB con cable. Además, la especificación USB 3.0 será optimizada
para bajo consumo de energía y la eficiencia de protocolo mejorado.

4.12.5. La colaboración de empresas


Intel formó el USB Implementers Forum (USB-IF) en 1995, con otros
agentes del sector para apoyar y acelerar la adopción del mercado y al
consumo de los periféricos de USB compatible. Hoy en día, el USB-IF
cuenta con más de 700 empresas en todo el mundo, y el Consejo de
Administración está integrado por representantes de Hewlett-Packard,
Intel Corporation, LSI Corporation, Microsoft Corporation, NEC
Corporation, y ST-NXP Wireless. El USB-IF es una organización sin fines de
lucro creada para proporcionar una organización de apoyo y un foro
para la promoción y adopción de tecnologías de bus serie universal. El
foro facilita el desarrollo de alta calidad, compatible con periféricos USB
(dispositivos), y promueve los beneficios de los productos USB que han
superado las pruebas de cumplimiento. La figura 4.17 nos muestra las
diferencias que habrá en el USB 2.0 y la versión 3.0.

Figura 4.17. Puerto USB Versión 2.0 figura izquierda y la Versión 3.0
mostrado en la figura de la derecha.
Unidad 5. Los Procesadores

Los Procesadores

5. Los Procesadores
El procesador es el componente básico de cualquier PC. Con
el avance, cada vez más rápido, de la tecnología y gracias a que
varias empresas se están disputando el mercado se ven obligadas
a desarrollar procesadores de mejor calidad a fin de producir el
mejor rendimiento posible.

5.1 Características Básicas de los


Procesadores.
La primera cosa que nos preguntamos a la hora de comprar
un procesador es la frecuencia de trabajo, que es medida en
Megahercios (Mhz) o millones de ciclos por segundo, frecuencia
llamada de reloj y que ahora ya en la actualidad la medimos en el
termino de Gigahercios (Ghz), billones de ciclos por segundo. La
frecuencia del procesador solo nos indica cuantos ciclos de
procesamiento se realizan por segundo. Esto es debido a las
diferentes arquitecturas que estos presentan.

5.1.1 El coprocesador aritmético.


Todos los procesadores de la familia x86, son básicamente
procesadores de números enteros. Sin embargo, necesitan utilizar
valores numéricos de mayor precisión, así como funciones
matemáticas más complejas para realizar sus tareas. Este es el caso
de los programas de juegos con gráficos tridimensionales, el
procesamiento de imágenes, etc. La función del coprocesador
aritmético es justamente ayudar al procesador en el cálculo de
funciones complejas.

5.2 Del 8086 al Pentium


5.2.1. Intel 8086
Microprocesador Intel 8086 es un primer miembro de la familia de
procesadores x86. Anunciado como una "fuente de código compatible"
con Intel 8080 y 8085 de procesadores Intel, el 8086 no fue objeto de
código compatible con ellos. El 8086 completa la arquitectura de 16 bits
de los registros internos, 16-bit de datos de autobuses, y un bus de
direcciones de 20 bits (1 MB de memoria física). Debido a que el
procesador tiene registros de 16 bits y punteros índices de la memoria,
que pueden abordar eficazmente sólo 64 KB de memoria. Para la
dirección de memoria más allá de 64 KB de la CPU usa los registros de
segmento, estos registros especifican las ubicaciones de memoria para
el código, la pila, los datos y segmentos extras de 64 KB. Los segmentos
se pueden colocar en cualquier lugar de la memoria, y, en caso
necesario, los programas de usuario pueden cambiar su posición. Este
método de direccionamiento tiene una gran ventaja ya que es muy fácil
escribir código independiente de la memoria cuando el tamaño del
código, pila y los datos es menor de 64 KB cada una. La complejidad del
código y el aumento de la programación, a veces considerablemente,
cuando el tamaño de la pila, datos y el código es mayor de 64 KB.
Intel 8086 incluye un conjunto de instrucciones de algunas
instrucciones de cadena muy poderosa. Cuando estas instrucciones
tienen el prefijo REP (repeat), la CPU realiza operaciones de bloque de
movimiento de datos, compara los bloques de datos, conjunto de datos
por categorías de cierto valor, etc., que es una cadena de 8086, las
instrucciones con prefijo REP puede hacer que un bucle de instrucciones
se ejecuten las veces que sean requeridas
El 8086 ofrece soporte para microprocesadores Intel 8087
coprocesador numérico. La CPU reconoce todas las instrucciones de
punto flotante (FP). Cuando las instrucciones hacen referencia de FP en
la memoria, la CPU calcula la dirección de memoria y realiza la lectura
de una memoria ficticia, calcula la dirección y lee los datos, los cuales
son capturados por la unidad de punto flotante (FPU). Cuando el CPU
pasa a la siguiente instrucción, la FPU ejecuta la instrucción de punto
flotante. De esta manera, los números enteros y de instrucción de punto
flotante se pueden ejecutar simultáneamente gracias a este
mecanismo.
La CPU original de Intel 8086 ha sido fabricada utilizando la
tecnología de HMOS. Más tarde, Intel introdujo las versiones 80C86 y
80C86A CHMOS. Enseguida se muestra como era la apariencia de dicho
procesador en la figura 5.1.

FIGURA 5.1. PROCESADOR INTEL 8086

5.2.2. Intel 8088


El microprocesador Intel 8088 fue lanzado en 1979, o un año
después de la CPU Intel 8086.Ambos procesadores tienen la misma
arquitectura, y la única diferencia de la CPU del 8088 al de los 8086 es el
ancho del bus de datos externos, ya que se redujo de 16 bits a 8 bits. La
CPU 8088 utiliza dos ciclos consecutivos de bus para leer y escribir 16 bits
de datos en lugar de un ciclo de bus para el 8086, que hace que el
procesador 8088 sea más lento. Como los cambios de hardware eran
más caros que la CPU 8088, Intel desarrollo los procesadores 8080/8085
compatible con chips de soporte. Este fue un factor importante en la
elección del procesador 8088 de la línea de ordenadores IBM, porque
en ese momento los chips de 8 bits eran más baratos que los chips de 16
bits, y no había mejor selección que los chips de 8 bits.
El microprocesador 8088 tiene registros de 16 bits; 16 bits de datos
internos en el bus y un bus de direcciones de 20 bits, lo que permite que
el procesador direccionara la información hasta 1 MB en la memoria. El
8088 utiliza la memoria segmentada que se abordan en el 8086: el
procesador puede abordar 64 KB de memoria directamente, y para
hacer frente a más de 64 KB de memoria de la CPU, tiene que romper la
actualización en algunas partes.
Al igual que en el microprocesador 8086, el 8088
admite el coprocesador numérico Intel 8087. La CPU reconoce todas las
instrucciones de punto flotante (FP), y, cuando sea necesario, calcula la
dirección de memoria para la instrucción operando FP y no una lectura
de memoria ficticia. La FPU captura la dirección calculada y,
posiblemente, los datos, y procede a ejecutar la instrucción FP. La CPU
al mismo tiempo, comienza a ejecutar la siguiente instrucción. Así, los dos
enteros y de instrucciones de punto flotante se pueden ejecutar
simultáneamente. El microprocesador original Intel 8088 ha sido
fabricado utilizando la tecnología de HMOS. También hubo versiones
CHMOS del chip 80C88 y 80C88A. Estos microprocesadores tenían un
consumo de energía mucho más baja. La figura 5.2. muestra dicho
procesador.

FIGURA 5.2. INTEL 8088

5.2.3. Intel 80186.


Microprocesador Intel 80186, a veces llamado i186, es una versión
mejorada del procesador Intel 8086 de 16 bits. El código objeto es
totalmente compatible con el 8086, la 80186 integra muchos
componentes del sistema en un chip, agregó 7 nuevas instrucciones, y
añadió nuevos tipos de operando a tres existentes de las instrucciones
del Intel 8086. Con la excepción de los componentes integrados, el
microprocesador Intel 80186 no es muy diferente del 8086, y, por ello, la
80186 puede ser considerada como una versión integrada de
8086. Aunque el Intel 80186 no fue ampliamente utilizado en los
ordenadores como los 8086 y 80286 lo que fue un éxito en el mercado de
procesadores, fue tan exitoso, que diferentes versiones del procesador se
introdujeron durante los últimos 20 años 80C186 , 80186EA, 80186EB, etc.
En este momento (septiembre de 2006) algunas de estas versiones están
todavía en producción. La figura 5.3 nos muestra el procesador 80186.
FIGURA 5.3. INTEL 80186.

5.2.4. INTEL 80188.

El microprocesador Intel 80188 es una versión mejorada


del procesador Intel 8088. Al igual que el 8088, el 80188 tiene
arquitectura de 16 bits internos y 8 bits externos en el bus de datos.
Con la excepción de los componentes integrados, el
microprocesador 80188 no es muy diferente del 8088, y, por ello,
puede considerarse como una versión integrada de los 8088. El
procesador Intel 80188 ni siquiera tenía su propia versión de
coprocesador; no fue muy utilizado en las computadoras pero fue
tan exitoso, que versiones diferentes del procesador fueron
introducidos por Intel y otras compañías desde1982 el 80C188,
80188EA, 80188EB, etc. En este momento (noviembre de 2004)
algunas de estas versiones están todavía en producción. En la
figura 5.4. nos muestra dicho procesador.

FIGURA 5.4. INTEL 80188.

5.2.5. Intel 80286.


La segunda generación de procesadores x86 de 16-bits, Intel 80286,
fue lanzado en 1982. La nueva característica importante del
microprocesador 80286 fue el modo protegido. Cuando se cambia a
este modo, la CPU puede direccionar hasta 16 MB de memoria de
funcionamiento. En el modo protegido era posible proteger la memoria
y otros recursos del sistema de programas para usuarios; esta
característica es necesaria para la multitarea de programa real. Hay
muchos sistemas operativos que utiliza el 80286 en modo protegido: OS /
2 1.x, Venix, SCO Xenix 286, y otros. Si bien este modo es útil para sistemas
operativos multitarea, es de uso limitado para los sistemas que requiere
la ejecución de los programas existentes x86. El modo protegido no
puede ejecutar varios programas virtualmente, y había otras
limitaciones, así:

• 80286 es un microprocesador de 16 bits. Aunque en modo


protegido la CPU puede direccionar hasta 16 MB de
memoria, esto se llevó a cabo utilizando los segmentos de
memoria. El tamaño máximo de segmento de memoria era
todavía 64 KB.
• No había manera rápida y fiable para volver al modo real
desde el modo protegido.

Actualmente, el 80286 en modo protegido no sea utilizado por los


sistemas operativos x86. Todos los sistemas operativos modernos de 32
bits son basados en el uso en modo protegido 80386 que fue presentado
por la próxima generación de procesadores Intel x86.La figura
5.5 muestra el Intel 80286.

FIGURA 5.5. INTEL 80286

5.2.6. Intel 80376


Intel 80376 (i376) es un microprocesador de 32 bits integrados,
basado en la microarquitectura Intel 80386. Funcionalmente, el i376
está muy cerca de Intel 80386SX de la CPU. Al igual que el 80386SX,
el 80376 tiene datos de 16-bit de bus y bus de direcciones de 24-
bits. El 376 sólo funciona en 32 bits en modo protegido y no soporta
otros modos presentes en microprocesadores 80386SX y 80386DX. El
procesador tiene una unidad de gestión de memoria (MMU) que
proporciona la traducción de direcciones lógicas y protección,
pero no admite la paginación. Como resultado, el i376 CPU no
puede ejecutar ningún programa en modo real o programas que
requieren de paginación, pero puede ejecutar programas de 32
bits. Todos los programas diseñados para la 80376 puede ser
ejecutado en la CPU 80386SX/80386DX sin cambios. El rendimiento
del microprocesador 80376 está a la par con 80386SX funcionando
a la misma frecuencia. La figura 5.6 muestra el procesador Intel
80376.

FIGURA 5.6. INTEL 80376.

5.2.7. Intel 80386.


La tercera generación de microprocesadores x86, fue el Intel 80386
(i386) un microprocesador de 32 bits compatible con generaciones
anteriores de procesadores 80x86. De las principales características
nuevas en el i386 CPU era en modo protegido 80386, este modo fijó
muchas deficiencias que existían en el procesador el 80286 en modo
protegido:

• El 80386 incluye el modo de juego completo de registros de


32 bits y de instrucciones de 32 bits.
• Aunque en este modo la CPU todavía se utiliza la arquitectura
del segmento de memoria similar a la presente en anteriores
microprocesadores x86, el tamaño de los segmentos de
memoria se aumentó a 4 GB. Esto simplifica el desarrollo de
software de 32-bits, y en la mayoría de los casos podría
ejecutar aplicaciones sin tener que preocuparse acerca de
los segmentos de memoria de conmutación.

Otro nuevo modo en el 80386 de CPU era el modo virtual 8086. En este
modo, la CPU puede ejecutar las aplicaciones que ejecutaba el 8086
mientras que proporciona la protección necesaria de la memoria y otros
recursos. La introducción de este modo y 80386 en modo protegido se
paso muy significativamente. Todos los sistemas operativos de 32 bits
basados en el uso de estos modos de ejecución heredada de 16 bits y
para aplicaciones más modernas de 32 bits.
Hubo diferentes versiones de los 80386 CPU:
• 80386DX - esto podría trabajar con la CPU de 16 bits y 32 bits
de buses externos automáticos.
• 80386SL - microprocesadores de bajo poder con
características de administración de energía, con 16 bits de
bus de datos externos y 24 bits de bus de direcciones
externas. El procesador incluye un controlador de bus ISA,
controlador de memoria y controlador de memoria caché.
• Procesadores integrados 80376 y 80386EX.

El procesador Intel 80386 se produjo a velocidades de hasta 33 MHz,


AMD produce aún más rápido ya que tiene una versión de 40 MHz. la
figura 5.7 nos muestra el procesador 80386.

FIGURA 5.7. INTEL 80386.

5.2.8. Intel 80486


El sucesor del procesador del 80386, Intel 80486 (i486) incluyó
muchos cambios en la microarquitectura que resultaron importantes
mejoras de rendimiento:
• El tiempo de ejecución de instrucciones se redujo
significativamente. Muchos de carga, el almacenamiento y las
instrucciones de la aritmética ejecutado en un solo ciclo
(suponiendo que los datos que ya estaba en la memoria
caché).
• Intel 486 destaco en el traslado de información más rápida
entre los buses, 1 ciclo de la CPU en lugar de dos o más ciclos
de CPU para el bus 80386.
• Se integro la Unidad de punto flotante en el CPU
80486DX. Todas las instrucciones de punto flotante se
optimizaron ya que se requiere un menor número de ciclos de
CPU para ejecutar.
• Reloj de duplicación y triplicación introducido en las
versiones más rápidas de la CPU Intel 80486. Estos procesadores
i486 podría correr en las placas bases existentes de 20 a 33 MHz
de frecuencia de bus, mientras se ejecuta internamente en dos
o tres veces de la frecuencia del bus.
• Características de administración de energía y el Sistema
en Modo de Administrador (SMM del ingles System
Management Mode ) se convirtió en una característica
estándar del procesador.
Los microprocesadores Intel 80486 producía velocidades de hasta
100 MHz. AMD produce aún más rápido con versiones de 120 y 133 MHz
de la 80486, y fabricado en pequeñas cantidades, de 150 MHz y,
posiblemente, versiones de 166 MHz. La figura 5.8. muestra el procesador.

FIGURA 5.8. INTEL 80486.

5.2.9. Intel Pentium


La quinta generación de la familia x86 de Intel
microprocesador Pentium fue el primer procesador x86 súper
escalar. El procesador incluye dos unidades enteras "pipeline", que
podría ejecutar hasta dos instrucciones por ciclo entero de la
CPU. Rediseñada la unidad de punto flotante mejoro
considerablemente el rendimiento de operaciones de punto
flotante y podría ejecutar varias instrucciones por ciclo de FP de la
CPU. Otras mejoras del Pentium son:

• Para mejorar la transferencia de datos del tamaño de bus de


datos se incrementó a 64 bits.
• El tamaño de los datos y los caches L1 de código se duplicó
en los procesadores Pentium con tecnología MMX.
• Intel Pentium utiliza la predicción de saltos para mejorar la
eficacia de la arquitectura de canalización.
• Muchos Pentium podrían trabajar en sistemas de procesador
dual.
• Para reducir el consumo de energía de la CPU el voltaje
principal se redujo en todos los Pentium MMX.
• Fue producida para computadoras móviles, de escritorio, y
procesadores integrados.
• Las características de administración de energía y el Sistema
en Modo de Administrador (SMM) se convirtieron en una
característica estándar del procesador.

La figura 5.9 nos muestra el procesador Intel Pentium.

FIGURA 5.9. INTEL PENTIUM.

Las versiones posteriores de los procesadores Pentium


Pentium MMX incluye 57 nuevas instrucciones. Estas instrucciones
pueden utilizarse para acelerar el procesamiento de aplicaciones
multimedia y de comunicación. Al igual que los procesadores
Pentium, la CPU MMX Pentium también se produjeron en tres
versiones diferentes de sobremesa, móviles y procesadores
integrados.

5.3. Los Nuevos Procesadores.


Intel ha sido el numero uno de los fabricantes de
microprocesadores durante décadas; la evolución de su
microprocesador más representativo es un buen indicador de la
evolución de la tecnología de los computadores. La tabla 5.1
muestra la evolución de Intel desde el procesador Intel 8080 al
Pentium III y al Merced .

Procesador Descripción
8080 Era una maquina de 8 bits, con datos de memoria
de 8 bits
8086 Una maquina de 16 bits, mucho más potente.
Además de un camino de datos más ancho y
registros más grandes, el 8086 tenía un cache de
instrucción, o cola, que pre captaba algunas
instrucciones antes de ser ejecutadas.
80286 Esta ampliación del 8086 permitía redireccionar una
memoria de 16MBytes en lugar de un solo Mbyte.
80386 Fue la primera maquina de Intel con 32 bits, y
constituyo una gran revisión del modelo anterior.
Con una arquitectura de 32 bits, el 80386 rivalizaba
en complejidad y potencia con los
minicomputadores y grandes computadores
introducidos en el mercado pocos años antes.
80486 El 80486 introduce el uso de tecnología de cache
mucho mas sofisticada y potente, e instrucciones de
segmentación de cauce sofisticadas.
Pentium En el Pentium, Intel introduce el uso de técnicas
súper escalares, que permiten que varias
instrucciones se ejecuten en paralelo.
Pentium En el Pentium Pro continuo la tendencia iniciada
Pro con el Pentium hacia la organización súper escalar,
con el uso agresivo del renombrado de registros,
predicción de ramificaciones, análisis del flujo de
datos y ejecución especulativa.
Pentium II En el Pentium II se incorporo la tecnología Intel MMX,
que se diseño específicamente para procesar de
forma eficiente datos de video, audio y gráficos.
Pentium III El Pentium III incorpora instrucciones adicionales en
punto flotantes para procesar software de gráficos
3D.
Merced Esta nueva generación de procesadores Intel usa
organización de 64 bits.

Tabla 5.1 Evolución de Productos Intel

5.3.1. Intel Pentium II

Intel Pentium II como el de la figura 5.10 se basa en la sexta


generación de procesadores x86. La línea de procesadores Intel Pentium
II se compone de 6 familias diferentes:

• Pentium Pro - versión de alto desempeño. La familia Pentium


Pro fue sustituida por la familia de Pentium II Xeon.
• Pentium II - de la familia de escritorio.
• Mobile Pentium II - versión móvil de procesador Pentium II.
• Pentium II Xeon - versión de alto rendimiento.
• Desktop Celeron - versión de bajo costo.
• Mobile Celeron - versión móvil de procesador Intel Celeron.
FIGURA 5.10. INTEL PENTIUM PRO.

5.3.2. Intel Celeron.


Todos los procesadores Intel Celeron se basaron en el
paquete PPGA en el núcleo de Mendocino. Mendocino fue el
primer núcleo Intel x86 con caché de nivel 2 integrada con el
núcleo. En el núcleo había sólo 128 KB de caché de nivel 2, pero de
menor tamaño de caché, fue parcialmente compensado por una
mayor velocidad de memoria caché que se ejecuta dos veces más
rápido que el Pentium II nivel 2 de caché. El núcleo de Mendocino
no requieren chips de memoria de caché externa, por lo que
podría caber en las pequeñas y baratas del paquete Plastic Pin Grid
Array (PPGA). Para trabajar con el paquete PPGA Celeron Intel
diseñó sockets de 370 pines, o PGA370. Dicho procesador Celeron
se muestra en la figura 5.11.

FIGURA 5.11. INTEL CELERON.

5.3.3. Intel Timna.


La familia de microprocesadores Timna fue anunciado por
Intel en 1999. Timna fue planeado como un microprocesador de
bajo costo con gráficos integrados y la unidad de controlador de
memoria diseñado para trabajar con la memoria Rambus. Como
el precio de la memoria Rambus no bajo, Intel decidió utilizar un
chip de puente (Memoria de Traducción Hub o MTH), que ya se
usaba con el chipset Intel 820, para enlazar con el controlador de
memoria Rambus de memoria SDRAM menos costosa. Cuando un
grave error fue descubierto en el diseño MTH en el primer semestre
de 2000, Intel recordó el MTH y la liberación Timna retrasado hasta
el primer trimestre de 2001. Después de eso, la empresa comenzó el
rediseño del integrado a partir de cero, pero debido a los continuos
problemas con el recientemente renovado MTH, la familia de Timna
fue cancelada el 29 de septiembre de 2000. En la figura 5.12. se
muestra el Intel Timna.

FIGURA 5.12. INTEL TIMNA.

5.3.4. Intel Pentium III.


Familia de microprocesadores Pentium III fue una actualización
evolutiva de los Pentium II. El primer núcleo Pentium III, Katmai, presentó
el conjunto de instrucciones SSE, que permitió que las aplicaciones
procesaran hasta cuatro números de un solo punto flotante de precisión
a la vez. Otros núcleos de Pentium III añade otras características, como
256 y 512 KB memoria caché L2 y el menor tamaño del paquete. Durante
su vida, el núcleo de los microprocesadores Pentium III fue reducido en
dos ocasiones de 0,25 micras a 0,18 micras, y luego a 0,13 micrones.
Al igual que la generación anterior de procesadores x86, la familia
de Pentium III consta una familia de los cuales están:

• Pentium III Xeon .- Versión de alto rendimiento.


• Los procesadores de escritorio Pentium III .- Equipos de
escritorio.
• Desktop Celeron .- Versión de bajo costo.
• Mobile Pentium III y Pentium III Mobile M.- Versiones móviles
del procesador Pentium III.
• Mobile Celeron .- Versión móvil de procesador Intel Celeron.

FIGURA 5.13. INTEL PENTIUM III.

5.3.5. Intel Pentium IV.


Los microprocesadores Intel Pentium IV se basaron en la nueva
micro arquitectura NetBurst, que difiere significativamente de la
arquitectura P6 micro utilizado en la familia de procesadores
Intel Pentium II / Pentium III. Una de las características clave del
procesador Pentium IV es la tecnología Hyper-Threadind, que era dos
veces más que en la generación anterior de procesadores
Pentium. Mientras que las tuberías ya son menos eficaces que los más
cortos, que permiten a la CPU para llegar a frecuencias más altas, y así
aumentar el rendimiento de la CPU. Para mejorar la eficiencia de la
tubería muy profunda, los procesadores Pentium IV incluyeron otras
características como: Execution Trace Cache, Advanced Transfer
Cache, Enhanced predicción de saltos, Quad Data Rate bus y la
tecnología Hyper-Threading. Las versiones posteriores de los
procesadores Pentium IV también se incluye el conjunto de instrucciones
SSE3 y un conjunto completo de instrucciones de 64 bits (EM64T).
Intel Pentium 4 de la familia de microprocesadores consiste en las
siguientes familias:

• Xeon y Xeon MP - Versiones de alto rendimiento.


• Pentium IV - Fondos de la CPU.
• Mobile Pentium IV y Mobile Pentium IV-M - Versiones móviles
de la CPU.
• Celeron - Versión de bajo costo.
• Mobile Celeron - Versión móvil del bajo costo del procesador
Pentium IV.

Todos los procesadores Pentium IV de marca tienen un solo núcleo de


la CPU. Microprocesadores de doble núcleo basado en la
microarquitectura NetBurst se marca como Pentium D.

Mobile Pentium IV como el de la figura 5.14 fue la última


generación de microprocesadores móviles con microarquitectura
NetBurst. Los microprocesadores móviles se basan en dos núcleos
de procesador Intel Pentium 4 Northwood y Prescott. A pesar de
estos procesadores tenía el mismo poder características de ahorro
de los microprocesadores Pentium 4M, el consumo de energía de
estos procesadores fue significativamente más alto que la de
procesadores Mobile Pentium 4 M. De hecho, el consumo de
energía de Prescott-Mobile Pentium 4 tuvo un consumo de energía
tan alto, que difícilmente podría ser considerado un procesador
para computadoras portatiles.

FIGURA 5.14. INTEL PENTIUM IV.

5.3.6. Pentium D
La primera generación de procesadores Pentium D como el
mostrado en la figura 5.15 fue construido en el núcleo Smithfield,
que era esencialmente dos Prescott Pentium 4 en un solo
paquete. Como era de esperar, muchas características del
procesador Pentium D fueron los mismos que en la línea del
procesador Pentium 4. En cada núcleo del Pentium D había un
rastro de caché de instrucción, con aproximadamente 12 mil micro
operaciones, de nivel 16 de 1 KB de caché de datos y 1 MB de nivel
2 de caché. El procesador Pentium D con el núcleo de Smithfield se
ofrecían en las frecuencias de hasta 3,2 GHz y que el consumo de
energía era notablemente superior al procesador Pentium 4. Los
microprocesadores Pentium D fueron fabricados en la tierra del
paquete LGA 775, y que por lo general compatible con socket 775.

FIGURA 5.15. INTEL PENTIUM D.

5.3.7. Intel Core Solo.


De la familia de microprocesadores Intel Core Solo, es una
familia de procesadores de núcleo único, basados en la mejora de
móviles (Pentium M). Los microprocesadores Core Solo como el
mostrado en la figura 5.16 tiene todas las características de base
de los Pentium M Dothan: 32 KB de instrucciones y datos de caché
de nivel 1, nivel 2 de caché de 2 MB, soporte para instrucciones SSE
y SSE2, y el ahorro notable de energía. Los Microprocesadores Core
Solo también incluyen la tecnología de virtualización y soporte para
las instrucciones SSE3.

FIGURA 5.16. INTEL CORE SOLO


5.3.8. Intel Core Duo.
Intel Core Duo es una familia de procesadores dual-core
móvil basándose en la microarquitectura de los procesadores para
móviles (Pentium M). Core Duo integra dos núcleos, mientras que
cada núcleo tiene su propio nivel de 32 KB, uno de los núcleos como
administrador de instrucciones y otro de ellos como los datos de
caché, ambos comparten los mismos núcleos de 2 MB de caché
de nivel. Las nuevas características de los microprocesadores Core
Duo son el conjunto de instrucciones SSE3 y tecnología de
virtualización. La figura 5.17 nos muestra este procesador.

FIGURA 5.17. INTEL CORE DUO.

5.3.9. INTEL CORE 2 DUO.

La última generación de procesadores Intel compatibles con


x86, de la familia de microprocesadores Core 2 Duo, fue
presentado el 27 de julio del 2006. Los procesadores Core 2 Duo
incluyen dos núcleos, cada núcleo tiene 32 KB de datos de nivel 1
y 32 KB de código caché en nivel 1. El CPU Core 2 Duo funciona a
menor frecuencia que los procesadores Pentium IV, pero ofrecen
un rendimiento excelente gracias a la arquitectura más eficiente:

• El núcleo de cada procesador puede ejecutar hasta 4


instrucciones por ciclo.
• Caché L2 compartida permite a la misma copia de los datos
a ser utilizados por ambos núcleos. Otra ventaja de caché en
nivel 2 compartida es que el núcleo más cargado puede usar
más cantidad de caché en nivel 2 hasta el tamaño de la
caché.
• Las instrucciones SSE de 128 bits se pueden ejecutar al ritmo
sostenido de un 128-bits de instrucciones por ciclo.

La arquitectura Core 2 Duo incluye otras funciones que


mejoran el rendimiento. Una de estas características es una
"macrofusion". Esta característica permite que el procesador
pueda cargar y ejecutar pares de instrucciones comunes como
una instrucción.
En general, a pesar de la menor frecuencia del procesador,
el rendimiento del Core 2 Duo de la familia es mucho mayor que
el rendimiento del Pentium IV. Core 2 Duo E6600 y procesadores
E6700 tienen una potencia de diseño térmico de 65 vatios, mientras
que es menos eficiente el Pentium iv Extreme Edition a 3,73 GHz
que tiene potencia de diseño térmico de 115 vatios. Dicho
procesador se muestra en la figura 5.18.

FIGURA 5.18. INTEL CORE 2 DUO.

5.3.10. Intel Atom


Los primeros miembros de esta familia, Z 5XX CPU, se introdujeron en
abril de 2008. Los microprocesadores Intel Atom tienen las siguientes
características:

• 32 KB de caché de instrucciones y 24 KB de datos almacena


en caché.
• 512 KB nivel 2 de caché.
• Bombeo cuaternario desde un lado del bus, funcionando de
manera efectiva a 400 o 533 Mhz.
• Soporte para todas las extensiones SIMD hasta SSE3 y de
consulta SSE3.

Algunos procesadores Atom también incluye las tecnologías de


virtualización y HyperThreading. Hasta septiembre del 2008 sólo dos
procesadores podían funcionar en modo de 64 bits.
Diseñado para el consumo de energía muy bajo, los procesadores
Atom incorporan muchas características de baja potencia utilizados
en la base 2 de microprocesadores, como C1, C2, C4 y de los Estados
C6, la tecnología Enhanced SpeedStep y el tamaño de caché
dinámico. Asimismo, los procesadores utilizan el poder de muchas
nuevas características de ahorro, la sincronización del reloj, de energía,
y otros. Como resultado, las CPUs Atom tienen mucha menor potencia
de diseño térmico (TDP) de la generación anterior de microprocesadores
de ultra-baja potencia. Todos los microprocesadores Atom son
fabricadas en pequeño factor de forma de micro paquete FCBGA
13mm x 14mm para la serie Z 5XX y 22mm x 22mm para todos los demás.

5.3.11. Intel Core i5


Intel Core i5, previsto para ser lanzado en septiembre de 2009, es
una familia de procesadores con un rendimiento de nivel medio en
comparación con el Core i7. Los procesadores i5 incluyen características
que podemos encontrar en las CPUs Core i7 Nehalem; matriz única de
cuatro centrales de diseño, en chip controlador de memoria DDR3, el
protocolo punto a punto utilizado para comunicarse con dispositivos de
entrada/salida, 256 KB nivel 2 de caché (por núcleo), 8 de nivel 3 MB de
caché de instrucciones SSE4, y soporte para características tales como
la tecnología de virtualización y la tecnología Turbo Boost.
Los microprocesadores son de doble controlador de memoria de
canal en lugar de triple controlador de canal en Nehalem CPU. Los
procesadores i5 no son compatibles con tecnología Hyper-Threading.
Los microprocesadores Intel Core i5 están empaquetados en un arreglo
de red en tierra (LGA del ingles Land Grid Array), y requieren placas
madres socket 1156.
Unidad 6. Los Componentes

Los Componentes

6. Los Componentes

6.1. La Memoria RAM.


La memoria principal o RAM (acrónimo de Random Access
Memory, Memoria de Acceso Aleatorio) es donde el ordenador guarda
los datos que está utilizando en el momento presente.

Físicamente, los chips de memoria son rectángulos negros que


suelen ir soldados en grupos a unas plaquitas con "pines" o contactos,
algo como lo que se muestra en la figura 6.1.:

FIGURA 6.1. MEMORIA RAM


La diferencia entre la RAM y otros tipos de memoria de
almacenamiento, como los disquetes o los discos duros, es que la RAM es
mucho más rápida, y que se borra al apagar el ordenador, no como
éstos.

6.1.1. Tipos de RAM


• DRAM: Dinamic-RAM, o RAM a secas, ya que es "la
original", y por tanto la más lenta (aunque recuerde: siempre
es mejor tener la suficiente memoria que tener la más
rápida, pero andar escasos). Usada hasta la época del 386,
su velocidad de refresco típica es de 80 ó 70 nanosegundos
(ns), tiempo que tarda en vaciarse para poder dar entrada
a la siguiente serie de datos. Por ello, es más rápida la de 70
ns que la de 80 ns. Físicamente, aparece en forma de DIMMs
o de SIMMs, siendo estos últimos de 30 contactos.

• Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"),


puesto que evoluciona directamente de ella, y se usa desde
hace tanto que pocas veces se las diferencia. Algo más
rápida, tanto por su estructura (el modo de Página Rápida)
como por ser de 70 ó 60 ns. Usada hasta con los primeros
Pentium, físicamente aparece como SIMMs de 30 ó 72
contactos (los de 72 en los Pentium y algunos 486).

• EDO: o EDO-RAM, Extended Data Output-


RAM. Evoluciona de la Fast Page; permite empezar a
introducir nuevos datos mientras los anteriores están
saliendo, lo que la hace algo más rápida (un 5%, más o
menos).
Muy común en los Pentium MMX y AMD K6, con refrescos de
70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72
contactos, aunque existe en forma de DIMMs de 168.

• SDRAM: Sincronic-RAM. Funciona de manera


sincronizada con la velocidad de la placa (de 50 a 66 MHz),
para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se
presenta en forma de DIMMs de 168 contactos; es usada en
los Pentium II de menos de 350 MHz y en los Celeron.

• PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de


funcionar a esos 100 MHz, que utilizan los AMD K6-2, Pentium
II a 350 MHz y micros más modernos; teóricamente se trata
de unas especificaciones mínimas que se deben cumplir
para funcionar correctamente a dicha velocidad, aunque
no todas las memorias vendidas como "de 100 MHz" las
cumplen...

• PC133: o SDRAM de 133 MHz. La más moderna (y


recomendable).

6.1.2. SIMMs y DIMMs


Se trata de la forma en que se juntan los chips de memoria, del tipo
que sean, para conectarse a la placa base del ordenador. Son unas
plaquitas alargadas con conectores en un extremo; al conjunto se le
llama módulo.

• El número de conectores depende del bus de datos del


microprocesador, que más que un autobús es la carretera por la
que van los datos; el número de carriles de dicha carretera
representaría el número de bits de información que puede
manejar cada vez.

• SIMMs: Single In-line Memory Module, con 30 ó 72


contactos. Los de 30 contactos pueden manejar 8 bits cada vez,
por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits,
necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm
(30 c.) ó 10,5 cm (72 c.) y sus zócalos suelen ser de color blanco.
Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo
que se usan de 1 en 1 en los 486; en los Pentium se haría de 2 en 2
módulos (iguales), porque el bus de datos de los Pentium es el
doble de grande (64 bits).

• DIMMs: más alargados (unos 13 cm), con 168 contactos y en


zócalos generalmente negros; llevan dos muescas para facilitar su
correcta colocación. Pueden manejar 64 bits de una vez, por lo
que pueden usarse de 1 en 1 en los Pentium, K6 y superiores. Existen
para voltaje estándar (5 voltios) o reducido (3.3 V).

Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM
pero con frágiles patitas soldadas y que no se usan desde hace bastantes
años, o cuando toda o parte de la memoria viene soldada en la placa
(caso de algunos ordenadores de marca).

6.1.3. Otros tipos de RAM


• BEDO (Burst-EDO): una evolución de la EDO, que envía ciertos
datos en "ráfagas". Poco extendida, compite en prestaciones con
la SDRAM.

• Memorias con paridad: consisten en añadir a cualquiera de los


tipos anteriores un chip que realiza una operación con los datos
cuando entran en el chip y otra cuando salen. Si el resultado ha
variado, se ha producido un error y los datos ya no son fiables.
Dicho así, parece una ventaja; sin embargo, el ordenador sólo
avisa de que el error se ha producido, no lo corrige. Es más, estos
errores son tan improbables que la mayor parte de los chips no los
sufren jamás aunque estén funcionando durante años; por ello,
hace años que todas las memorias se fabrican sin paridad.

• ECC: memoria con corrección de errores. Puede ser de


cualquier tipo, aunque sobre todo EDO-ECC o SDRAM-ECC.
Detecta errores de datos y los corrige; para aplicaciones
realmente críticas. Usada en servidores y mainframes.

• Memorias de Vídeo: para tarjetas gráficas. De menor a mayor


rendimiento, pueden ser: DRAM -> FPM -> EDO -> VRAM -> WRAM -
> SDRAM -> SGRAM.

6.2. Discos Duros.


Un disco duro o disco rígido (en inglés hard disk drive) es un
dispositivo no volátil, que conserva la información aun con la
pérdida de energía, que emplea un sistema de grabación
magnética digital. Dentro de la carcasa hay una serie de platos
metálicos apilados girando a gran velocidad. Sobre los platos se
sitúan los cabezales encargados de leer o escribir los impulsos
magnéticos. Hay distintos estándares para comunicar un disco duro
con la computadora; las interfaces más comunes son Integrated
Drive Electronics (IDE, también llamado ATA) , SCSI generalmente
usado en servidores, SATA, este último estandarizado en el
año 2004 y FC exclusivo para servidores. En la figura 6.2. se muestra
como es un disco duro.
FIGURA 6.2. DISCO DURO

También existe otro tipo de discos denominados de estado


sólido que utilizan cierto tipo de memorias construidas
con semiconductores para almacenar la información. El uso de
esta clase de discos generalmente se limitaba a
las supercomputadoras, por su elevado precio, aunque hoy en día
ya se puede encontrar en el mercado unidades mucho más
económicas de baja capacidad (hasta 512[1] GB) para el uso en
computadoras personales (sobre todo portátiles). Así, el caché de
pista es una memoria de estado sólido, tipo memoria RAM, dentro
de un disco duro de estado sólido.

6.2.1. Direccionamiento
Como mostramos en figura 6.3 nos muestra el cilindro la
pista y los sectores del disco duro, asi mismo en la figura 6.4.
muestra como el disco duro es dividido en sectores.
FIGURA 6.3. CILINDRO, CABEZA Y SECTOR

FIGURA 6.4. PISTA (A), SECTOR (B), SECTOR DE UNA PISTA (C), CLUSTER (D)

Hay varios conceptos para referirse a zonas del disco:

• Plato: cada uno de los discos que hay dentro del disco duro.
• Cara: cada uno de los dos lados de un plato.
• Cabeza: número de cabezales;
• Pista: una circunferencia dentro de una cara; la pista 0 está
en el borde exterior.
• Cilindro: conjunto de varias pistas; son todas las
circunferencias que están alineadas verticalmente (una de
cada cara).

• Sector : cada una de las divisiones de una pista. El tamaño


del sector no es fijo, siendo el estándar actual 512 bytes.
Antiguamente el número de sectores por pista era fijo, lo
cual desaprovechaba el espacio significativamente, ya que
en las pistas exteriores pueden almacenarse más sectores
que en las interiores. Así, apareció la
tecnología ZBR (grabación de bits por zonas) que aumenta
el número de sectores en las pistas exteriores, y usa más
eficientemente el disco duro.

El primer sistema de direccionamiento que se usó fue


el CHS (cilindro-cabeza-sector), ya que con estos tres valores se
puede situar un dato cualquiera del disco. Más adelante se creó
otro sistema más sencillo: LBA (direccionamiento lógico de
bloques), que consiste en dividir el disco entero en sectores y
asignar a cada uno un único número. Este es el que actualmente
se usa.

6.2.2. Tipos de conexión

Si hablamos de disco rígido podemos citar a los distintos


tipos de conexión que poseen los mismos con la placa madre, es
decir pueden ser SATA, IDE o SCSI.

• IDE: Integrated Device Electronics ("Dispositivo con electrónica


integrada") o ATA (Advanced Technology Attachment), controla
los dispositivos de almacenamiento masivo de datos, como los
discos duros y ATAPI (Advanced Technology Attachment Packet
Interface) Hasta hace poco, el estándar principal por su
versatilidad y relación calidad/precio.

• SCSI: Son discos duros de gran capacidad de almacenamiento


. Se presentan bajo tres especificaciones: SCSI Estándar (Standard
SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI).
Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad
de transmisión secuencial de información puede alcanzar
teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps
en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-
Rápidos (SCSI-2).

• Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o


7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A
diferencia de los discos IDE, pueden trabajar asincrónicamente con
relación al microprocesador, lo que los vuelve más rápidos.

• SATA (Serial ATA): Nuevo estándar de conexión que utiliza un


bus serie para la transmisión de datos. Notablemente más rápido y
eficiente que IDE. A partir del 2004 contamos con dos versiones,
SATA 1 de hasta 1,5 Gigabits por segundo (192 MB/s) y SATA 2 de
hasta 3,0 Gb/s (384 MB/s) de velocidad de transferencia. Se está
desarrollando SATA III, a 6 Gb/s, que incluye una velocidad de 6.0
Gb/s estándar, pero que no entrará en el mercado hasta finales del
2009.

6.3. Discos Flexibles o Disquetes (floppy disk)


Son de menor capacidad que los discos duros, pero debido
a su fácil transportabilidad, permiten el intercambio de información
entre un ordenador y otro. Cada ordenador puede tener o no
unidad de disquete. Los disquetes tienen una apariencia similar
como la que se muestra en la figura 6.5.

FIGURA 6.5. FLOPPY

Existen dos tipos en los que infiere su tamaño y capacidad:

 Unidades de disco flexible 5’’25: Fueron las primeras unidades de


disco utilizadas en los ordenadores PC.

 Unidades de disco flexible 3’’5: Debido a si pequeño tamaño,


rigidez y mayor capacidad ha hecho que sea el tipo de disco
flexible que se ha estado utilizando en estos días antes de la llegada
de las memorias USB que mas a continuación hablaremos sobre
ellas.

En la tabla 6.1. se muestran las diferentes tipos de floppies que


difieren en su capacidad y numero de caras.

Unidad Capacidad Características


160 KB Una cara
180 KB Una cara
320 KB Doble cara
360 KB Baja densidad doble
5’’25 cara
1’2 MB Alta densidad doble
cara
720 KB Baja densidad (DD) –
doble cara
1’4 MB Alta densidad (HD) –
doble cara
3’’5 2’88 MB Extra densidad (ED) –
doble cara

Tabla 6.1. Distintos Tipos de Floppies y sus características.

6.3.1. Unidades ZIP


La unidad Iomega Zip, llamada también unidad Zip mostrada en
la figura 6.6, es un dispositivo o periférico de almacenamiento, que
utiliza discos Zip como soporte de almacenamiento; dichos soportes son
del tipo magneto-óptico, extraíbles de media capacidad, lanzada
por Iomega en 1994. La primera versión tenía una capacidad de 100 MB,
pero versiones posteriores lo ampliaron a 250 y 750 MB. Se convirtió en el
más popular candidato a suceder al disquete de 3,5 pulgadas, seguido
por el SuperDisk. Aunque nunca logró conseguirlo, sustituyó a la mayoría
de medios extraíbles y robó parte del terreno de los discos magneto-
ópticos al ser integrado de serie en varias configuraciones
de portátiles y Apple Macintosh.

FIGURA 6.6. UNIDAD ZIP

La caída de precios de grabadoras y consumibles CD-R y CD-


RW y, sobre todo de los pendrivers y las tarjetas flash (que sí han logrado
sustituir al disquete), acabaron por sacarlo del mercado y del uso
cotidiano.
En un intento de retener parte del mercado que perdía, Iomega
comercializó bajo la marca Zip, una serie de re grabadoras de CD-ROM,
conocidas como Zip-650 o Zip-CD.

Las unidades Zip vienen en una amplia variedad e interfaces.


Las unidades internas tienen interfaz IDE o SCSI. Las unidades
externas viene con puerto paralelo y SCSI inicialmente, y unos años
después USB. Durante algún tiempo, hubo una unidad llamada Zip
Plus que podía detectar si se conectaba a un puerto de impresora
o a uno SCSI, pero se detectaron gran cantidad de
incompatibilidades y fue descatalogado. Incluía además software
adicional y una fuente de alimentación externa más pequeña que
la inicial. Con el tiempo las unidades Zip USB se alimentaron por el
propio conector USB.

La versión inicial del disco Zip tenía una capacidad de 100 Mb. Se
hicieron planes para comercializar un disco de 25 MB con un precio más
reducido, con el objetivo de acercarse lo más posible al coste de un
disquete estándar, pero el disco jamás se comercializó. Con el tiempo
Iomega lanza unidades y discos de 250 y 750 MB, a la vez que aceleraba
la velocidad de acceso a disco, en la figura 6.7 se muestran discos ZIP.

FIGURA 6.7 DISCOS ZIP

En el lado negativo, el acceso a un soporte menor ralentiza la


unidad, incluso la hace más lenta que la unidad de 100 MB original. La
unidad de 750 MB sólo puede leer, pero no escribir, los discos de 100 MB
en cambio si puede leer y escribir.

6.4. Discos Ópticos.


Consisten en una lámina circular de plástico de 12
centímetros de diámetro. 1’2 milimetros de grosor y un agujero
central de 15 milimetros de diámetro. La información se encuentra
almacenada en el disco en una única pista en forma de espiral que
va del interior al exterior. Esta espiral esta compuesta por pequeños
taladros microscópicos llamados pits. Un disco óptico convencional
es capaz de almacenar 650 Mbytes o 74 minutos de música,
gracias a que tienen una densidad de 16,000 pistas por pulgada
(valor muy superior comparada con las 96 del disquete
convencional).

Como es de imaginar, los círculos interiores de la espiral son


muchos mas pequeños que los exteriores. Lo que implica que, para
que la trasferencia de datos en una y otro zona sea igual será
necesario que la velocidad del disco, cuando este leyendo datos
en el exterior, sea menor que cuando lo realice en el interior.

6.4.1. Modo de Funcionamiento.


Su lectura en un haz laser que recorre la espiral formada por
los pits. Cuando el haz enfoca un punto donde no hay hueco, la
mayor parte del haz se refleja (uno lógico). Por el contrario, cuando
se enfoca sobre un hueco, la mayor parte de la luz se dispersa (cero
lógico). De esta forma mediante un fotodetector se capta la luz
reflejada y, con la circuitería adecuada, se averigua si se ha
pasado por un uno o un cero lógico como se muestra en la figura
6.8.

FIGURA 6.8. HUECOS MICROSCOPICOS DEL CD.

6.4.2. Parámetros que definen a una unidad óptica.


A la hora de decidirse por una unidad u otra, existe una seria
de factores que hay que tener muy en cuenta:

a) La Velocidad: Al igual que sucede con otros dispositivos, la


velocidad viene dada por dos términos:

• Velocidad de transferencia: su valor se indica


mediante la inscripción: Velocidad X, donde el factor de
velocidad indica el número de veces más rápido que
funcionara el dispositivo con respecto a un reproductor
de CD de audio convencional. Por ejemplo, una unidad
óptica de 6x indica que es capaz de leer o grabar el disco
6 veces mas rápido que un reproductor musical. En otras
palabras, lo que un reproductor de audio tardaría en leer
una hora, la unidad 6x lo hace en 10 minutos.

• Las primeras unidades que salieron al mercado


trabajaban al doble de la velocidad, lo que implicaban
unos 300 Kbytes/seg: Sin embargo, actualmente se
alcanzan velocidades del orden de 58x, o lo mismo que
8700Kbytes/seg.

• El tiempo de acceso: Aunque se han conseguido


velocidades de trasferencia casi idénticas a la de los
discos duros, su tiempo de acceso sigue siendo mucho
mayor. Recordamos que e tiempo de acceso se define
como el tiempo que transcurre desde que le damos una
orden de lectura o escritura u el dispositivo se encuentra
listo para realizarla.

b) La Interfaz: Las unidades ópticas son dispositivos y como tales, se


conectan al ordenador a través de una interfaz. Estas pueden ser:

• Una tarjeta especifica del fabricante.

• Una tarjeta SCSI

• Una tarjeta EIDE, si el dispositivo cumple la norma


ATAPI.

c) La inserción de discos: Aunque este no es un factor decisivo,


existen en el mercado varios métodos para la inserción de los discos
en las unidades:
• Portadiscos (Caddy): En este tipo de unidades, la
inserción de los discos se realiza introduciendo el disco en
una caja y luego todo el conjunto en la unidad.

• Bandeja: Consiste en una pequeña bandeja que sale


de la unidad cuando se acciona la tecla eject, sobre el
cual se coloca el disco.

• Slot in: Es el mas novedoso de todos los métodos,


consiste en una ranura en el frontal de la unidad. Para
introducir el disco, basta con meter parte de este por la
ranura y la unidad introduce el resto automáticamente.

6.4.3. CD-ROM

Un CD-ROM (siglas del


inglés Compact Disc- Read Only Memory, "Disco Compacto -
Memoria de Sólo Lectura"), es un disco compacto utilizado para
almacenar información no volátil, el mismo medio utilizado por
los CD de audio, puede ser leído por un computador con lectora
de CD. Un CD-ROM es un disco de plástico plano con información
digital codificada en una espiral desde el centro hasta el borde
exterior. La figura 6.9 nos muestra como es fisicaente un CD-ROM.

FIGURA 6.9. CD-ROM.

6.4.4. CD-R
Estos CD’s se pueden grabar una sola vez. Se coloca capa
orgánica grabable entre la capa de plástico protectora y la capa
reflectora de oro, para que cuando el láser caliente un punto y lo
decolore, lo haga pasar como un pit para la lectora. Y ese
pigmento que se decolora con el láser y queda verde. Solo para
agregar en cuestiones de fabricación en este CD Grabable, este
tipo de CD’s, ya tienen la espiral grabada de fábrica, y ya viene
formateada por hardware con las direcciones de los sectores. Estas
últimas cosas que se hacen en la fábrica sirven de guía para la
grabadora. Cuando se graba, la grabadora comienza con un
“lead in”. El “lead in” que son los primeros 4 mm. de ancho radial
de una espiral de un CD-R o CD-ROM es precedido por dos áreas
necesarias para alinear el haz láser. En estos in, se le graba una
tabla de contenidos (“Tabla of contents” – TOC), índice de los datos
grabados en la sesión correspondiente. Cuando se termina de
grabar la zona de datos, se crea el “lead out”. Esto que acabamos
de mencionar es una terminación de 1 mm. Para avisar que se
terminó de grabar. En el caso de los CD-R, decimos que no hace
falta grabar todo de una sola vez, se puede grabar en varias
sesiones, a los que se denomina “multisesiones” que solo pueden
ser leídas por las lectoras de CD-ROM.

6.4.5. CD-RW
Los discos CD-RW han tomado la idea de los discos CD-R un
paso más adelante, están construidos en una función “borrable”
de tal forma que uno puede grabar encima de datos viejos que
uno ya no necesita.

Estos discos están basados en una tecnología de cambio de


fase. En los discos CD-RW, el elemento cambio de fase es un
compuesto químico de plata, antimonio, telurio e indio.

Así como cualquier material físico, se puede cambiar la


forma de este compuesto calentándolo a ciertas temperaturas.
Cuando el compuesto es calentado por encima de su temperatura
de fusión (alrededor de 600º C), este se convierte en un líquido; y a
su temperatura de cristalización (alrededor de 200º C), este cambia
a sólido. En los compuestos de cambio de fase, estos cambios de
forma pueden ser "locked into place": es decir estos persisten aun
después de que el material se enfría de nuevo. Si se calienta el
compuesto en los discos CD-RW a la temperatura de fusión y luego
dejas que se enfríe rápidamente, este permanecerá en un estado
amorfo, aunque esté debajo de la temperatura de cristalización.
Con el propósito de cristalizar el compuesto, se debe mantener a
la temperatura de cristalización por un cierto tiempo para que este
se solidifique en forma de cristales.

En el compuesto usado en los discos CD-RW, la forma


cristalina es translucida mientras que el fluido amorfo absorberá
casi toda la luz. En un CD en blanco nuevo, todo el material en el
área factible de ser escrita está en su forma cristalina, de forma que
la luz puede brillar a través de esta capa hacia el metal reflectante
de arriba y rebotar de vuelta al sensor de luz. Para codificar
información en el disco, la grabadora de CD usa su láser escritor, el
cual es suficientemente poderoso para calentar el compuesto a su
temperatura de derretimiento. Estos puntos "Fundidos" sirven igual
que los hoyos en el CD convencional y que los puntos opacos en
un CD-R: Es decir bloquean el láser lector de forma que no se refleje
luz en el metal reflectante. Cada área no-reflectante indica un “0”
en código binario. Y cada punto que permanece cristalino y que
es reflectante, indica un “1”. Así como con los CD-R, el láser lector
no tiene la potencia suficiente para cambiar el estado del material
en la capa grabable; es mucho más débil que el láser escritor.

6.5. DVD
El DVD, cuyas siglas corresponden a Digital Versatil Disc o Disco
Versátil Digital, es un dispositivo de almacenamiento óptico cuyo
estándar surgió en 1995.

El nombre de este dispositivo hace referencia a la multitud de


maneras en las que se almacenan los datos: DVD-ROM (dispositivo de
lectura únicamente), DVD-R y DVD+R (sólo pueden escribirse una
vez), DVD-RW y DVD+RW (permiten grabar y borrar las veces que se
quiera). También difieren en la capacidad de almacenamiento de cada
uno de los tipos.

6.5.1. Tipos de DVD.

Los DVD se pueden clasificar::

▪ Según su contenido:

▪ DVD-Video: Películas (vídeo y audio)

▪ DVD-Audio: Audio de alta fidelidad

▪ DVD-Data: Todo tipo de datos

▪ Según su capacidad de regrabado:

▪ DVD-ROM: Sólo lectura, manufacturado con prensa


▪ DVD-R y DVD+R: Grabable una sola vez. La diferencia entre
los tipos +R y -R radica en la forma de grabación y de
codificación de la información. En los +R los agujeros son 1
lógicos mientras que en los –R los agujeros son 0 lógicos.

▪ DVD-RW y DVD+RW: Regrabable

▪DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo


una comprobación de la integridad de los datos siempre
activa tras completar la escritura

▪ DVD+R DL: Grabable una sola vez de doble capa

▪ el DVD-ROM almacena desde 4,7 GB hasta 17 GB.

▪ Según su número de capas o caras:

▪ DVD-5: una cara, capa simple. 4.7 GB o 4.38 Gibabyte (GB)


- Discos DVD±R/RW.

▪DVD-9: una cara, capa doble. 8.5 GB o 7.92 GiB -


Discos DVD+R DL.La grabación de doble capa permite a los
discos DVD-R y los DVD+RW almacenar significativamente
más datos, hasta 8.5 Gigabytes por disco, comparado con
los 4.7 GB que permiten los discos de una capa. Los DVD-R DL
(dual layer) fueron desarrollados para DVD Forum por Pioneer
Corporation. DVD+R DL fue desarrollado para el DVD+R
Alliance por Philips y Mitsubishi Kagaku Media.Un disco de
doble capa difiere de un DVD convencional en que emplea
una segunda capa física ubicada en el interior del disco. Una
unidad lectora con capacidad de doble capa accede a la
segunda capa proyectando el láser a través de la primera
capa semi-transparente. El mecanismo de cambio de capa
en algunos DVD puede conllevar una pausa de hasta un par
de segundosLos discos grabables soportan esta tecnología
manteniendo compatibilidad con algunos reproductores de
DVD y unidades DVD-ROM. Muchos grabadores de DVD
soportan la tecnología de doble capa, y su precio es
comparable con las unidades de una capa, aunque el
medio continúa siendo considerablemente más caro.

▪ DVD-10: dos caras, capa simple en ambas. 9.4 GB o 8.75 GiB


- Discos DVD±R/RW.

▪DVD-14: dos caras, capa doble en una, capa simple en la


otra. 13,3 GB o 12,3 GB - Raramente utilizado.

▪DVD-18: dos caras, capa doble en ambas. 17.1 GB o 15.9


GiB - Discos DVD+R.
También existen DVD de 8 cm (no confundir con miniDVD, que son CD
conteniendo información de tipo DVD video) que tienen una capacidad
de 1.5 GB. El DVD Forum creó los estándares oficiales DVD-
ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar
pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no
forman parte de los estándares oficiales, no muestran el logotipo DVD. En
lugar de ello, llevan el logotipo "RW" incluso aunque sean discos que solo
puedan grabarse una vez, lo que ha suscitado cierta polémica en
algunos sectores que lo consideran publicidad engañosa. Y desde luego
que confunde a los usuarios. La mayoría de grabadoras de DVD nuevas
pueden grabar en ambos formatos y llevan ambos logotipos +RW y DVD-
R/RW.

6.6. Blu-Ray
Blu-ray (también conocido como Blu-ray Disc o BD) o Disco
azul como está en estudio por la RAE, es un formato de disco
óptico de nueva generación de 12 cm de diámetro (igual que
el CD y el DVD) para vídeo de alta definición y almacenamiento
de datos de alta densidad. El uso del laser azul para escritura y
lectura permite almacenar más cantidad de información por área
que los discos DVD, debido a que el láser azul tiene una menor
longitud de onda que los láseres usados para almacenar en discos
DVD. Su capacidad de almacenamiento llega a 50 gigabytes a
doble capa, y a 25 GB a una capa. El Blu-ray de 400 GB a 16 capas
ya fue patentado y se espera que salga al mercado en 2010, así
como se tiene pensado patentar un Blu-Ray de 1 terabyte para
2011 o 2012. La consola de videojuegos PlayStation 3 puede leer
discos de hasta doble capa y se ha confirmado que está lista para
recibir el disco de 16 capas.

Este formato se impuso a su competidor, el HD DVD, en la guerra


de formatos iniciada para cambiar el estándar DVD. Aunque otros
apuntan que el sucesor del DVD no será un disco óptico sino la tarjeta de
memoria. No obstante se está trabajando en el HVD o Disco Holográfico
Versátil con 3.9 Tb, siendo el competidor más duro que tendrá el Blu-ray.
El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128
GB en modo LBA (28-bit sector address), teniendo la ventaja de ser
regrabables al menos durante 5 años. En febrero de 2008, después de la
caída de muchos apoyos al HD-DVD, Toshiba decidió abandonar la
fabricación de reproductores y las investigaciones para mejorar su
formato.
Una capa de disco Blu-ray puede contener alrededor de 50 GB o
cerca de 6 horas de vídeo de alta definición más audio; está en el
mercado el disco de doble capa, que puede contener
aproximadamente 50 GB. La velocidad de transferencia de datos es de
36 Mbit/s (54 Mbps para BD-ROM), pero ya están en desarrollo prototipos
a velocidad de transferencia 2x (el doble, 72 Mbit por segundo). Ya está
disponible el BD-RE (formato reescribible) estándar, así como los formatos
BD-R (grabable) y el BD-ROM, como parte de la versión 2.0 de las
especificaciones del Blu-ray.
El 19 de mayo de 2005, TDK anunció un prototipo de disco Blu-ray
de cuatro capas de 100 GB. El 3 de octubre de 2007, Hitachi anunció que
había desarrollado un prototipo de BD-ROM de 100 GB que, a diferencia
de la versión de TDK y Panasonic, era compatible con los lectores
disponibles en el mercado y solo requerían una actualización
de firmware. Hitachi también comentó que está desarrollando una
versión de 200GB. Pero el reciente avance de Pioneer le permitió crear un
disco blu-ray de 20 capas con una capacidad total de 500 GB, aunque
no sería compatible con las unidades lectoras ya disponibles en el
mercado, como haría Hitachi. La figura 6.10 nos muestra el disco de Blu-
Ray.
FIGURA 6.10 DISCO BLU-RAY

6.7. Memoria USB


Una memoria USB (de Universal Serial Bus; en inglés pendrive, USB
flash drive) es un dispositivo de almacenamiento que utiliza memoria
flash para guardar la información que puede requerir y no
necesita baterías. La batería era necesaria en los primeros modelos, pero
los más actuales ya no la necesitan. Estas memorias son resistentes a los
rasguños (externos) al polvo, y algunos al agua que han afectado a las
formas previas de almacenamiento portátil-, como los disquetes, discos
compactos y los DVD. En España son conocidas popularmente
como pinchos o lápices, y en otros paises como Honduras son conocidas
como Memorias.
Estas memorias se han convertido en el sistema de
almacenamiento y transporte personal de datos más utilizado,
desplazando en este uso a los tradicionales disquetes, y a los CD. Se
pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16,
32, 64, 128 y hasta 256 GB; siendo impráctico a partir de los 64GB por su
elevado costo. Esto supone, como mínimo, el equivalente a 180 CD de
700MB o 91.000 disquetes de 1.44 MB aproximadamente. Su gran
popularidad le ha supuesto infinidad de denominaciones populares
relacionadas con su pequeño tamaño y las diversas formas de
presentación, sin que ninguna haya podido destacar entre todas ellas. El
calificativo USB o el propio contexto permite identificar fácilmente el
dispositivo informático al que se refieren.
Los sistemas operativos actuales pueden leer y escribir en las
memorias sin más que enchufarlas a un conector USB del equipo
encendido, recibiendo la energía de alimentación a través del propio
conector que cuenta con 5 voltios y 2,5 Watios como máximo. En equipos
algo antiguos(como por ejemplo los equipados con Windows 98) se
necesita instalar un controlador de dispositivo (driver) proporcionado por
el fabricante. Linux también tiene soporte para dispositivos de
almacenamiento USB desde el kernel 2.4. El aspecto de una memoria USB
es como el que se muestra en la figura 6.11.
FIGURA 6.11. MEMORIA USB.

6.8. Memoria SD.


Secure Digital (SD) es un formato de tarjeta de memoria. Se utiliza
en dispositivos portátiles tales como cámaras fotográficas
digitales, PDAs,teléfonos móviles e incluso videoconsolas (tanto de
sobremesa como la Wii como de mano como la GP2X), entre muchos
otros.
Estas tarjetas tienen unas dimensiones de 32 mm x 24 mm x 2'1 mm.
Existen dos tipos: unos que funcionan a velocidades normales, y otros de
alta velocidad que tienen tasas de transferencia de datos más altas.
Algunas cámaras fotográficas digitales requieren tarjetas de alta
velocidad para poder grabar vídeo con fluidez o para capturar múltiples
fotografías en una sucesión rápida.
Los dispositivos con ranuras SD pueden utilizar tarjetas MMC, que
son más finas, pero las tarjetas SD no caben en las ranuras MMC.
Asimismo, se pueden utilizar directamente en las ranuras
de CompactFlash o de PC Card con un adaptador. Sus
variantes MiniSD y MicroSD se pueden utilizar, también directamente, en
ranuras SD mediante un adaptador.Las normales tienen forma de ‫ם‬. Hay
algunas tarjetas SD que tienen un conector USB integrado con un doble
propósito, y hay lectores que permiten que las tarjetas SD sean accesibles
por medio de muchos puertos de conectividad comoUSB, FireWire y
el puerto paralelo común.

Las tarjetas SD también son accesibles mediante


una disquetera usando un adaptador FlashPath. En la figura 6.12 se
muestra la memoria SD y sus variantes.
FIGURA 6.12. LA TARJETA SD NORMAL (ARRIBA CON FORMA DE
“‫)”ם‬, LA MINI SD (EN EL MEDIO) Y LA MICRO SD (LA DE ABAJO).

6.9. MMC (MultiMediaCard)


Multi Media Card o MMC es un estándar de tarjeta de memoria.
Prácticamente igual a la SD, carece de la pestaña de seguridad que
evita sobrescribir la información grabada en ella. Su forma está inspirada
en el aspecto de los antiguos disquetes de 3,5 pulgadas. Actualmente
ofrece una capacidad máxima de 4 GB.
Presentada en 1997 por Siemens AG y SanDisk, se basa en la
memoria flash de Toshiba base NAND, y por ello es más pequeña que
sistemas anteriores basados en memorias flash de Intel base NOR, tal
como la CompactFlash. MMC tiene el tamaño de un sello de correos: 24
mm x 32 mm x 1,4 mm. Originalmente usaba un interfaz serie de 1-bit, pero
versiones recientes de la especificación permite transferencias de 4 o a
veces incluso 8 bits de una vez. Han sido más o menos suplantadas por
las Secure Digital (SD), pero siguen teniendo un uso importante porque las
MMCs pueden usarse en la mayoría de aparatos que soportan tarjetas SD
(son prácticamente iguales), pudiendo retirarse fácilmente para leerse en
un PC.
Las MMC están actualmente disponibles en tamaños de hasta 4GB
con modelos de 8GB anunciados, aún no disponibles. Se usan en casi
cualquier contexto donde se usen tarjetas de memoria, como teléfonos
móviles, reproductores de audio digital, cámaras digitales y PDAs. Desde
la introducción de la tarjeta Secure Digital y la ranura SDIO (Secure Digital
Input/Output), pocas compañías fabrican ranuras MMC en sus
dispositivos, pero las MMCs, ligeramente más delgadas y de pines
compatibles, pueden usarse en casi cualquier dispositivo que soporte
tarjetas SD si lo hace su software/firmware. La figura 6.13 nos muestra este
tipo de memoria.

FIGURA 6.13. MEMORIA MMC.

6.10. Monitor
El monitor es la pantalla en la que se ve la información
suministrada por el ordenador. En el caso más habitual se trata de
un aparato basado en un tubo de rayos catódicos (CRT) como el
de los televisores, mientras que en los portátiles y los monitores
nuevos, es una pantalla plana de cristal líquido (LCD)como el que
se muestra en la figura 6.14. La información se representa mediante
píxeles, a continuación explicamos lo que es un píxel: Es la unidad
mínima representable en un monitor. Cada píxel en la pantalla se
enciende con un determinado color para formar la imagen. De
esta forma, cuanto más cantidad de píxeles puedan ser
representados en una pantalla, mayor resolución habrá. Es decir,
cada uno de los puntos será más pequeño y habrá más al mismo
tiempo en la pantalla para conformar la imagen. Cada píxel se
representa en la memoria de video con un número. Dicho número
es la representación numérica de un color especifico, que puede
ser de 8, 16 o más bits. Cuanto más grande sea la cantidad de bits
necesarios para representar un píxel, más variedad de colores
podrán unirse en la misma imagen. De esta manera se puede
determinar la cantidad de memoria de video necesaria para una
cierta definición y con una cierta cantidad de colores.
FIGURA 6.14. MONITOR LCD.

6.10.1. Tipos de monitores


Vamos a hacer la clasificación de los monitores de dos maneras
distintas:

Atendiendo al color:

• Monitores color : Las pantallas de estos monitores están


formadas internamente por tres capas de material de fósforo, una
por cada color básico (rojo, verde y azul). También consta de tres
cañones de electrones, que al igual que las capas de fósforo, hay
uno por cada color. Para formar un color en pantalla que no sea
ninguno de los colores básicos, se combinan las intensidades de los
haces de electrones de los tres colores básicos.

• Monitores monocromáticos : Muestra por pantalla un solo color:


negro sobre blanco o ámbar, o verde sobre negro. Uno de estos
monitores con una resolución equivalente a la de un monitor color,
si es de buena calidad, generalmente es más nítido y más legible.

Atendiendo a la tecnología usada:

• Monitores de cristal líquido : Los cristales líquidos son sustancias


transparentes con cualidades propias de líquidos y de sólidos. Al
igual que los sólidos, una luz que atraviesa un cristal líquido sigue el
alineamiento de las moléculas, pero al igual que los líquidos,
aplicando una carga eléctrica a estos cristales, se produce un
cambio en la alineación de las moléculas, y por tanto en el modo
en que la luz pasa a través de ellas. Una pantalla LCD está formada
por dos filtros polarizantes con filas de cristales líquidos alineados
perpendicularmente entre sí, de modo que al aplicar o dejar de
aplicar una corriente eléctrica a los filtros, se consigue que la luz
pase o no pase a través de ellos, según el segundo filtro bloquee o
no el paso de la luz que ha atravesado el primero. El color se
consigue añadiendo 3 filtros adicionales de color (uno rojo, uno
verde, uno azul). Sin embargo, para la reproducción de varias
tonalidades de color, se deben aplicar diferentes niveles de brillo
intermedios entre luz y no-luz, lo cual se consigue con variaciones
en el voltaje que se aplica a los filtros.
• Resolución: La resolución máxima de una pantalla LCD viene
dada por el número de celdas de cristal líquido.

• Tamaño: A diferencia de los monitores CRT, se debe tener en


cuenta que la medida diagonal de una pantalla LCD equivale al
área de visión. Es decir, el tamaño diagonal de la pantalla LCD
equivale a un monitor CRT de tamaño superior. Mientras que en un
monitor clásico de 15" de diagonal de tubo sólo un máximo de 13,5"
a 14" son utilizables, en una pantalla portátil de 15" son totalmente
útiles.

• En la actualidad coexisten varios tipos:

• Dual Scan (DSTN) : ya no muy utilizadas, razonablemente


buenas pero dependen de las condiciones de iluminación del lugar
donde se esté usando el portátil.

• HPA : una variante moderna de las anteriores, de contraste


ligeramente superior, pero sólo ligeramente superior, sin duda peor
que las TFT.

• Matriz Activa (TFT) : permite una visualización perfecta sean


cuales sean las condiciones de iluminación exteriores.

6.10.2. Monitores con tubos de rayos catódicos


Las señales digitales del entorno son recibidas por el
adaptador de VGA. El adaptador lleva las señales a través de un
circuito llamado convertidor analógico digital (DAC).
Generalmente, el circuito de DAC está contenido dentro de un
chip especial que realmente contiene tres DAC, uno para cada
uno de los colores básicos utilizados en la visualización: rojo, azul y
verde. Los circuitos DAC comparan los valores digitales enviados
por la PC en una tabla que contiene los niveles de voltaje
coincidentes con los tres colores básicos necesarios para crear el
color de un único píxel. El adaptador envía señales a los tres
cañones de electrones localizados detrás del tubo de rayos
catódicos del monitor (CRT). Cada cañón de electrones expulsa
una corriente de electrones, una cantidad por cada uno de los tres
colores básicos.

El adaptador también envía señales a un mecanismo en el


cuello del CRT que enfoca y dirige los rayos de electrones. Parte del
mecanismo es un componente, formado por material magnético y
bobinas, que abraza el cuello del tubo de rayos catódicos, que
sirve para mandar la desviación de los haces de electrones,
llamado yugo de desvío magnético. Las señales enviadas al yugo
de ayuda determinan la resolución del monitor (la cantidad de
píxeles horizontal y verticalmente) y la frecuencia de refresco del
monitor, que es la frecuencia con que la imagen de la pantalla será
redibujada.

La imagen esta formada por una multitud de puntos de


pantalla, uno o varios puntos de pantalla forman un punto de
imagen (píxel), una imagen se constituye en la pantalla del monitor
por la activación selectiva de una multitud de puntos de imagen.
Los rayos pasan a través de los agujeros en una placa de metal
llamada máscara de sombra o mascara perforada. El propósito de
la máscara es mantener los rayos de electrones alineados con sus
blancos en el interior de la pantalla de CRT. El punto de CRT es la
medición de como cierran los agujeros unos a otros; cuanto más
cerca estén los agujeros, más pequeño es el punto. Los agujeros de
la mencionada máscara miden menos de 0,4 milímetros de
diámetro.

El electrón golpea el revestimiento de fósforo dentro de la


pantalla. (El fósforo es un material que se ilumina cuando es
golpeado por electrones). Son utilizados tres materiales de fósforo
diferentes, uno para cada color básico. El fósforo se ilumina más
cuanto mayor sea el número de electrones emitido. Si cada punto
verde, rojo o azul es golpeado por haces de electrones igualmente
intensos, el resultado es un punto de luz blanca. Para lograr
diferentes colores, la intensidad de cada uno de los haces es
variada. Después de que cada haz deje un punto de fósforo, este
continúa iluminado brevemente, a causa de una condición
llamada persistencia. Para que una imagen permanezca estable,
el fósforo debe de ser reactivado repitiendo la localización de los
haces de electrones.

Después de que los haces hagan un barrido horizontal de la


pantalla, las corrientes de electrones son apagadas cuando el
cañón de electrones enfoca las trayectorias de los haces en el
borde inferior izquierdo de la pantalla en un punto exactamente
debajo de la línea de barrido anterior, este proceso es llamado
refresco de pantalla. Los barridos a través de la superficie de la
pantalla se realizan desde la esquina superior izquierda de la
pantalla a la esquina inferior derecha. Un barrido completo de la
pantalla es llamado campo. La pantalla es normalmente
redibujada, o refrescada, cerca de unas 60 veces por segundo,
haciéndolo imperceptible para el ojo humano.
6.11. Teclado
Un teclado como el que se muestra en la figura 6.15 es un
dispositivo compuesto por un sistema de teclas que permiten introducir
datos y comandos a un ordenador, computadora o artefacto con
tecnología digital.

FIGURA 6.15. TECLADO

Se le llama teclado a los periféricos presentes en distintos tipos de


dispositivos digitales como computadoras, celulares, PDA y otros, que
permiten ingresar, mediante la combinación de teclas, datos y
comandos para el funcionamiento del mismo. Toda vez que se oprime
una tecla una orden cifrada se envía al dispositivo que reproduce un
carácter en la pantalla o ejecuta un comando en particular.
Un teclado está compuesto por distintos tipos de
teclas: alfanuméricas (letras y números), de puntuación (signos como la
coma, punto, dos puntos, punto y coma y otros), y especiales(de función,
control y otras operaciones particulares como las mayúsculas). A
menudo, las teclas de función se ubican en la parte superior del teclado,
siendo la más común F1 como comando de ayuda. Más abajo está el
teclado alfanumérico, parte principal del periférico. Y a los costados
pueden encontrarse otras teclas de función o de edición (como las de
cursor). Por último, a la derecha, solemos hallar un teclado numérico
especial para realizar cálculos y operaciones que requieran
combinaciones de números.
Un teclado, entonces, sirve tanto para el ingreso de contenido
mediante un procesador de textos para la creación de un documento
escrito, para la ejecución de programas y otras funciones especiales, y
para la administración de casi todo el sistema operativo de un
ordenador.
De acuerdo con los diversos idiomas, existen distintas disposiciones
de teclado. El más conocido es el QWERTY o el teclado en español que
también se usa con variantes en inglés. Una versión más cómoda pero no
tan difundida es la Dvorak. No obstante, la distribución de las teclas
puede alterarse en la mayoría de los sistemas operativos, permitiendo
adaptarlo a diversos idiomas.
Existen distintos tipos de teclados. El más común es el XT o AT de 83
teclas, pero también existen los expandidos de hasta 104. Los
teclados ergonómicos están diseñados para brindar una mayor
comodidad al usuario, relajando la posición de sus manos y brazos. Un
teclado multimedia, por ejemplo, incluye teclas especiales que ejecutan
directamente programas del ordenador. Un teclado USB es aquel que se
vale de este puerto para su conexión con el ordenador y es el estándar
empleado en la mayoría de los teclados modernos. Por último, un
teclado inalámbrico es aquel mediante el cual la comunicación con la
computadora se da por medio de rayos infrarrojos o tecnología
bluetooth, evitando el uso de cable.

6.12. Mouse
Mouse significa ratón en inglés, este dispositivo utilizado en todas
las PC fue comenzado a ser llamado mouse en la Universidad de
Standford, dado que el cable y su cuerpo (forma y tamaño) sugerían la
forma de un roedor, en la figura 6.16 se da un ejemplo de mouse.

FIGURA 6.16 MOUSE O RATÓN

El mouse es un dispositivo de hardware periférico que permite al ser


humano controlar un puntero mediante el cual se realizan diferentes
acciones. Este dispositivo de entrada de datos está adaptado al uso
manual, presentando generalmente una forma lo suficientemente
ergonómica con el objetivo de brindar sencillez, comodidad, y
funcionalidad. El movimiento de la flecha o puntero en la pantalla del
monitor es producido mediante un sistema relativamente complejo que
comienza con el desplazamiento del mouse sobre una superficie
horizontal en dos dimensiones.

Las pantallas táctiles y otras tecnologías que intentaron reemplazar el


mouse aún no han logrado desplazarlo en absoluto, por lo cual se espera
que sea útil durante muchos años más. Se cree que el reconocimiento de
voz o la posibilidad de mover la flecha mediante los ojos serían pasos
significativos de encontrar formas más prácticas a la hora de controlar
programas de computación.

En cuanto a sus botones, en general posee al menos 2, más una


rueda que cumple las funciones de scroll (desplazamiento vertical u
horizontal del contenido mostrado en una ventana). En general el botón
izquierdo sirve para seleccionar elementos y ejecutarlos, marcar texto,
abrir menús, y el botón derecho cumple funciones extras como por
ejemplo abrir menús especiales sobre un administrador de archivos.
Originalmente el sistema de posicionamiento de los ratones funcionaba
en base a un dispositivo mecánico, en base a una bola y engranajes,
pero en la actualidad se han difundido enormemente los ratones ópticos,
más precisos; e incluso mouses inalámbricos.

6.13. Impresoras
Una impresora es un periférico de ordenador que permite
producir una copia permanente de textos o gráficos de documentos
almacenados en formato electrónico, imprimiéndolos en medios físicos,
normalmente en papel o transparencias, utilizando cartuchos de tinta o
tecnología láser. Muchas impresoras son usadas como periféricos, y están
permanentemente unidas al ordenador por un cable. Otras impresoras,
llamadas impresoras de red, tienen un interfaz de red interno (típicamente
wireless o Ethernet), y que puede servir como un dispositivo para imprimir
en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión
directa de aparatos de multimedia electrónicos como las
tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o
aparatos de captura de imagen como cámaras digitales y escáneres.
También existen aparatos multifunción que constan de
impresora, escáner o máquinas de fax en un solo aparato. Una impresora
combinada con un escáner puede funcionar básicamente como
una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de
poco volumen, que no requieran virtualmente un tiempo de
configuración para conseguir una copia de un determinado documento.
Sin embargo, las impresoras son generalmente dispositivos lentos (10
páginas por minuto es considerado rápido), y el coste por página es
relativamente alto.

6.13.1. Impresoras Monocromáticas, Color o de


Fotos
Una impresora a color como el la de la figura 6.17 produce
imágenes de múltiples colores, a partir de la combinación simultánea de
al menos tres de los siguientes colores fundamentales: el magenta,
el cyan y el amarillo. La cantidad depositada en la hoja de cada uno de
estos, produce visualmente la sensación de todos los demás. El color
negro acompaña y mejora la impresión de diversas tonalidades. Este
sistema se conoce con el nombre de Sistema CMYK.
FIGURA 6.17. IMPRESORA A COLOR

Existen dispositivos profesionales y semiprofesionales, que se utilizan en


casas de revelado fotográfico o en el hogar. Estos dispositivos suelen ser
conocidos como impresora fotográfica, impresora con calidad
fotográfica o bases de impresión fotográfica. Estos dispositivos imprimen
en color, produciendo imágenes que imitan el rango de colores y
resoluciones de los métodos de revelado fotográfico previos a esta
tecnología.

6.13.2. Métodos de Impresión.


La elección del motor de impresión tiene un efecto substancial en
los trabajos a los que una impresora esta destinada. Hay diferentes
tecnologías que tienen diferentes niveles de calidad de imagen,
velocidad de impresión, coste, ruido y además, algunas tecnologías son
inapropiadas para ciertos tipos de medios físicos (como papel carbón o
transparencias).
Otro aspecto de la tecnología de impresión que es
frecuentemente olvidado es la resistencia a la alteración: tinta líquida
como de una cabeza de inyección de tinta son absorbidos por las fibras
del papel, y por eso los documentos impresos con tinta líquida son más
difíciles de alterar que los que están impresos por toner o tinta sólida, que
no penetran por debajo de la superficie del papel.

a) Tóner
Las impresoras de láser e impresoras térmicas como la mostrada en
la figura 6.18 utilizan este método para adherir tóner al medio. Trabajan
utilizando el principio Xerografía que está funcionando en la mayoría de
las fotocopiadoras: adhiriendo tóner a un tambor de impresión sensible a
la luz, y utilizando electricidad estática para transferir el tóner al medio de
impresión al cual se une gracias al calor y la presión. Las impresoras láser
son conocidas por su impresión de alta calidad, buena velocidad de
impresión y su bajo costo por copia; son las impresoras más comunes para
muchas de las aplicaciones de oficina de propósito general. Son menos
utilizadas por el consumidor generalmente debido a su alto coste inicial.
Las impresoras láser están disponibles tanto en color como
en monocromo. El advenimiento de láseres de precisión a precio
razonable ha hecho a la impresora monocromática basada en tóner
dominante en aplicaciones para la oficina. Otro tipo de impresora
basada en tóner es la impresora LED la cual utiliza una colección
de LEDs en lugar de láser para causar la adhesión del tóner al tambor de
impresión. El tóner, también denominado tinta seca por analogía
funcional con la tinta, es un polvo fino, normalmente de color negro, que
se deposita en el papel que se pretende imprimir por medio de atracción
electrostática. Una vez adherido el pigmento, éste se fija en el papel por
medio de presión o calor adecuados. Debido a que en el proceso no
intervienen diluyentes, originalmente se ha denominado Xerografía, del
griego xeros que significa seco.

FIGURA 6.18. IMPRESORA LASER.

b) Inyección de tinta (Ink Jet)


Las impresoras de inyección de tinta como la de la figura 6.19 (Ink
Jet) rocían hacia el medio cantidades muy pequeñas de tinta,
usualmente unos pico litros. Para aplicaciones de color incluyendo
impresión de fotos, los métodos de chorro de tinta son los dominantes, ya
que las impresoras de alta calidad son poco costosas de producir.
Virtualmente todas las impresoras de inyección son dispositivos a color;
algunas, conocidas como impresoras fotográficas, incluyen pigmentos
extra para una mejor reproducción de la gama de colores necesaria
para la impresión de fotografías de alta calidad (y son adicionalmente
capaces de imprimir en papel fotográfico, en contraposición al papel
normal de oficina).

FIGURA 6.19 IMPRESORA INYECCIÓN DE TINTA

Las impresoras de inyección de tinta consisten en inyectores que


producen burbujas muy pequeñas de tinta que se convierten en
pequeñísimas gotitas de tinta. Los puntos formados son el tamaño de los
pequeños pixels. Las impresoras de inyección pueden imprimir textos y
gráficos de alta calidad de manera casi silenciosa.
Existen dos métodos para inyectar la tinta:

▪ Método térmico. Un impulso eléctrico produce un aumento de


temperatura (aprox. 480ºC durante microsegundos) que hace
hervir una pequeña cantidad de tinta dentro de una cámara
formando una burbuja de vapor que fuerza su salida por los
inyectores. Al salir al exterior, este vapor se condensa y forma
una minúscula gota de tinta sobre el papel. Después, el vacío
resultante arrastra nueva tinta hacia la cámara. Este método
tiene el inconveniente de limitar en gran medida la vida de los
inyectores, es por eso que estos inyectores se encuentran en los
cartuchos de tinta.

▪ Método piezoeléctrico. Cada inyector está formado por un


elemento piezoeléctrico que, al recibir un impulso eléctrico,
cambia de forma aumentando bruscamente la presión en el
interior del cabezal provocando la inyección de una partícula
de tinta. Su ciclo de inyección es más rápido que el térmico.
Las impresoras de inyección tienen un coste inicial mucho menor que
las impresoras láser, pero tienen un coste por copia mucho mayor, ya que
la tinta necesita ser repuesta frecuentemente. Las impresoras de
inyección son también más lentas que las impresoras láser, además de
tener la desventaja de dejar secar las páginas antes de poder ser
manipuladas agresivamente; la manipulación prematura puede causar
que la tinta (que esta adherida a la página en forma líquida) se mueva.

c) Tinta sólida (Solid Ink)


Las impresoras de tinta sólida, también llamadas de cambio de
fase, son un tipo de impresora de transferencia termal pero utiliza barras
sólidas de tinta a color CMYK (similar en consistencia a la cera de las
velas). La tinta se derrite y alimenta una cabeza de impresión operada
por un cristal piezoeléctrico (por ejemplo cuarzo). La cabeza distribuye la
tinta en un tambor engrasado. El papel entonces pasa sobre el tambor al
tiempo que la imagen se transfiere al papel.
Son comúnmente utilizadas como impresoras a color en las oficinas
ya que son excelentes imprimiendo transparencias y otros medios no
porosos, y pueden conseguir grandes resultados. Los costes de
adquisición y utilización son similares a las impresoras láser.
Las desventajas de esta tecnología son el alto consumo energético
y los largos periodos de espera (calentamiento) de la maquina. También
hay algunos usuarios que se quejan de que la escritura es difícil sobre las
impresiones de tinta sólida (la cera tiende a repeler la tinta de los
bolígrafos), y son difíciles de alimentar de papel automáticamente,
aunque estos rasgos han sido significantemente reducidos en los últimos
modelos.
Además, este tipo de impresora solo se puede obtener de un único
fabricante, Xerox, como parte de su línea de impresoras de oficina Xerox
Phaser. Previamente las impresoras de tinta sólida fueron fabricadas
por Tektronix, pero vendió su división de impresión a Xerox en el año 2000.
Las impresoras de impacto se basan en la fuerza de impacto para
transferir tinta al medio, de forma similar a las máquinas de escribir, están
típicamente limitadas a reproducir texto. En su momento dominaron la
impresión de calidad. Hay dos tipos principales:

▪Impresora de margarita llamada así por tener los tipos


contenidos radialmente en una rueda, de ahí su aspecto de una
margarita como la mostrada en la figura 6.20.

FIGURA 6.20 MARGARITA


▪Impresora de bola llamada así por tener todos los tipos
contenidos en una esfera como la mostrada en la figura 6.21. Es
el caso de las máquinas de escribir eléctricas IBM Selectric.

FIGURA 6.21. BOLAS DE IMPRESIÓN

Las impresoras golpe o impacto trabajan con un cabezal en el que


hay agujas, estas agujas golpean una cinta, similar al de una máquina de
escribir, que genera la impresión de la letra.

d) Matriz de puntos (Dot-Matrix)


En el sentido general, muchas impresoras se basan en una matriz
de píxeles o puntos que, juntos, forman la imagen más grande. Sin
embargo, el término matriz o de puntos se usa específicamente para las
impresoras de impacto que utilizan una matriz de pequeños alfileres para
crear puntos precisos. Dichas impresoras son conocidas
como matriciales. La ventaja de la matriz de puntos sobre otras
impresoras de impacto es que estas pueden producir imágenes gráficas
además de texto. Sin embargo, el texto es generalmente de calidad más
pobre que las impresoras basadas en impacto de tipos.
Algunas sub-clasificaciones de impresoras de matriz de puntos son
las impresoras de alambre balístico y las impresoras de energía
almacenada. Las impresoras de matriz de puntos pueden estar basadas
bien en caracteres o bien en líneas, refiriéndose a la configuración de la
cabeza de impresión.
Las impresoras de matriz de puntos son todavía de uso común para
aplicaciones de bajo costo y baja calidad como las cajas registradoras.
El hecho de que usen el método de impresión de impacto les permite ser
usadas para la impresión de documentos autocopiativos como los
recibos de tarjetas de crédito, donde otros métodos de impresión no
pueden utilizar este tipo de papel. Las impresoras de matriz de puntos han
sido superadas para el uso general en computación.

e) Sublimación de tinta (Dye-sublimation o Dye-


sub)
Las impresoras de sublimación de tinta emplean un proceso de
impresión que utiliza calor para transferir tinta a medios como tarjetas de
plástico, papel o lienzos. El proceso consiste usualmente en poner un color
cada vez utilizando una cinta que tiene paneles de color. Estas impresoras
están principalmente pensadas para aplicaciones de color de alta
calidad, incluyendo fotografía a color, y son menos recomendables para
texto. Primeramente utilizadas en las copisterías, cada vez más se están
dirigiendo a los consumidores de impresoras fotográficas.
6.14. Scanner
Se le llama scanner al dispositivo de entrada que permite digitalizar
imágenes, datos, señales y otro tipo de información con el propósito de
leerla y hacer uso de ella para diversos fines. Un scanner tiene la
apariencia como el mostrado en la figura 6.22.

FIGURA 6.22 SCANNER

Uno de los más conocidos es el escáner de ordenador


o computadora, el cual se emplea para digitalizar imágenes y datos a
partir de papeles, libros, fotografías, diapositivas y todo tipo de objetos.
Con un funcionamiento similar al de una fotocopiadora, el escáner se
ocupa de “leer” aquella información visible en el objeto con el fin de
introducirla a un sistema informático para su posterior uso. Por ejemplo,
digitalizar fotografías tomadas con dispositivos analógicos para
modificarlas con programas de edición de imágenes. También existen
escáners 3D que se utilizan para obtener imágenes de objetos
tridimensionales.
El escáner o scanner de código de barras también es muy conocido
y popular. Se utiliza sobre todo en comercios, supermercados y otros
negocios y sirve para registrar la adquisición de un producto
determinado, revelando su precio y características en una computadora
disponible al vendedor. Típicamente, el escáner lee un código de barras
presente en el producto, el cual le proporciona de la información
requerida. Una vez leído el código, el escáner produce un sonido para
confirmar que la lectura ha sido correcta. “Otros escáners están
presentes en la medicina y se emplean para obtener imágenes
anatómicas a partir de aparatos”.
También existen otros muchos escáners más sofisticados. Por
ejemplo, aquellos que se utilizan por razones de seguridad. En
un aeropuerto o aduana, por ejemplo, un scanner permite detectar
metales o explosivos en el equipaje de cada pasajero, produciendo una
imagen aproximada del contenido de una valija. Otro caso es el de la
información o contenidos protegidos que requieren de una identificación
biométrica de la persona autorizada para acceder a ellos. En esos casos,
el escáner del iris del ojo, de la retina o de las huellas dactilares permite
reconocer la identidad del ingresante.

6.15. Tarjeta grafica


La tarjeta gráfica es una placa de circuito electrónico ubicada en
el ordenador que permite interpretar la información que procede del
microprocesador y transformarla en impulsos eléctricos que encienden y
apagan los píxeles del monitor formando las imágenes y el texto. En la
figura 6.23 se muestra una tarjeta grafica ATI.

FIGURA 6.23 TARJETA GRAFICA ATI.

6.15.1. El procesador de la tarjeta gráfica


El procesador de la tarjeta gráfica llamado también GPU (de sus
siglas en ingles Graphics Processing Unit) es el encargado de procesar los
gráficos y optimizar los cálculos en coma flotante de las funciones 2D y
3D, su potencia se mide en megahertzios y también por el número de
unidades pipelines encargadas de transformar las imágenes 3D en
vértices y líneas. Las tarjetas gráficas nvidia integran su gama de
procesadores que son diferentes a los que integran las tarjetas gráficas
ATI.

6.15.2. Tipo de memoria.


Hay dos tipos de tarjetas gráficas atendiendo a su
integración, las hay que van integradas en la propia placa base
del ordenador y las que son independientes. Las primeras son más
básicas y utilizan memoria compartida con la CPU, las segundas son
más potentes y utilizan memoria propia en cantidades que oscilan
entre 16 megas y 1 Gb. Podemos distinguir varios tipos de memoria,
las DDR, DDR2,GDDR3 y las nuevas GDDR4 atendiendo a su diseño
y velocidad de acceso.

6.15.3. Tipos de conexión


Existen distintos tipos de conexión de la tarjeta gráfica con la
placa base, desde los primitivos slots ISA hasta los modernos
PCIexpress

• ISA: arquitectura de bus de 16 bits a 8 MHz


• EISA: arquitectura de 32 bits, 8.33 MHz
• VESA: extensión de ISA de 32 bits, y con una velocidad de 33
MHz.
• PCI: arquitectura de 32 bits y una velocidad de 33 MHz,
permitía una configuración dinámica de los dispositivos
conectados
• Tarjetas Gráficas AGP: bus dedicado, de 32 bits como PCI, a
una velocidad de 66 MHz.
• PCIe: interfaz serie que dobla el ancho de banda del que
ofrecen las tarjetas gráficas AGP.

6.15.4. RAMDAC
El procesador RAMDAC es un conversor de señal digital a
analógica, su cometido es transformar la señal digital de la CPU a
una señal analógica interpretable por la pantalla.

6.15.5. Tipo de ventilación


Debido a las cargas de trabajo a las que son sometidas, las tarjetas
gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el
calor generado puede hacer fallar, bloquear o incluso averiar el
dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que
eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:

El procesador de la tarjeta gráfica está sometido a una


temperatura muy alta debido al procesamiento de los datos, para evitar
los posibles fallos del gráfica es necesario de dotarla de un elemento
disipador o ventilador del calor generado. El disipador es una estructura
pasiva que hace contacto con la GPU rebaja su calor mientras que el
ventilador es una estructura activa que inyecta aire a la GPU, también
tenemos la unión de los dos elementos, disipador más ventilador,
conformado una estructura de mayor eficiencia

6.15.6. Tipos de salidas en las tarjetas gráficas


Nos podemos encontrar en nuestras gráficas varios tipos de salida al
monitor o televisor, como pueden ser las siguientes:

• SVGA: estándar analógico diseñado para monitores de tubo.


• DVI: Es el sustituto del anterior en digital y está especialmente
diseñado para conectarlo a las pantallas TFT. Empezó a
integrarse en las tarjetas gráficas agp, pero son las tarjetas
gráficas pcixpress las que lo llevan prácticamente de serie.
• S-Video: Salida de video para conectar directamente a un
televisor, proyector o videotape.
• Vídeo Compuesto: Salida analógica de baja resolución con
conector RCA.
• Vídeo por componentes: De mayor calidad que el anterior,
es especial para video proyectores y dispone de tres clavijas
o componente ( Y,Cb,Cr).
• HDMI: Nueva tecnología digital para el nuevo estándar de
video en alta definición.

6.15.7. DirectX y OpenGL


Para poder programar los juegos a través de las distintas tarjetas
gráficas y sus complicadas funciones surgieron los distintos interfaces; a
continuación presentamos dos de los más importantes y conocidos:

• Direct3D: Es propietaria Microsoft y está formado por la


librerías DirectX, funcionan en Windows y en la mayoría de
juegos. Los chips de las primeras tarjetas gráficas agp
empezaron a integrar instrucciones que optimizaban el
resultado de las librerías direc3d dando lugar a las tarjetas
gráficas aceleradoras 3d.
• OpenGL: Lo crearon la casa Silicon Graphics y funcionan
especialmente para entornos de CAD y RVirtual.
Unidad 7. CPU

CPU

7. CPU
"Es un conjunto de transistores conectados entre
ellos por cables, y ordenados de manera que forman
puertas lógicas, y poder así, hacer operaciones de toda
clase"

7.1 Función
Se encarga del control y el procesamiento de datos en
todo el ordenador. Para esta tarea es necesario que le
ayuden otros elementos capaces de realizar funciones
específicas y así liberar de trabajo costoso y difícil al
microprocesador.

• Unidad Aritmético-Lógica (ALU): Lleva a cabo las


funciones de procesamiento de datos.

• Unidades Funcionales: se encargan de


operaciones matemáticas específicas, y así sacan y
facilitan el trabajo al microprocesador. (sumas,
multiplicaciones, dividir por números enteros, etc.)

• Registros: Almacenan datos durante cierto tiempo,


dentro la CPU.
etc.

Todos estos elementos están conectados entre sí por


medio de un conjunto de circuitos o conexiones nombrado
bus. Todo su funcionamiento se basa en interpretar las señales
eléctricas como números y de esta forma poder operar sobre
ellas, para lo cual hace servir métodos como el álgebra de
Boole.

El nombre de microprocesador nos describe sólo el


conjunto de todos los componentes que forman la CPU una
vez encajados y listos para funcionar. Podemos dividir
cualquier procesador en dos grandes bloques: la Unidad de
Control (UC) y la Unidad de Proceso (UP), se comunican
constantemente entre ellas. La Unidad de Control es la
encargada de gestionar y controlar el correcto
funcionamiento de la Unidad de Proceso, que es la que realiza
el trabajo. Esta tarea de gestión y control de la UC, se lleva a
cabo mediante la activación/desactivación de señales
enviadas a la UP, indicadoras de qué acciones he de tomar
en cada momento.

La Unidad de Proceso está formada por más


componentes tales como : la ALU, Registros, y buses.

En la figura 7.1 podemos ver el interior de la CPU, ésta en


particular es muy simple, tiene unos cuántos registros, tres
buses y una ALU. Los buses A y B traen los datos de los registros
hasta la ALU para ser operados, y el C se encarga de llevar los
datos resueltos hacia la memoria, o a los registros para ser
sobrescritos con un nueve valor.
FIGURA 7.1. ESQUEMA INTERNO DE LA UNIDAD CENTRAL DE
PROCESO.

La UC en cambio, es la encargada de controlar y dar


órdenes (qué órdenes pasan y por dónde, quien va primero,
como se ha de operar, etc.) C. Estas órdenes son en el interior
de la instrucción a ejecutar, por lo tanto podemos deducir
que todas las instrucciones primero pasan por la UC y de aquí
hacia la UP. La instrucción, contiene en su interior los datos a
operar, y al principio de todo el tipo de operación a realizar
con aquellos datos.

Hay diferentes tipos de operaciones:

• De transferencia de datos: Es la más típica,


implica mover datos desde un sitio a otro. Se ha de
especificar la dirección de entrada y la dirección
de destino, y la longitud a transferir.
• Aritméticas: Cuando se usan las operaciones
básicas (suma, resto, multiplicación y división).
También hay de otros tipos como coger el valor
absoluto de un número, negar (invertir) el
operando. Se pueden llevar a cabo sobre números
enteros, pero también es necesario sobre reales.
Este tipo de operaciones son llevadas a cabo por la
ALU, la cual puede hacer necesario una operación
de transferencia de datos.

• Lógicas: Realizan operaciones bit a bit, lo hace


intermediando operaciones booleanas NOT, AND,
OR, XOR, etc. tienen múltiples utilidades, sobre todo
si se combinan con operaciones que muevan bit a
bit.

• De conversión: Se cambia el formato de los


datos, puede ser necesario involucrar alguna
operación de: transferencia, aritméticas, lógicas,
etc. ...

• De Entrada/Salida: Tienen que ver con la


gestión de los dispositivos de E/S, a menudo utilizan
interrupciones.

• De control del sistema: Tienen ciertos privilegios


sobre los otros tipos de operaciones, por lo general
solamente pueden ser ejecutadas por el Sistema
Operativo.

• De transferencia de control: Cambian el orden


secuencial normal de la ejecución de un programa.
la operación que indique estas instrucciones es el
cambio del contador del PC (memoria interna de la
CPU) a la siguiente dirección a procesar. se usan
para acortar la longitud de programas.

7.2. Tipos de Procesadores


Básicamente existen dos tipos de estructura de procesador,
que constituyen hoy en día la diversidad de chips en el
mercado (el caso más claro y con más éxito es el de AMD e
Intel).

De una parte tenemos microprocesadores RISC los cuales


se basan en instrucciones simples y por lo tanto la complejidad
total de la CPU es menor. Algunos ejemplos son: Power PC,
Motorola y SPARC, la mayoría son utilizados en empresas por
su rendimiento y fiabilidad.

Por otro lado, los microprocesadores CISC (Complex-


Instruction-Set-Computing) contienen instrucciones
complejas, ocupan más tamaño, dedicando más tiempo por
instrucción con menos instrucciones. Algunos ejemplos son:
Pentium, Cyrix y AMD.

7.3. Comparación
Cuando se ejecuta un programa difícil, o extenso, los
CISC son más rápidos y eficaces que los RISC. En cambio
cuando tenemos en ejecución un conjunto de instrucciones
sencillas, cortas y simples, tenemos que los RISC son más
rápidos.

Estas desigualdades también se dan entre los diferentes


modelos y marcas de los dos tipos de procesadores.

7.4 Funcionamiento y componentes que lo forman

El microprocesador en sí, no es nada más que una fina


placa de silicio dónde van soldados un conjunto de
componentes electrónicos, y estos son los encargados de
manejar todas las señales eléctricas que representan los bits
(acrónimo de Binary digit), ceros, cuando hay ausencia de
corriente, y unos, cuando pasa corriente eléctrica. Se utilizan
mayoritariamente transistores puesto que estos usan el silicio,
el cual es un material semiconductor, estos materiales tienen
la propiedad de que en ciertas condiciones permiten o no
dejar pasar la corriente a través suyo, y así resulta más sencillo
simbolizar el código binario.

En el momento que se quiera dejar de permitir el paso a la


corriente, se aplica un campo negativo a la primera capa
obligando de esta forma al silicio p a repeler los electrones, y
volver a su estado inicial. Así pues, tenemos que para
simbolizar un cero, no se deja pasar la corriente, y para el uno,
en cambio, si que la dejamos pasar. Y básicamente en esto
consiste un microprocesador, en el funcionamiento de los
transistores (ausencia o presencia de corriente
eléctrica). Ahora que ya sabemos cómo es por dentro,
veremos cómo trabaja este "cerebro" artificial.

FIGURA 7.2. COMPONENTES INTERNOS DE LOS


MICROPROCESADORES.

En la figura 7.2, podemos observar cómo se ven los


componentes internos del micro, la mayoría transistores, a
simple vista. En cambio a la derecha observamos una prueba
de Intel para mejorar la estructura interna del micro. Y
finalmente respecto la CPU, hablaremos de la utilidad del
proceso en tiempo compartido en las operaciones del micro.
Estos tipos de procesadores se les denominan "fuera de
orden". En un procesador normal, sin segmentar, tenemos que
empieza las operaciones sólo cuando el anterior ya ha
acabado, en cambio en los procesadores segmentados, las
operaciones se intercalan entre ellas, el que se respeta es la
duración de una etapa, acto seguido se usan las
interrupciones para dejar pasar primero a una en lugar de
otra.

• Etapa 1: Transporte de la instrucción, desde la


memoria al procesador.

• Etapa 2: Decodificación de la instrucción y lectura


de los operandos a los registros.
• Etapa 3: Ejecución de los cálculos con los
operandos a la ALU.

• Etapa 4: Etapa de acceso a la memoria.

• Etapa 5: Escritura del resultado de la ejecución de


la instrucción.
Unidad 8. ALU

ALU

8. Unidad Aritmético Lógica (ALU)

8.1. Introducción:
El procesador después de acceder a memoria
principal para copiar la instrucción en el registro de
instrucción, inicia la secuencia de acciones propias de cada
instrucción. Muchas de estas instrucciones consisten en la
transformación de datos mediante la realización de
operaciones lógicas o aritméticas. Para realizar estas
operaciones existe un bloque especial de la CPU
denominado Unidad Aritmético Lógica (ALU).

Gobernada por la unidad de control, la ALU tiene


como entradas os datos almacenados en los registros
internos de la CPU. Adicionalmente, la ALU tiene como salida
los indicadores de estado que señalan las características del
resultado de la última operación (por ejemplo, si el resultado
ha sido cero, negativo, etc.).

La ALU a su vez está compuesta por diversos circuitos


especializados en realizar una transformación particular de
los datos, típicamente una operación aritmética o lógica.
Como ejemplo una ALU puede disponer de una unidad de
suma/resta de enteros, una unidad de multiplicación de
enteros, una unidad de división de enteros y su equivalente
en punto flotante.

Estos módulos en los que se divide la ALU se pueden


clasificar en función de diversos parámetros. Los criterios más
habituales que van a caracterizar los módulos de la ALU son:

• Módulo combinacional o
secuencial. En el caso de módulos
combinacionales se tiene un circuito digital
combinacional, sin elementos de memoria. Si se
modifica uno de los operandos el resultado se
modifica con un retraso que vendrá dado por la
suma de los retrasos de todas las puertas que
intervienen en la operación.

• Número de operandos del módulo. Hay


módulos que solamente emplean un operando,
como es el de la negación, pero habitualmente
la mayoría de los módulos realizan operaciones
que utilizan dos operadores, como son la suma,
división o AND lógico.

• Incorporación de paralelismo al módulo. Si


el módulo realiza la operación bit a bit se dirá
que es serie, sin embargo, si se transforma toda
la palabra simultáneamente se dirá que es
paralelo. El primero es de tipo secuencial y
requiere tantas fases como dígitos tengan los
operandos, mientras que el segundo es de tipo
paralelo.
• Operación aritmética o lógica. La operación
realizada puede ser de tipo lógico (AND, OR,
etc). O de tipo aritmético (suma, multiplicación,
etc).

• Integración en la CPU. Puede ocurrir que


parte de los módulos de la ALU estén integrados
en la CPU (típicamente los que realizan
operaciones lógicas o aritméticas con números
enteros), y otros sean externos a la CPU debido
a que son muy complejos y ocupan mucha
superficie de silicio. Es el caso de los
coprocesadores matemáticos que se utilizaban
en procesadores.

Un ejemplo de módulo ALU es el sumador elemental


de 1 bit. Este operador es aritmético y utiliza dos operandos.
Suponiendo que una palabra tiene una anchura de 8 bits, si
se conectan 8 sumadores elementales se obtiene un
sumador paralelo. Sin embargo, si la unidad de control
suministra de manera secuencial los bits a una sola unidad
de suma elemental y almacena el resultado parcial en un
registro, se trata de un sumador serie.

La principal ventaja del operador serie es que es más


pequeño y por tanto ocupa menos superficie de silicio. La
desventaja de este módulo es que es más lento que el
operador paralelo. Cabe destacar cómo el operador serie
ocupará más de 1/8 parte del módulo paralelo, al incluir
también la UC módulos que secuencian las operaciones.

8.2. Estructura y operaciones de la ALU


La ALU está formada por un conjunto de operadores,
un conjunto de registros que van a almacenar los operandos
fuente y resultados parciales y unos biestables de estado. El
órgano secuenciador (si hay operadores secuenciales) se
integran en la UC.

Las operaciones más complejas no se implementan


con circuitos combinacionales, ya que requerirían una gran
superficie de silicio. Será la unidad de control la que se
encarga de generar la ejecución secuencial de los
algoritmos de las operaciones complejas. Un ejemplo típico
son las operaciones de multiplicación y división. Este tipo de
operaciones en procesadores pequeños no suele
implementarse con lógica combinacional dentro del
operador, sino que su ejecución se basa en sumas y restas
elementales realizadas en módulos combinacionales.

Las ALUs suelen tener varios operadores que pueden


funcionales independientemente de los demás y en algunos
casos en paralelo. El banco de registros de propósito general
sirve para almacenar resultados de operaciones
intermedias, típicamente una ALU de tamaño intermedio
suele tener de 8 a 16 registros. En algunas CPU existe un
registro especial llamado acumulador que recibe los
resultados del operador y ciertas operaciones sólo pueden
realizarse sobre el contenido del acumulador.

El registro de estado del procesador consta de una


serie de indicadores o flags que almacenan información
sobre el resultado de la última operación realizada.

Las operaciones más frecuentes que implementan los


operadores de la ALU son las siguientes:

• Desplazamientos: lógicos, circulares y


aritméticos.
• Operaciones lógicas: NOT, AND, OR, XOR.
• Operaciones aritméticas: suma, resta,
multiplicación y división.

Estas operaciones se pueden ejecutar de diversas


maneras, dependiendo del paralelismo que implemente en
cada una de ellas. A mayor paralelismo, mayor rapidez; pero
habrá más unidades funcionales, con lo que la ALU ocupará
más superficie de silicio y por tanto será más cara.

Las operaciones básicas y más frecuentes (suma-


7resta, desplazamientos y operaciones lógicas) siempre se
implementan con una unidad combinacional específica. Los
procesadores más potentes incorporan unidades
específicas para realizar las operaciones de multiplicación y
división en coma flotante, quedando para coprocesadores
aritméticos y programas específicos operaciones como
raíces y operaciones trigonométricas.
Conclusion
Este trabajo fue escrito con la finalidad de que los
alumnos sean más autodidactas, los objetivos fueron
alcanzados satisfactoriamente. Durante el desarrollo de
dicho trabajo le tuve mucha dedicación y paciencia, ya que
a pesar de tener conocimientos sobre la creación de
páginas Web tuve algunas dificultades comunes, como lo
fueron la incrustación de código fuente, dichos problemas los
resolví para tener una Web de calidad para los alumnos que
en un futuro cursaran dicha materia. Las evaluaciones de
dicho curso fueron realizadas con un software libre el cual
tiene varias modalidades de evaluación dicho programa fue
“Hot Potatoes”; en mi opinión es una herramienta muy fácil
de entender para hacer las evaluaciones, ya que dicho
software genera el código html de las evaluaciones para así
poder subir esta información en línea. Después de obtener la
información adecuada seleccionada de los materiales
mencionados en la bibliografía de este proyecto, se
pudieron culminar las metas que se impusieron al inicio de
este con lo cual puedo concluir que este trabajo práctico
educativo de la experiencia educativa “Arquitectura de
Computadoras” se puede consultar en la red de internet
utilizando cualquier punto de acceso a este en el siguiente
link: http://sites.google.com/site/computadorasarquitectura

Teniendo este sitio funcionando de manera correcta y


a la cual los alumnos o cualquier persona interesada en los
conocimientos de esta Experiencia Educativa puede
acceder de manera gratuita y de manera inmediata, así les
invito a visitar este curso en línea esperando que sea de gran
utilidad para todo aquel que acceda a él. Ya que a mí me
dejo un gran conocimiento sobre esta experiencia, además
el conocimiento de elaboración de sitios Web.
Bibliografía
• Luis Duran Rodríguez, El gran libro del PC interno/Alfaomega Marcombo, 2007, ISBN
9789701512470

• Nicholas Carter, Arquitectura de computadores 1a. Edición, McGraw-Hill 2004 ISBN:


8448142799.

• A.S. Tanenbaum / Organización de computadoras, enfoque estructurado


/ Prentice Hall

• Valdivia Miranda Carlos, Arquitectura de equipos y sistemas informáticos, 3a.


Edición, Paraninfo 2003, ISBN: 8497321626.

• Juan Enrique Herrerías Rey, Hardware y Componentes. Primer Edición 2006, Anaya
Multimedia, ISBN: 84-415-1979-X.

Enlaces de Internet

Zona DVD

• http://www.zonadvd.com/modules.php?name=Sections&op=viewarticle&arti
d=528

Intel Corporation

• http://www.intel.com/technology/usb/

CPU-WORLD

• http://www.cpu-world.com/CPUs/

También podría gustarte