Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capítulo 10. Microprocesadores: Reparación Y Mantenimiento P.C
Capítulo 10. Microprocesadores: Reparación Y Mantenimiento P.C
Al principio se pensó que no se podía hacer, ya que Intel no estaba preparada para realizar
circuitos "a medida". Pero Marcian Edward Ted Hoff, Jr., jefe del departamento de investigación de
aplicaciones, pensó que habría una mejor forma de realizar el trabajo.
Durante setiembre y octubre de 1969 Hoff, ayudado por Stanley Mazor, definieron una arqui-
tectura consistente en una CPU de 4 bits, una memoria ROM (de sólo lectura) para almacenar las
instrucciones de los programas, una RAM (memoria de lectura y escritura) para almacenar los datos y
algunos puertos de entrada/salida para la conexión con el teclado, la impresora, las llaves y las luces,
con la ayuda del Ingeniero Masatoshi Shima de Busicom definieron y verificaron el conjunto de ins-
trucciones.
En abril de 1970 Federico Faggin se sumó al staff de Intel. El trabajo de él era terminar el con-
junto de chips de la calculadora. Se suponía que Hoff y Mazor habían completado el diseño lógico de
los chips y solamente quedaba definir los últimos detalles para poder comenzar la producción. Esto
no fue lo que Faggin encontró cuando comenzó a trabajar en Intel ni lo que Shima encontró cuando
llegó desde Japón.
Shima esperaba revisar la lógica de diseño, confirmando que Busicom podría realizar su cal-
culadora y regresar a Japón. Se puso furioso cuando vio que estaba todo igual que cuando había ido
seis meses antes, con lo que dijo (en lo poco que sabía de inglés) "Vengo acá a revisar. No hay nada
para revisar. Esto es sólo idea". No se cumplieron los plazos establecidos en el contrato entre Intel y
Busicom. De esta manera, Faggin tuvo que trabajar varios meses, de 12 a 16 horas por día.
Finalmente pudo realizar los cuatro chips arriba mencionados. El los llamó "familia 4000". Es-
taba compuesto por cuatro dispositivos de 16 pines: el 4001 era una ROM de dos kilobits con salida
de cuatro bits de datos; el 4002 era una RAM de 320 bits con el port de entrada/salida (bus de datos)
de cuatro bits; el 4003 era un registro de desplazamiento de 10 bits con entrada serie y salida parale-
lo; y el 4004 era la CPU de 4 bits.
El 4001 fue el primer chip diseñado y terminado. La primera fabricación ocurrió en octubre de
1970 y el circuito trabajó perfectamente. En noviembre salieron el 4002 con un pequeño error y el
4003 que funcionó correctamente. Finalmente el 4004 vino unos pocos días antes del final de 1970.
Fue una lástima porque en la fabricación se habían olvidado de poner una de las máscaras. Tres se-
manas después vinieron los nuevos 4004, con lo que Faggin pudo realizar las verificaciones. Sólo
encontró unos pequeños errores. En febrero de 1971 el 4004 funcionaba correctamente. En el mismo
mes recibió de Busicom las instrucciones que debían ir en la ROM.
A mediados de marzo de 1971, envió los chips a Busicom, donde verificaron que la calculado-
ra funcionaba perfectamente. Cada calculadora necesitaba un 4004, dos 4002, cuatro 4001 y tres
4003. Tomó un poco menos de un año desde la idea al producto funcionando correctamente.
Luego de que el primer microprocesador fuera una realidad, Faggin le pidió a la gerencia de
Intel que utilizara este conjunto de chips para otras aplicaciones. Esto no fue aprobado, pensando
que la familia 4000 sólo serviría para calculadoras. Además, como fue producido mediante un contra-
to exclusivo, sólo lo podrían poner en el mercado teniendo a Busicom como intermediario.
A.R.S.G. 435
REPARACIÓN Y MANTENIMIENTO P.C.
Después de hacer otros dispositivos utilizando la familia 4000, Faggin le demostró a Robert
Noyce (entonces presidente de Intel) la viabilidad de estos integrados para uso general. Finalmente
ambas empresas llegaron a un arreglo: Intel le devolvió los 60000 dólares que había costado el pro-
yecto, sólo podría vender los integrados para aplicaciones que no fueran calculadoras y Busicom los
obtendría más baratos (ya que se producirían en mayor cantidad).
El 15 de noviembre de 1971, la familia 4000, luego conocida como MCS-4 (Micro Computer
System 4-bit) fue finalmente introducida en el mercado.
FUNCIONAMIENTO
Por todo lo expuesto, se hacen lógicamente necesarios unos procesos de fabricación también
complejos y especiales. Esta técnica permite construir elementos casi microscópicos (un micrómetro,
o la millonésima parte de un metro). Esta técnica desarrollada por Intel se conoce como CHMOS-IV.
Para apreciar la miniaturización en cuestión, pensemos que un solo pelo humano tiene un grosor que
se extendería sobre 100 unidades de este tipo.
La configuración y capacidad del procesador son los criterios fundamentales que determinan
el rendimiento45 de todo el equipo. Es por eso que cuando se hace mención a un determinado PC,
este se describe a partir del tipo de microprocesador que posee.
El interruptor, reduce a dos las posibles posiciones, la lógica binaria proporciona las reglas pa-
ra manipular y permitir representar la información. Las computadoras personales podrían no existir a
no ser por dos conceptos en los que están basadas: la lógica binaria y los circuitos digitales.
Cada vez que recibe la entrada de información digital apropiada, reacciona haciendo algo es-
pecífico, siempre la misma cosa para la misma entrada de información y las mismas condiciones. Un
dispositivo eléctrico que responde como un interruptor es el telégrafo, uno de los primeros ejemplos y
quizás el mejor.
45
El rendimiento de una computadora en la ejecución de un programa es la inversa del tiempo de ejecución:
Ren = 1/t ejec Tiempo de ejecución de un programa: t ejec = nº ciclos x t ciclo = nº ciclos / F (F es la frecuencia).
A.R.S.G. 436
REPARACIÓN Y MANTENIMIENTO P.C.
De estos simples principios, de la tecnología del telégrafo de 1850, se puede construir una
computadora. Todo lo que es una computadora implica una de dos operaciones: toma de decisiones
y memoria, es decir el reaccionar y el recordar.
La toma lógica de decisiones, está basada en la lógica o algebra booleana, creada en 1847
por el matemático inglés George Boole. En su sistema, Boole redujo proposiciones a símbolos y a
operadores formales que seguían estrictamente las reglas de las matemáticas. Usando su álgebra
booleana, las proposiciones lógicas se podían probar con la misma certeza que una ecuación ma-
temática.
Los diversos tipos de circuitos de computadora se les llaman "compuertas" porque regulan el
flujo de corriente, permitiendo que pase o que no pase. Estas compuertas lógicas dotan a un circuito
eléctrico con el poder de la toma de decisiones, pudiendo ser agrupadas para formar combinaciones
elaboradas y lograr que una computadora pueda tomar decisiones lógicas complejas. En circuitos de
computadora cada compuerta requiere por lo menos un transistor. Un microprocesador con diez mi-
llones de transistores puede tener millones de compuertas. Las mismas compuertas lógicas también
se pueden arreglar para formar memoria.
Los microprocesadores de hoy no utilizan una sola señal para controlar sus operaciones. Utili-
zan complejas combinaciones de señales. Cada comando del microprocesador es codificado como
un patrón de señales. La señal en cada contacto representa un dígito binario de información digital.
Los diseñadores de un microprocesador dan el significado específico de estas señales digitales. Cada
patrón es un comando llamado instrucción del microprocesador que le dice a éste como realizar una
operación específica.
Algunas instrucciones del microprocesador requieren una serie de pasos para ser realizadas.
Estos comandos múltiples a veces se llaman instrucciones complejas debido a su naturaleza com-
puesta, pero a pesar de ello la instrucción parece un comando simple. La substracción simple o la
adición de dos números pueden implicar realmente docenas de pasos, incluyendo la conversión de
los números de decimal a la notación binaria (1 y 0) que el microprocesador entiende.
Todo lo que el microprocesador hace consiste en únicamente una serie de estas instruccio-
nes, ejecutadas paso por paso. Un programa de computadora es simplemente una lista de instruccio-
nes del microprocesador.
Antes de que el microprocesador pueda trabajar con números o cualquier otro dato, primero
debe saber con qué números puede trabajar. El método más directo de dar al chip las variables que
necesita es proveérselas al mismo tiempo que la instrucción. Por ejemplo, se podrían mandar los
números 8 y 3 junto con la instrucción de restar. Este método simple tiene sus defectos.
Los números apropiados se deben encaminar correctamente a las entradas de información del
microprocesador. El microprocesador necesita saber si restar 8 de 3 o 3 de 8 (la diferencia podría ser
significativa). Pues de acuerdo a como se distingan los números en un problema de sustracción, será
el lugar en donde se pondrán en la ecuación (8 - 3 contra 3 - 8), un microprocesador distingue los
números con los cuales trabaja por su posición.
A.R.S.G. 437
REPARACIÓN Y MANTENIMIENTO P.C.
Dos direcciones de memoria podrían ser suficientes para la manera en que se diseñan la ma-
yoría de los microprocesadores. Ellos solamente tienen un camino a la memoria por lo que pueden
ver un valor de la memoria a la vez. Entonces es necesario que un microprocesador cargue por lo
menos un número en un área de almacenamiento interno llamada registro, y de esta manera pueda
entonces, alcanzar simultáneamente el número en memoria y el valor en su registro interno. Alternati-
vamente (y más comúnmente hoy), ambos valores con los cuales el microprocesador debe trabajar,
se cargan separadamente en registros internos.
Parte de la función de cada instrucción del microprocesador, es decidir cuáles registros utilizar
para los datos y dónde poner las respuestas que sean regresadas. Otras instrucciones le dicen al
microprocesador qué números cargar en sus registros con los cuales trabajará más adelante, o mover
la información de un registro que se encuentra en algún lugar a otro en otro lugar, a la memoria o a
un puerto de salida.
Un registro funciona de dos maneras, como una memoria y como un banco de trabajo. Man-
tiene los patrones de bits hasta que pueden ser utilizados o enviados fuera del procesador. El registro
también está conectado con los circuitos del microprocesador de modo que los cambios realizados
por las instrucciones aparezcan realmente en el registro.
Los registros son medidos por el número de bits con los que pueden trabajar al mismo tiempo.
Un microprocesador de 32 bits, por ejemplo, debe tener uno o más registros que trabajen con 32 bits
de datos al mismo tiempo. El agregar más registros a un microprocesador no lo hace forzosamente
más rápido.
El diseño del microprocesador moderno, exige más registros. Ya que los microprocesadores
son mucho más rápidos que la memoria, cada vez que el microprocesador tiene que ir a la memoria,
provoca retrasos. Por lo tanto, si se reduce al mínimo el acceso a la memoria mejoraría el desempeño
total, pues si se mantienen los datos en registros, en vez de en memoria, apresurará las cosas. Por
otra parte, tener muchos registros es el equivalente a tener una memoria principal móvil en el micro-
procesador con todas las complejidades y defectos inherentes de la tecnología de memoria. Las in-
vestigaciones han determinado que los microprocesadores con cerca de 32 registros y usando las
tecnologías comunes trabajan mejor.
La ventaja del funcionamiento de usar registros más grandes depende del software que se
ejecute. Si por ejemplo, un programa de computadora dice al microprocesador que trabaje en datos
de 16 bits, el poder de los registros de 32 bits no será utilizado. Por esta razón, el DOS, (un sistema
operativo de 16 bits escrito con instrucciones de 16 bits), no utiliza las ventajas y características com-
pletas de los microprocesadores de 32-bit. Por lo tanto, los programas escritos para funcionar bajo el
DOS, no aprovechan las ventajas de los registros de 32 bits.
A.R.S.G. 438
REPARACIÓN Y MANTENIMIENTO P.C.
Los primeros microprocesadores no podían realizar una instrucción cada ciclo de reloj. Estos
microprocesadores requerían tanto como 100 ciclos para realizar una sola instrucción. El número de
los ciclos requeridos para realizar las instrucciones varía con la instrucción y el diseño del micropro-
cesador. Algunas instrucciones toman unos cuantos ciclos, otras docenas de ellos. Por otra parte,
algunos microprocesadores son más eficientes que otros en ejecutar sus instrucciones. La tendencia
de hoy es reducir al mínimo e igualar el número de los ciclos de reloj necesarios para realizar una
instrucción típica.
Las interfaces externas del procesador describen la manera de comunicar la información con
la memoria, chipset y otros dispositivos en la PC.
Los buses básicos, que vimos en la placa madre, se extienden al microprocesador, por lo que
encontramos el bus de datos, el bus de direcciones y el bus de control con idénticas funciones que en
el resto de la computadora.
A su vez el microprocesador cuenta con buses específicos como lo son el bus del procesador
y el bus de memoria. Cada uno de estos buses está compuesto de dos partes distintas: el bus de
datos y el bus de direcciones. El bus de los datos es al que nos referimos al hablar del bus principal,
el bus de la memoria o el bus del sistema; éstas son las líneas que realmente llevan los datos transfe-
ridos.
Entre más ancho sea el bus de datos, mayor información puede transferirse simultáneamente.
Los buses de los datos más anchos generalmente significan mayor rendimiento. La velocidad del bus
de datos es dada por la velocidad del reloj del sistema, el cual es también otro controlador del rendi-
miento del bus.
A.R.S.G. 439
REPARACIÓN Y MANTENIMIENTO P.C.
El ancho de banda del bus de datos nos dice cuánta información puede fluir a través de él, y
ésta en función del ancho del bus (en bits) y su velocidad (en MHz).
Bus de Direcciones
Bus de Datos
Bus de Control
El ancho de banda46 del bus de la memoria es sumamente importante en las PCs modernas,
porque es a menudo el principal cuello de botella del desempeño del sistema. Actualmente, con pro-
cesadores que funcionan mucho más rápido que otras partes del sistema, aumentar la velocidad de
transferencia de datos en el exterior del procesador tiene un impacto mayor en el rendimiento global
que acelerar el propio procesador.
Podemos, entonces, considerar a un microprocesador compuesto por las dos siguientes unidades:
Unidad de control
La unidad de control de un microprocesador es un circuito lógico que, como su nombre lo indica, c ontrola y gobierna
todas las operaciones del microprocesador. Cómo funciones básicas tiene:
46
Para obtener los valores del ancho de banda se aplica la siguiente formula: Ancho del bus en bytes x veloci-
dad del microprocesador. Ejemplo: Un micro de 500MHZ y 32 bit. Tenemos entonces 4 bytes (32 bit son 4 by-
tes) y 500 millones de ciclos por segundo. Entonces en cada ciclo, se procesan 4 bytes. 500 millones x 4 = 2000
millones de bytes en un segundo, entonces tenemos que son 2000MB/s.
A.R.S.G. 440
REPARACIÓN Y MANTENIMIENTO P.C.
Ejecutar las instrucciones (tratar las situaciones de tipo interno (inherentes a la propia CPU) y
de tipo externo (inherentes a los periféricos).
Las funciones realizadas por la unidad de control varían con la arquitectura interna del micro-
procesador, puesto que la unidad de control realmente es la que implementa la arquitectura.
Contador de programa
Registro de instrucciones
Decodificador
Secuenciador
o Registro de instrucción. Contiene la instrucción que se está ejecutando en cada momento. Es-
ta instrucción llevará consigo el código de operación (un código que indica qué tipo de opera-
ción se va a realizar, por ejemplo una suma) y en su caso los operandos (datos sobre los que
actúa la instrucción, por ejemplo los números a sumar) o las direcciones de memoria de estos
operandos.
A.R.S.G. 441
REPARACIÓN Y MANTENIMIENTO P.C.
o Decodificador. Se encarga de extraer el código de operación de la instrucción en curso (que
está en el registro de instrucción), lo analiza y emite las señales necesarias al resto de ele-
mentos para su ejecución a través del secuenciador.
o Reloj (Ciclos del microprocesador): Proporciona una sucesión de impulsos eléctricos o ciclos a
intervalos constantes (frecuencia constante), que marcan los instantes en que han de comen-
zar los distintos pasos de que consta cada instrucción.
o Secuenciador. En este dispositivo se generan órdenes muy elementales (micro órdenes) que,
sincronizadas por los impulsos de reloj, hacen que se vaya ejecutando poco a poco la instruc-
ción que está cargada en el registro de instrucción.
Esta unidad se encarga de realizar las operaciones elementales de tipo aritmético (sumas,
restas, productos, divisiones) y de tipo lógico (comparaciones). A través de un bus interno se comuni-
ca con la unidad de control la cual le envía los datos y le indica la operación a realizar.
Toma las instrucciones decodificadas por la unidad de control y las envía hacia fuera directa-
mente o ejecuta el micro código apropiado para modificar los datos contenidos en sus registros. Los
resultados son enviados al exterior a través de la BIU del microprocesador.
Los enteros incluyen los números enteros regulares, caracteres y otros datos discretos simila-
res. Se le llaman números no-enteros a los números de "punto flotante" (datos continuos). Este tipo
de datos son manejados de forma diferente utilizando una unidad dedicada llamada unidad del punto
flotante o FPU (Floating Poit Unit).
La FPU maneja operaciones avanzadas de las matemáticas (tales como funciones trigonomé-
tricas y trascendentales) con mayor precisión. Los primeros microprocesadores podían agregar una
unidad de punto flotante como un chip opcional por separado a veces llamado un coprocesador ma-
temático.
Incluso los chips equipados solamente con las unidades de ejecución entera, pueden realizar
operaciones matemáticas avanzadas con programas avanzados que solucionaban los problemas al
dividirlos en pasos simples de números discretos. El uso de la unidad de punto flotante separada, se
dedicaba a instrucciones de funciones avanzadas y realizaban las operaciones más rápidamente.
La ALU es donde finalmente las instrucciones se ejecutan y el trabajo es realizado. Los proce-
sadores más viejos tienen una sola unidad de éstas, y las instrucciones son procesadas secuencial-
mente.
Los procesadores actuales utilizan varias ALU (o unidades de ejecución entera), permitiendo
que más de una instrucción pueda ser ejecutada simultáneamente, lo que incrementa el desempeño y
rendimiento.
Los procesadores que hacen esto son llamados procesadores superescalares. Los procesado-
res más avanzados pueden tener algunas unidades de ejecución, dedicadas diseñadas sólo para
ejecutar ciertos tipos de instrucciones.
A.R.S.G. 442
REPARACIÓN Y MANTENIMIENTO P.C.
Esto es especialmente utilizado en los procesadores que utilizan la emulación x86 con un
núcleo RISC.
Circuito operacional
Registro acumulador
o Circuito operacional. Contiene los circuitos necesarios para la realización de las operaciones
con los datos procedentes de los registros de entrada (REN). Este circuito tiene unas entradas
de órdenes para seleccionar la clase de operación que debe realizar en cada momento (suma,
resta, etc.).
o Registros de entrada (REN). En ellos se almacenan los datos u operandos que intervienen en
una instrucción antes de la realización de la operación por parte del circuito operacional. Tam-
bién se emplean para el almacenamiento de resultados intermedios o finales de las operacio-
nes respectivas.
o Registro acumulador. Almacena los resultados de las operaciones llevadas a cabo por el cir-
cuito operacional. Está conectado con los registros de entrada para realimentación en el caso
de operaciones encadenadas. Asimismo tiene una conexión directa al bus de datos para el
envío de los resultados a la memoria central o a la unidad de control.
o Registro de estado (flags). Se trata de unos registros de memoria en los que se deja constan-
cia algunas condiciones que se dieron en la última operación realizada y que habrán de ser
A.R.S.G. 443
REPARACIÓN Y MANTENIMIENTO P.C.
tenidas en cuenta en operaciones posteriores. Por ejemplo, en el caso de hacer una resta, tie-
ne que quedar constancia si el resultado fue cero, positivo o negativo.
La unidad del punto flotante es una unidad de ejecución dedicada, diseñada para realizar las
funciones matemáticas con números del punto flotante. Un número del punto flotante es cualquier
número continuo, esto es no entero; cualquier número que requiere un punto decimal para ser repre-
sentado es un número del punto flotante. Los enteros (y los datos almacenados como enteros) se
procesan usando la unidad aritmética-lógica.
Al hablar de “punto flotante” se describe una manera de expresar los valores, no como un tipo
matemáticamente definido del número tal como un número entero, número racional, o número real.
La esencia de un número de punto flotante es que su punto "flota" entre un número predefinido de
dígitos significativos, igual a la notación científica, donde el punto decimal puede moverse entre dife-
rentes posiciones del número.
Matemáticamente hablando, un número en punto flotante tiene tres porciones: un signo, que
indica si el número es mayor o menor de cero; un significado -llamado a veces mantisa- que abarca
todos los dígitos que son matemáticamente significativos; y un exponente, que determina la magnitud
del significado, esencialmente la localización del punto flotante. Como mencionamos anteriormente es
igual a la notación científica, la diferencia está en que los científicos usan exponentes de potencias de
10 y los coprocesadores matemáticos al utilizar el sistema binario utilizan el punto flotante digital, ó
sea utilizan potencias de dos.
Como cuestión práctica, la forma en que los números de punto flotante son usados en cálculos
de computadora siguen los estándares establecidos por el Instituto de Ingenieros Eléctricos y Electró-
nicos.
Los formatos de IEEE (por sus siglas en inglés) toman los valores que se pueden representar
en forma binaria usando 80 bits. Aunque 80 bits parecen algo arbitrarios (pues en el mundo de las
computadoras está basado en potencias de dos y constantemente se acostumbra doblar los tamaños
de los registros de 8 a 16 a 32 a 64 bits), es el tamaño exacto para acomodar un valor de 64 bits sig-
nificativos con 15 bits de sobra para un exponente y un bit adicional para el signo del número. Aunque
el estándar de IEEE permite valores de punto flotante de 32 bits y 64 bits, la mayoría de las unidades
de punto flotante se diseñan para acomodar los valores completos de 80 bits.
Las unidades de punto flotante de los procesadores de Intel tienen ocho de estos registros de
80 bits, en los cuales realizan sus cálculos.
Las instrucciones en sus programas le dicen al chip matemático con qué formato numérico va
a trabajar y cómo. La única diferencia verdadera es la forma en la cual el chip matemático entrega
sus resultados al microprocesador cuando están listos. Se realizan todos los cálculos usando los 80
bits completos de los registros del chip, a diferencia de las unidades de número entero, que pueden
manipular independientemente sus registros en pedazos de un byte.
Los ocho registros de 80 bits en las unidades de punto flotante, también se diferencian de las
unidades de número entero en la manera en que son direccionadas.
Los comandos para los registros de la unidad de número entero son encaminados directamen-
te al registro apropiado como si fueran enviados por un conmutador. Los registros de la unidad de
punto flotante son ordenados en una pila, como un sistema de elevador. Los valores se empujan so-
bre la pila, y con cada nuevo número empuja a los demás a un nivel más bajo.
A.R.S.G. 444
REPARACIÓN Y MANTENIMIENTO P.C.
La unidad del punto flotante se encuentra integrada en todos los procesadores desde los
486DX en adelante (esto no incluye los 486SX). Las primeras computadoras tenían que usar la uni-
dad entera del procesador para realizar las operaciones del punto flotante (lo que es muy lento) a
menos que se tuviera un segundo chip dedicado para realizar los cálculos de punto flotante, llamado
coprocesador matemático. El coprocesador trabajaría, de esta manera, junto con el microprocesador
para mejorar el rendimiento en las aplicaciones de matemáticas intensivas (por ejemplo una hoja de
cálculo, las aplicaciones científicas, etc.). Un coprocesador matemático separado es mejor a no tener
nada, pero no es tan eficaz como tener la unidad del punto flotante integrada en el procesador princi-
pal. Todos los microprocesadores actuales tienen integrada la unidad de punto flotante.
Para dividir el trabajo, el coprocesador toma la carga de una cierta tarea determinada dejando
al microprocesador para fines generales. Al mismo tiempo, el coprocesador es especialista, diseñado
para manejar una tarea determinada, y una tarea solamente, con la mayor eficacia posible. El copro-
cesador matemático se especializa en números de punto flotante.
La memoria caché
Todos los procesadores modernos incorporan una pequeña memoria caché de alta velocidad
(5 o más veces más rápida que la memoria RAM) para almacenar los datos e instrucciones de la
memoria principal utilizados más recientemente. La cantidad de este tipo de memoria es la que hace
la diferencia de precios en los microprocesadores. Depende de la gama y de la tecnología del micro-
procesador la cantidad de memoria cache con que contarán. Las líneas económicas de los diferentes
fabricantes se diferencian de la línea estándar por tener menos memoria cache, en el resto de su ar-
quitectura son prácticamente iguales.
Un principio dentro de la computación nos dice que un procesador que recientemente hizo re-
ferencia a una localidad de memoria, es muy probable que vuelva a hacer referencia a esta localidad
de memoria en un futuro cercano.
Cada vez que el procesador solicita información de la memoria, el controlador del caché en el
chip utiliza un bus especializado para verificar primeramente si el dato que se necesita de memoria se
encuentra almacenado en el caché en ese momento. Si es así, entonces el sistema se ahorra un ac-
ceso a la memoria principal (ahorra tiempo) para recargar esos valores.
Esta memoria caché, se encuentra dividida en niveles “Level”, y se numeran acorde a la cer-
canía con el microprocesador. Su tamaño también varía acorde a esta cercanía. La denominada
caché L1, también llamada caché interna, es la más cercana al procesador y la de menor tamaño. La
L2 –caché externa- la sigue. Ambas están ubicadas en el mismo chip que el microprocesador pasan-
do a ser parte estructural del mismo. La caché L3 es más grande y puede estar incorporada a la placa
madre.
A.R.S.G. 445
REPARACIÓN Y MANTENIMIENTO P.C.
En principio, la memoria de trabajo (RAM) debería poder ser sustituida completamente por es-
ta memoria estática que permite intervalos de acceso bastante más breves. Pero esto seria demasia-
do caro.
La memoria caché está, pues, situada entre el microprocesador y la memoria de trabajo y ope-
ra a modo de memoria intermedia. Dado que las computadoras compatibles IBM procesan las ins-
trucciones de forma secuencial (por orden de llegada), los mejores programas son los escritos par-
tiendo del "principio de localidad". Este principio determina que al ponerse en marcha el programa se
utilicen partes de memoria de un sector inmediato, ubicadas en serie y lo más cerca posible unas de
otras. Los saltos a zonas de la memoria más alejadas ("far jumps") son poco frecuentes.
Podemos decir entonces que los microprocesadores con una frecuencia idéntica pero con o
sin caché, externa tienen un rendimiento completamente diferente. Solo mediante una memoria caché
puede aprovecharse de forma real toda la capacidad de un procesador.
Respecto a la capacidad de la memoria caché, cabe señalar que los microprocesadores traen
incluida la cantidad de memoria cache que el fabricante considera necesaria para cumplir con el tra-
bajo para el cual fue diseñado, comparaciones efectuadas revelaron que, por ejemplo, un exceso de
memoria caché puede enlentecer el funcionamiento del microprocesador en proporción a las dimen-
siones de la caché instalada.
Caché de 1er nivel (L1): Esta caché está integrada en el núcleo del procesador, trabajando a
la misma velocidad que este. La cantidad de memoria caché L1 varía de un procesador a otro, estan-
do normalmente entra los 64KB y los 256KB. Esta memoria suele a su vez estar dividida en dos par-
tes dedicadas, una para instrucciones y otra para datos.
Caché de 3er nivel (L3): Es un tipo de memoria caché más lenta que la L2, muy poco utilizada
en la actualidad, solo algunos modelos de microprocesadores la utilizan. En un principio esta caché
estaba incorporada a la placa madre, no al procesador, y su velocidad de acceso era bastante más
A.R.S.G. 446
REPARACIÓN Y MANTENIMIENTO P.C.
lenta que una caché de nivel 2 o 1, ya que si bien sigue siendo una memoria de una gran rapidez,
depende de la comunicación entre el procesador y la placa base.
Instrucciones
En función del tipo de microprocesador, concretamente si es más avanzado o no, podrá en-
tender y ejecutar más o menos instrucciones.
Instrucciones de cálculo
Instrucciones de control
o Instrucciones de transferencia del control del programa. Permiten romper la secuencia lineal
del programa y saltar a otro punto del mismo. Pueden equivaler a la instrucción GOTO que
traen muchos lenguajes de programación.
o Instrucciones de control. Son instrucciones especiales o de control que actúan sobre el propio
microprocesador. Permiten acceder a diversas funciones, como por ejemplo activar o desacti-
var las interrupciones, pasar órdenes al coprocesador matemático, detener la actividad del mi-
croprocesador hasta que se produzca una interrupción, etc.
Por ejemplo, una instrucción que sume dos números está formado por:
Existen instrucciones que sólo tienen un operando o incluso que no tienen ninguno, estando
formadas solamente por el código de operación.
A.R.S.G. 447
REPARACIÓN Y MANTENIMIENTO P.C.
Ejecución de las instrucciones
Saber cómo funciona un microprocesador, implica conocer cómo se van ejecutando cada una
de las instrucciones del programa que se almacena en memoria. Los pasos globales que se siguen a
la hora de consumar una instrucción son:
Para que un programa pueda ser ejecutado, ha de estar almacenado en la memoria principal
(memoria RAM). El microprocesador tomará una a una las instrucciones que lo componen e irá reali-
zando las tareas correspondientes.
Fase de búsqueda
Fase de ejecución
o Fase de ejecución. Consiste en la realización de todas las acciones que conlleva la propia ins-
trucción.
A.R.S.G. 448
REPARACIÓN Y MANTENIMIENTO P.C.
Una forma de clasificar los microprocesadores es en función de las instrucciones que son ca-
paces de ejecutar. Podemos encontrar dos tipos: microprocesadores: con tecnología CISC y RISC.
o CISC Complex Instructions Set Code, Código con un conjunto de instrucciones complejo. (In-
terpretan y ejecutan un gran número de instrucciones de longitud libre. Son más lentos, permi-
ten trabajar en el modo nativo; es decir, sin la traducción de software que disminuya el des-
empeño).
o RISC Reduced Instructions Set Code, Código con un conjunto de instrucciones reducido. (In-
terpretan y ejecutan sólo unas pocas instrucciones de longitud acotada. Son mucho más rápi-
dos que los microprocesadores CISC).
En principio, parece que la tecnología CISC es mucho más ventajosa que la RISC. Pero no es
así, un microprocesador CISC tarda mucho tiempo en ejecutar cada una de esas instrucciones. En
cambio un microprocesador RISC, como sólo entiende unas cuantas, su diseño interno le permite
ejecutarlas en muy poco tiempo, a una gran velocidad, mucho más rápido que un microprocesador
CISC.
Cuando se desee que un microprocesador RISC ejecute cierta instrucción que no entiende,
ésta se descompondrá en varias instrucciones de las sencillas que sí entiende. Aún así, descompo-
niendo una instrucción compleja en varias sencillas, es capaz de operar mucho más rápido que el
microprocesador CISC, el cual no tiene que descomponer esa instrucción porque la entiende directa-
mente.
Prácticamente, todos los microprocesadores que se utilizan en los PC compatibles con la ar-
quitectura x86 (microprocesadores fabricados por Intel y AMD) son de tecnología CISC. Poco a poco,
se fue abandonando la tecnología CISC y fue sustituida por tecnología RISC. Los microprocesadores
de Apple, se basan en la arquitectura RISC.
El proceso de cambio en los PC comenzó con la línea Pentium PRO donde la arquitectura
CISC ha ido dando paso a la RISC mejorando considerablemente la velocidad de procesamiento,
esta unión entre CISC y RISC dio lugar a microprocesadores híbridos, siendo cada vez más difusas
las diferencias entre uno y otro.
o Ejecutar las instrucciones en orden distinto del original para que las interdependencias entre
operaciones sucesivas no afecten al rendimiento del procesador.
o Contribuir a acelerar el rendimiento global del sistema, además de la velocidad del micropro-
cesador en sí.
A.R.S.G. 449
REPARACIÓN Y MANTENIMIENTO P.C.
SISTEMAS MULTIPROCESADOR
Los sistemas multiprocesador son una de las alternativas para mejorar el rendimiento, veloci-
dad y prestaciones de los servidores y las estaciones de trabajo.
Este sistema es muy utilizado para realizar tareas multiproceso, de está forma si un procesa-
dor está ocupado realizando una operación, nuestra petición de proceso la atenderá otro procesador
libre.
La tecnología de estos sistemas es bastante compleja porque utilizan en un mismo equipo dos
procesadores o más unidos simétricamente y en paralelo utilizando recursos compartidos como la
memoria del sistema. Todos los procesadores son tratados por igual y los procesadores se reparten
el trabajo de los usuarios con lo que mejora su rendimiento en el trabajo de una misma aplicación.
Los Sistemas de Multiprocesamiento Simétrico (SMP) de dos procesadores son utilizados pa-
ra servicios de mensajería mientras que los de cuatro procesadores se utilizan para ejecutar aplica-
ciones de empresa (Bases de Datos, Aplicaciones Cliente/Servidor).
En los sistemas de dos procesadores con respecto al monoprocesador se nota un gran incre-
mento de rendimiento y de velocidad. En los sistemas de cuatro procesadores con respecto al de dos
procesadores su rendimiento no tiene tanta diferencia.
Como hemos dicho los sistemas de multiprocesamiento simétrico (SMP) también llamados
tightly coupled (estrechamente acoplado) o Shared everything (todo compartido) son sistemas los
cuales comparten sus recursos lo cual supone un problema.
En los sistemas de dos o cuatro procesadores comparten la misma memoria RAM con lo cual
no representan grandes problemas de saturación, en cambio con los sistemas de ocho o mas proce-
sadores si podría suponer un gran problema, a la hora de responder a todas las peticiones de proce-
so, si son muchas todos consumirán de la misma memoria por lo que se pueden producir cuellos de
botella y relantizar el sistema de forma considerable, para está solución cada procesador dependerá
de pequeñas memorias caché.
A.R.S.G. 450
REPARACIÓN Y MANTENIMIENTO P.C.
Otro problema que nos podemos encontrar con está tecnológica es encontrar programas o sis-
temas operativos que estén optimizados para poder usar estos sistemas. Solo Windows 2000, XP,
Vista, Seven y Linux están preparados para ser utilizados en los SMP.
Como alternativa a los inconvenientes de los sistemas Multiproceso podemos aplicar está tec-
nología bastante más eficaz que es el HyperThreading que es el microprocesador que trabaja vir-
tualmente como dos, ejecutando varios hilos o subprocesos en paralelo.
Está tecnología divide la ejecución de cada instrucción en varios pasos independientes. Cada
uno de estos pasos se ejecuta en partes diferentes del procesador por lo que este proceso de ejecu-
ción se haría en paralelo, pero no siempre se puede aplicar está técnica debido a que en varios pro-
cesos iguales tendría que entrar en funcionamiento la misma unidad funcional, como la unidad aritmé-
tica lógica para hacer varias operaciones matemáticas, una solución a este pequeño inconveniente es
aplicar unos pocos de transistores más para duplicar más unidades funcionales como la descrita an-
teriormente (ALU – Unidad aritmética lógica), esto quiere decir que los procesadores que utilicen está
tecnología difícilmente podrán tener complicaciones, como los “cuellos de botella”.
A.R.S.G. 451
REPARACIÓN Y MANTENIMIENTO P.C.
Procesadores de Doble Núcleo.
Un procesador de doble núcleo (Dual Core) es un microprocesador en el cual hay dos proce-
sadores (físicos) independientes en el mismo encapsulado, además estos procesadores de doble
núcleo poseen para cada procesador interno una memoria caché de segundo nivel (L2) de 1 o 2 Mb
de capacidad, también comparten la memoria principal del sistema para la carga de sus propios pro-
cesos.
En este caso los “Cuellos de botella” no podrían producirse, ya que existe un mecanismo de
arbitraje que hace que cada núcleo tenga un ancho de banda óptimo.
En el caso de AMD el modelo que destaca con está tecnología es el ATHLON 64 X2 4800+ y
en el caso de Intel es el modelo PENTIUM EXTREME EDITION 840.
En el caso de AMD incorpora el canal HyperTransport a 2GHz para la comunicación con los
distintos integrados de la placa como el Chipset o entre ambos núcleos del Dual Core.
En cambio si podríamos decir que esta tecnología de Dual Core disiparía mucho más calor en
comparación con los sistemas monoprocesador (un solo procesador).
Otro inconveniente que nos puede presentar es su compatibilidad debido a que muchas pla-
cas bases actuales no están adaptadas a este tipo de sistemas, también le pasaría esto a las fuente
de alimentación que necesitarían más potencia que las actuales y conectores preparados para poder
alimentar los procesadores Dual Core.
El microprocesador es el chip más versátil en cuanto a las prestaciones y funciones que reali-
za en la computadora.
Cuanto mayor sea la velocidad a la que debe funcionar un chip, más difícil y caro será fabri-
carlo; por ello, el micro funciona a una velocidad que es un múltiplo de la velocidad de la placa base,
de forma que los otros componentes (el chipset de la placa base, la memoria, las tarjetas de expan-
sión) pueden mantener un precio mucho más ajustado y utilizarse con muchos micros distintos, con
sólo ajustar esos multiplicadores.
Por tanto, el micro funciona a dos velocidades, una interna y otra externa, ésta es la de comu-
nicación con la placa base. Entonces nos encontramos con el bus del sistema (entre el microproce-
sador y la memoria) y el FSB (entre el microprocesador y el puente norte) que lo comunican con el
exterior y tienen determinada velocidad.
Por otro lado, internamente tenemos la velocidad de funcionamiento del micro, que está dada
en función de la velocidad del bus de datos por ejemplo a 100 MHz, potenciada por un multiplicador
interno que nos dará la velocidad final, por ejemplo si el multiplicador es de 18x el micro funcionará a
1800 MHz. También internamente puede funcionar el llamado Back-side bus (BSB), que hace refe-
rencia a la velocidad con que el microprocesador se comunicará con la memoria cache.
Los FLOPS por sí solos no son un estándar muy útil para computadoras modernas. Existen
muchos otros factores de rendimiento tales como I/O (Entrada/Salida), comunicación inter procesa-
dor, coherencia del cache y jerarquía de memoria. Para aplicaciones ordinarias (no científicas) las
operaciones sobre enteros (medidos en MIPS) son mucho más comunes.
De lo anterior se deduce que medir el rendimiento en FLOPS no predice con precisión qué tan
rápido un procesador realizará cualquier tarea. Sin embargo, para muchas aplicaciones científicas,
como el análisis de datos, el rendimiento en FLOPS es una medida efectiva.
A.R.S.G. 453
REPARACIÓN Y MANTENIMIENTO P.C.
Para que se pueda usar el FLOPS como medida de rendimiento de punto flotante una referen-
cia estándar debe ser establecida para todas las computadoras de interés. Uno de ellos es el bench-
mark47 LINPACK48.
Los seres humanos podemos demorar unos 15 minutos en realizar una división larga a papel y
lápiz con diez dígitos significativos, dicha persona estaría computando en el rango de mili FLOPS. Es
importante tomar en cuenta que esta prueba puramente matemática puede no representar la capaci-
dad real del cerebro humano. Se estima que el poder de cómputo requerido para procesar olores,
sabores, tacto, visión y coordinación motora es del orden de 10 PFLOPS (10 veces el poder de
cómputo de “Roadrunner”49).
En las calculadoras de bolsillo cada solicitud requiere únicamente de una operación. Así que
raramente existe alguna razón para que el tiempo de respuesta exceda el del propio usuario. Cual-
quier respuesta menor a 0,1 segundos es percibida por el usuario humano como instantánea, de ma-
nera que una calculadora simple podría decirse que opera a 10 FLOPS.
Una computadora moderna de escritorio, que usa por ejemplo un procesador Pentium 4 o Ath-
lon 64, típicamente opera a más de 3 GHz, provee de un desempeño computacional del rango de
unos cuantos GFLOPS.
La computadora más rápida del mundo hasta la fecha (16 de noviembre de 2009) es la super-
computadora CRAY XT5 Jaguar que opera a 1,75 petaflops. Se encuentra ubicada en el Oak Ridge
National Laboratory (ORNL) en Oak Ridge, Tennessee, siendo propiedad del Departamento de
Energía de los Estados Unidos de Norteamérica y utiliza los últimos procesadores Six-Core Opteron
de AMD. Su predecesor CRAY XT, posía 322 TB de memoria y un ancho de banda I/O de 284
GB/segundo. En total, los recursos del ORNL pueden proporcionar hoy día hasta 2.5 petaflops teóri-
cos, siendo el primer sistema en petaflops disponible para la investigación abierta, mediante conve-
nios con diferentes universidades y centros de investigación.
47
La palabra benchmark es un anglicismo traducible al castellano como comparativa. Es una técnica utilizada
para medir el rendimiento de un sistema o componente del mismo, frecuentemente en comparación con el que
se refiere específicamente a la acción de ejecutar un benchmark. En términos de computadores personales, un
benchmark podría ser realizado en cualquiera de sus componentes, ya sea microprocesador, RAM, tarjeta de
video, etc. También puede ser dirigido específicamente a una función dentro de un componente, por ejemplo, la
unidad de coma flotante del procesador; o incluso a otros programas. También puede realizarse un "benchmark
de software", es decir comparar el rendimiento de un software contra otro o de parte del mismo, por ejemplo,
comparar distintas consultas a una base de datos para saber cuál es la más rápida o directamente partes de
código. El Benchmark es también un proceso continuo de medir productos, servicios y prácticas contra compe-
tidores más duros o aquellas compañías reconocidas como líderes en la industria.
48
Desarrollado en el Argone National Laboratory por Jack Dongarra en 1976, y es uno de los más usados en
sistemas científicos y de ingeniería. Su uso como benchmark fue accidental, ya que originalmente fue una ex-
tensión del programa Linpack, cuyo propósito era resolver sistemas de ecuaciones. La característica principal
de Linpack es que hacen un uso muy intensivo de las operaciones de coma flotante, por lo que sus resultados
son muy dependientes de la capacidad de la FPU que tenga el sistema.
49
Es una supercomputadora del Laboratorio Nacional Los Álamos en Nuevo México. Ha sido diseñado conjun-
tamente por IBM y el personal del laboratorio y es actualmente la segunda supercomputadora más rápida. Es el
primer sistema en alcanzar un rendimiento sostenido de un 1 petaFLOPS.
A.R.S.G. 454
REPARACIÓN Y MANTENIMIENTO P.C.
Rendimiento en millones de instrucciones por segundo
MIPS es el acrónimo de "millones de instrucciones por segundo". Es una forma de medir la po-
tencia de los procesadores.
Sin embargo, esta medida sólo es útil para comparar procesadores con el mismo juego de ins-
trucciones y usando benchmarks que fueron compilados por el mismo compilador y con el mismo
nivel de optimización.
Esto es debido a que la misma tarea puede necesitar un número de instrucciones diferentes si
los juegos de instrucciones también lo son; y por motivos similares en las otras dos situaciones des-
critas. En las comparativas, usualmente se representan los valores de pico, por lo que la medida no
es del todo realista.
La forma en que funciona la memoria que usa el procesador también es un factor clave para la
potencia de un procesador, algo que no suele considerarse en los cálculos con MIPS. Debido a estos
problemas, los investigadores han creado pruebas estandarizadas para medir el funcionamiento real,
y las MIPS han caído en desuso.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS (kiloinstrucciones por
segundo), que equivale a 0,001 MIPS. El primer microprocesador de propósito general, el Intel 8080
con una velocidad de reloj de 2 MHz, ejecutaba 640 KIPS, necesitando 3 ciclos para ejecutar una
instrucción. El Intel 8086 (16 bits), el primer microprocesador usado en PC con una velocidad de 4,77
MHz, ejecutaba 800 KIPS necesitando 6 ciclos para ejecutar una instrucción.
En el mundo de GNU/Linux se suelen referir a los MIPS como 'BogoMips'. Es una unidad de
medida inventada por Linus Torvalds para el Kernel de Linux.
El sistema necesita una forma para la temporización que debe ser calibrado con la velocidad
del propio procesador, así que es el núcleo el que calcula la velocidad a la que se ejecuta un bucle de
retardo, y esta medida son los BogoMIPS.
El nombre viene de Bogus que significa incorrecto, engañoso o falso. Este parámetro depende
de la arquitectura del procesador, esto hace variar la medición. Por lo que esta unidad de medida no
es lo suficientemente seria como para ser tenida en cuenta.
OVERCLOCKING
La palabra overclocking hace referencia a subir la velocidad de reloj de algo por encima de la
nominal.
Evidentemente, esto produce un aumento en las prestaciones, aunque también puede implicar
ciertos riesgos relativamente serios para el equipo.
Esto es posible dado que los componentes electrónicos de una computadora se construyen
con unos ciertos márgenes de seguridad en cuanto a sus condiciones de trabajo.
La propia naturaleza del overclocking hace que estemos haciendo funcionar el componente
por encima de sus especificaciones; esto supone:
Uno de los principales problemas radica en que cuando un componente electrónico funciona a
una velocidad más alta, produce una cantidad de calor más elevada. Este calor puede dañar al com-
ponente de diversas formas, desde acortar su vida útil (por un efecto físico llamado "electromigra-
ción"), quemarlo, o que funcione de manera inestable.
La posibilidad de overclocking depende del componente, incluso dos micros del mismo mode-
lo, de la misma fábrica y hasta de la misma serie pueden tener distinta tolerancia al overclocking, y no
hay forma de saberlo a priori.
Como regla general, partamos de cuanto más económica es la computadora, los componentes
suelen ser menos tolerantes y con menos prestaciones.
En el caso de los procesadores, la técnica más común consiste en hacerlo trabajar a una ve-
locidad mayor de la que marca. Los microprocesadores se diseñan de acuerdo a una gama de velo-
cidades de trabajo que está más o menos establecida desde el principio. Este diseño se realiza con
criterios electrónicos (caminos de la corriente eléctrica dentro del chip) y térmicos (el calor máximo
que el chip debe ser capaz de disipar).
Es imposible a priori conocer la velocidad exacta a la que un determinado chip será capaz de
funcionar. Una vez se han obtenido una serie de procesadores (en principio todos a una misma velo-
cidad establecida, por ejemplo de 1800Mhz), estos chips son testeados en un banco de pruebas.
Aquellos que pasan las pruebas de funcionamiento a 1800Mhz. se etiquetan como tal y salen a la
calle. Los que no pasan la prueba son trasladados sucesivamente a las pruebas de velocidades infe-
riores (1700 ó 1600 Mhz. por ejemplo) y se marcan para la velocidad en que hayan superado las
pruebas. La exigencia de estas pruebas es muy grande, y siguiendo con el ejemplo, podríamos en-
contrar en el mercado un micro originalmente diseñado a 1800Mhz pero etiquetado como 1700, lo
que nos daría un “amplio” nivel de overclocking.
Este nivel de overclocking de un procesador dependerá del tipo, y modelo en concreto; algu-
nos realmente no se pueden forzar, o en cantidad mínima. Por norma general, la velocidad de los
componentes puede verse aumentada en una media del 15%, siendo los procesadores de Intel los
que permiten ser más forzados, mientras que los de AMD no tanto, ya que suelen trabajar al máximo
de sus posibilidades.
La velocidad del microprocesador viene dada por dos factores: La velocidad de reloj en la pla-
ca base (cuyo valor afecta a todos los componentes del PC) y el multiplicador de frecuencia (cuyo
valor sólo afecta al procesador). Estos valores, cuya configuración se realiza a través de la placa ba-
se, multiplicados el uno por el otro determinarán la velocidad en que trabajará el procesador. El méto-
do utilizado para cambiarlos depende del modelo de placa base en cuestión.
En el manual de la placa base podemos encontrar cómo se realiza el cambio del multiplicador.
Antiguamente esto era posible mediante unos pequeños microinterruptores denominados jumpers,
posteriormente, esta configuración se comenzó a realizar por software, generalmente dentro del BIO-
S. En las placas más modernas, ésta detecta automáticamente las características teóricas del micro y
no permite la configuración manual.
Otro problema para poder realizar este tipo de overclocking es que los fabricantes de microproce-
sadores, a través de diferentes técnicas limitan los valores del multiplicador.
Haciendo esto aumentaremos la velocidad tanto del microprocesador como de los demás
componentes (la placa base, la memoria, las tarjetas de expansión...). Las posibilidades de configura-
ción son similares a lo expresado para el aumento del multiplicador.
Por ejemplo, la configuración "oficial" de un Celeron 1.8 GHZ es de 100 x 18, si ponemos un
bus de 110 MHz, el overclocking tendría los siguientes efectos:
Observe cómo la velocidad de los diferentes elementos suele estar relacionada con la de bus
(o externa) del micro.
Al sufrir tantos elementos el overclocking, los posibles fallos se multiplican, ya que basta con
que un elemento falle para que no tengamos éxito. Sin embargo, si lo conseguimos, el aumento de
prestaciones será muy grande, ya que estamos acelerando casi todos los elementos del PC, y no nos
afectarán las limitaciones impuestas por el fabricante del micro (al menos por ahora...).
Este método, combina los dos anteriores, permite obtener muy buenos resultados disminu-
yendo incluso los riesgos para el microprocesador.
Siguiendo con el ejemplo del Celeron de 1,8 GHZ cuya configuración original es 18x100, si la
modificamos a 15x133 aceleraríamos el bus PCI, la memoria y el microprocesador sufriría menos
quedando apenas por encima de su velocidad original. Esto es posible dado que muchas placas per-
miten la selección de la velocidad del bus.
Consiste en aumentar el multiplicador de frecuencia del procesador y después jugar con el vol-
taje de alimentación del mismo. De esta manera los pulsos del reloj serán un algo más "fuertes", y no
A.R.S.G. 457
REPARACIÓN Y MANTENIMIENTO P.C.
habrá posibilidad de que se pierdan y que el micro no los detecte después de haber aumentado la
frecuencia del procesador (a través del multiplicador de la CPU).
Electro-migración: Éste es un concepto algo ambiguo. Se sabe que las mayores velocidades
de funcionamiento causan una especie de erosión de los circuitos del micro. Esta erosión puede cau-
sar defectos con el tiempo y, obviamente, forzar un procesador a una frecuencia mayor puede acele-
rar mucho este proceso. Sin embargo, no está claro que este proceso sea determinante en la breve
vida de un microprocesador.
Alteración de la configuración global del equipo: Forzar la frecuencia del micro implica en mu-
chos casos aumentar la frecuencia de otros componentes: memoria, placa base, tarjeta de vídeo.
Refrigeración en el overclocking
El calor es uno de los principales enemigos de todo aparato electrónico, por lo que debemos
ocuparnos de eliminarlo en la mayor medida posible de nuestro sistema. Existen técnicas para au-
mentar la disipación de calor, pero requieren de conocimientos, algo de dinero y en ocasiones de
imaginación.
Existen programas de software que ayudan o controlar la refrigeración, son muy útiles para
equipos con componentes forzados
Recomendaciones
Para que un overclocking sea exitoso, conviene seguir estas pequeñas reglas:
A.R.S.G. 458
REPARACIÓN Y MANTENIMIENTO P.C.
1. Tenga muy claro lo que está haciendo.
2. Sea prudente, vaya con calma. Desconecte la corriente cuando está manipulando los jumpers
(salvo que la configuración se haga en la BIOS), descárguese de electricidad estática y com-
pare cuidadosamente las configuraciones de los jumpers del manual con las que usted selec-
ciona.
3. Suba la velocidad gradualmente, poco a poco, y compruebe cada vez que el PC funciona bien
y de forma estable, para lo cual nada mejor que cargar el sistema operativo y ejecutar algún
programa o juego que requiera altas exigencias del equipo.
4. Nunca deje encendido sin vigilancia un sistema overclockeado de cuya estabilidad no esté se-
guro al 100%.
5. Si el overclocking no funciona, intente aislar el fallo. Una vez aislado, actúe en consecuencia:
o si es la memoria, pruebe a cambiar su velocidad (de "Fast" a "Low", o aumentar los "wait
states", o pasar de CAS 2 a CAS 3...)
7. Puede subir una o como mucho dos décimas el voltaje del micro para estabilizarlo, pero no es
recomendable, ya que implica un riesgo elevado: se producirá bastante más calor, lo que no
es nada bueno, incluso muchos fabricantes no permiten esta posibilidad.
El FSB de los procesadores de Intel hasta Core 2 Quad es el resultado de multiplicar su bus
real por 4. Es decir un procesador con FSB de 1333 realmente tiene un bus de 333Mhz (1333/4=333),
uno de 1066 tiene un bus real de 266Mhz (1066/4=266).
Este valor multiplicado por el valor del “Multiplicador” da la velocidad en Ghz del procesador,
para saber que multiplicador tiene nuestro procesador debemos buscarlo en el Bios.
En un Core 2 Duo E7300 a 2,66Ghz y 1066 de FSB y el multiplicador es 10. Tomamos el 1066
y lo dividimos entre 4 para tener el bus real que es de 266 y si ahora usamos el multiplicador, es decir
multiplicamos el 266 por 10 obtendremos 2660, es decir 2,66Ghz que es la velocidad del procesador.
Si queremos saber cuanto he de subir el bus para ponerlo por ejemplo a 3,00Ghz pues calcu-
lo, 300 de bus real multiplicado por 10 del multiplicador me da 3000 que son 3,00Ghz, entonces en el
Bios tendríamos que subir el bus real a 300.
Para realizar el overclocking en el Bios entramos al menú “Advanced”, allí encontraremos una
opción “JuperFree Configuration”, entramos en esta opción y nos encontramos con una opción “AI
Overclock tuner” y lo pondremos en “Manual”.
Nos aparecerán varias opciones nuevas, una de ellas es “CPU Frequency” donde nos saldrá
un número de 3 cifras, en este caso 266 (este es el bus real). A partir de aquí la cosa ya es ir proban-
A.R.S.G. 459
REPARACIÓN Y MANTENIMIENTO P.C.
do a ver cuanto permite subir el procesador y la placa base. Recomiendo ir subiendo de poco en po-
co.
Cuando cambiemos ese número, pulsamos la tecla Esc y vamos a la pestaña de Exit, le da-
mos a Exit & Save Changes y le damos a OK. Si el nivel de overclock es estable iniciará Windows
correctamente. Si Windows no se inicia correctamente y el equipo se cuelga debemos apagar el PC,
abrir la torre y quitar la pila de la placa base o bien mover el jumper de Clear-CMOS, cuando volva-
mos a iniciar todos los valores habrán vuelto a su estado de fabrica.
Este proceso es similar en casi todos los Bios que lo permiten, en este caso corresponde a
una Bios de American Megatrends en una placa madre Asus P5VD1-X.
Para saber si el overclocking funciona se puede correr alguna aplicación de test antes y des-
pués de realizarlos, y para saber si es estable lo mejor es probar un juego.
Tanto Intel como AMD, en varias oportunidades han recurrido a deshabilitar partes del micro-
procesador o bien utilizar microprocesadores de línea averiados para la venta.
Con algunas líneas de microprocesadores, Intel deshabilitó las memorias caché para sacarlos
a la venta en una versión económica.
En AMD, los actuales microprocesadores multinúcleo tienen una trampa. Tanto los Athlon x2,
Phenom II x2 y Phenom II x3 son Phenom II x4 con núcleos bloqueados. Los Phenom II x4 con algu-
nos núcleos fallados de fábrica, en vez de tirarlos, son reutilizados desactivándole los núcleos que
funcionan mal, y así obtener procesadores de menor cantidad de núcleos para la venta.
Esto indica que muchos Dual-core o Tri-core, en realidad puede que sean un Quad-core, esto
puede darse por la alta demanda de estos procesadores, y que en realidad es más económico este
procedimiento que diseñar una fábrica de montaje específica para estos procesadores.
Estos núcleos se pueden reactivar mediante una opción del Bios y así funcionar con uno o dos
núcleos más. Debemos aclarar que si los núcleos fueron bloqueados porque no funcionan correcta-
mente las posibilidades de mejora son nulas. Además, en el caso de funcionar hay otros requerimien-
tos que se deben cumplir.
Athlon x2: la serie 7750 o 7780 (Inferiores a la serie Dual Core 6600+ no sirven).
Si no se tiene alguna de las opciones igual puede probarse, aunque las posibilidades de éxito
disminuyen considerablemente. En el caso del Bios si no tiene la función ACC se debería averiguar si
actualizando el firmware se incluye la opción.
La tecnología AMD Turbo Core originalmente estaba pensada para los Phenom II X6 Thuban
de 6 núcleos, posteriormente se lanzó un Phenom II X4 Zosma que incluía esta tecnología. Los inves-
tigadores descubrieron que este Phenom II X4 Zosma es en realidad un Phenom II X6 Thuban recor-
tado para trabajar con sólo 4 núcleos.
Los primeros modelos Zosma serían Phenom II X4 960T y X4 940T, con frecuencia de reloj de
3.3 GHz y 3 GHz respectivamente. Lo interesante es que al aplicar Turbo Core a estos procesadores,
su velocidad aumenta en 500 MHz.
El desbloqueo de los 2 núcleos faltantes fue hecho en una placa madre con chipset AMD
890GX y utilizando la misma técnica que hizo famosos a los Phenom II X2 explicada anteriormente.
Aquí trataremos más bien las ventajas que nos aportan y como aprovecharlas sobre los mi-
croprocesadores mirados desde una perspectiva global.
Al día de hoy casi no quedan en el mercado procesadores de un sólo núcleo, se puede encon-
trar algún Celeron de Intel o algún Sempron de AMD, algo similar ocurre con las placas madre para
estos modelos, salvo unas contadas excepciones, no hay en el mercado componentes.
Ni los procesadores de doble núcleo ni los de cuatro núcleos son nada nuevo. Hace muchísi-
mos años que tanto AMD como Intel disponen de modelos con estas características, solo que por su
precio y prestaciones en relación al software existente estaban destinados tan sólo al mercado de
Servidores y Estaciones de trabajo de alto rendimiento, por lo que el sacar al mercado doméstico este
tipo de procesadores ha supuesto para empezar rentabilizar su fabricación, al abaratarse enorme-
mente los costos de producción. Es cierto que estos procesadores están evolucionando enormemen-
te en cuando a mejoras en el rendimiento y consumo, pero lo que es la tecnología en sí misma hace
tiempo que está desarrollada.
Por otro lado, en procesadores de un solo núcleo se había llegado a unos límites difíciles de
superar, ya que los problemas de consumo y, sobre todo, de altas temperatura que presentaban a
partir de 3GHz eran bastante grandes (principalmente los P-4 con núcleo Prescott, los últimos 478 y
primeros 775 a partir de 2.8GHz, que son auténticos hornos). Esto es así hasta el punto en que Intel
desistió de sacar al mercado los Prescott a más de 3.4GHz que estaba desarrollando.
Esto sucede por una sencilla ley física. A mayor trabajo (poder de cálculo en este caso) mayor
consumo y, a su vez, mayor disipación térmica, y este problema se agudiza conforme se vayan au-
mentando las prestaciones del procesador.
Pero si lo que tenemos es un procesador con dos núcleos a 3GHz, que generan 40º cada uno,
el total de temperatura no son 80º, sino 40º, ya que en este caso la disipación térmica (la temperatu-
A.R.S.G. 461
REPARACIÓN Y MANTENIMIENTO P.C.
ra) de ambos núcleos no se suma. Realmente tampoco se suman las velocidades de ambos núcleos
(este es un error bastante común, si tenemos un procesador de doble núcleo a 3 GHz cada uno no
tenemos un procesador a 6 GHz, tenemos dos a 3GHz, que aunque a algunos le pueda parecer lo
mismo no lo es). Es más, la temperatura ni tan siquiera va a ser igual a la mayor de la de sus núcleos.
Si, por poner un ejemplo, tenemos un procesador con dos núcleos, uno de ellos a 35º y el otro a 50º,
la temperatura puede estar rondando los 40º (aclaremos que no es el promedio de las temperaturas).
Además, al disminuir la carga de trabajo en uno de los procesadores disminuye también su nivel de
disipación térmica (temperatura), y por lo tanto disminuye la temperatura del conjunto.
Ahora bien, llegados a este punto la siguiente cuestión es ¿qué ventajas nos aporta un proce-
sador de varios núcleos?
Para empezar ya hemos visto una ventaja importante en cuanto a la temperatura. A esto hay
que sumarle una importante reducción en el consumo. Pero en cuanto al rendimiento, hay que hacer
matizaciones.
Como ya hemos dicho, un procesador de doble núcleo a 3GHz no es lo mismo que un proce-
sador de un solo núcleo a 6 GHz, pero en cuanto a rendimiento en conjunto es casi mejor, y esto es
por varios motivos, entre ellos el que se elimina prácticamente el tiempo de espera entre cálculos
(esto en programas que permitan ejecutar instrucciones en paralelo), se reduce su consumo y se baja
significativamente su temperatura de trabajo.
Pero en cuanto a rendimiento neto en ejecución de programas hay que hacer una diferencia-
ción entre programas no diseñados para ejecutar instrucciones en paralelo y programas diseñados
para ejecutar instrucciones en paralelo.
Bien, en el primero de los casos, en ese programa en concreto no vamos a notar ninguna me-
jora, ya que todas sus instrucciones se van a ejecutar en un solo hilo, y un hilo es asignado a un
núcleo. Pero esto no quiere decir que en general no vayamos a tener una mejora en el rendimiento,
ya que si bien ese programa en concreto se está ejecutando en un sólo hilo y núcleo, otras instruc-
ciones o programas se pueden estar ejecutando en otro núcleo (ya sean instrucciones del sistema
operativo u otros programas si tenemos más de uno abierto).
Esto va a hacer que en cualquier caso notemos una mejora en el rendimiento general del
equipo, sobre todo si trabajamos en multitarea, ya que el sistema se va a encargar de distribuir la
carga entre los núcleos.
Pero en el segundo de los casos sí que vamos a notar una gran mejoría en el rendimiento, ya
que al estar un programa diseñado para ejecutar instrucciones en paralelo no siguen estas un único
hilo, y mientras que una instrucción se está ejecutando en un núcleo otra instrucción se está ejecu-
tando en otro núcleo. Esto, que en programas simples casi que pasa desapercibido, en programas
con procesos complejos y que requieran un gran trabajo del procesador, como es el caso de renderi-
zaciones de vídeo, por ejemplo, supone un ahorro en tiempo de ejecución igual al número de núcleos
implicados en ella.
En términos llanos, la diferencia en tiempo en una renderización con un programa que soporte
procesos en paralelo y un procesador de doble núcleo se puede estimar en un 50%.
¿Quiere decir esto que si utilizamos un procesador de cuatro núcleos el tiempo se va a reducir
al 25%? Pues sí y no. Esto va a depender directamente del programa con el que hagamos este traba-
jo y de en cuantos hilos sea capaz de dividir los procesos y subprocesos.
Entonces, y según lo visto ¿es siempre un procesador de varios núcleos la mejor opción y
cuantos más mejor?
A.R.S.G. 462
REPARACIÓN Y MANTENIMIENTO P.C.
Pues depende. Veamos, aquí siempre tenemos que tener clara la idea del uso que se hace
del equipo. Si lo que ejecutamos son procesos sencillos y de poca carga de procesador en realidad
no vamos a tener ninguna mejora significativa, ya que en ningún caso (ni aún con procesadores de un
solo núcleo, como los Celeron o los Sempron) vamos a aprovechar la totalidad de la capacidad del
procesador. Por ejemplo, en una empresa donde se utiliza el equipo para ejecutar un programa de
gestión de venta o un programa de contabilidad, con un procesador de dos núcleos lo que vamos a
tener es un desperdicio de recursos. Y lo mismo nos encontramos si para lo que utilizamos el PC es
para navegar por internet, chatear y escuchar música (y conste que hay un porcentaje bastante alto
de usuarios que solo lo utilizan para estos cometidos), aunque estemos haciendo las tres cosas a la
vez.
Pero si exceptuamos estos casos concretos, sí que vamos a tener una mejora en el rendi-
miento más o menos apreciable al utilizar un procesador de varios núcleos. Pero siempre hay que
tener muy presente el valor individual de cada núcleo en cuanto a frecuencia se refiere.
Pues en este caso pasa exactamente lo mismo. En juegos que no estén diseñados para traba-
jar con procesos en paralelo no vamos a notar absolutamente ninguna mejora. Es más, se ha dado el
caso de que en procesadores de doble núcleo poco potentes andan incluso peor que en procesado-
res de un sólo núcleo, pero de mayor velocidad. Esto, que se daba en los primeros procesadores de
doble núcleo (los Pentium D) es así porque la velocidad anunciada no correspondía a la velocidad por
núcleo, sino a la velocidad de la suma de los núcleos, de forma que un Pentium D a 3GHz no tenía 2
núcleos a 3GHz (estas velocidades vendrían bastante tiempo después), sino dos núcleos a 1.5GHz.
Esto hacía que un juego se ejecutase en un núcleo a 1.5GHZ, con un rendimiento inferior al que se
tenía ejecutando ese mismo juego en un procesador de un sólo núcleo, pero a 2.6, 2.8 o 3GHz de
velocidad.
Esto no sólo pasaba con los juegos, sino con todos los programas, lo que ocurre es que los
juegos son muy exigentes en cuanto a prestaciones puras del PC, y este llamémosle defecto era más
evidente en este tipo de programas que en otros, que requerían mucha menos carga de procesador.
En juegos que sí que estén diseñados para trabajar con procesos en paralelo sí que vamos a
notar una mejora, aunque en los juegos no todo depende del procesador (es vital la calidad y veloci-
dad de la tarjeta de video) y no son demasiados los que están realmente preparados para aprovechar
correctamente un procesador dual, y mucho menos un Quad.
Hasta aquí hemos visto lo que ocurre sobre todo con procesadores de doble núcleo, pero...
¿es esto igual en los procesadores Quad?
Pues básicamente sí, sólo que en el caso de los Quad son realmente pocas las aplicaciones
que sí van a aprovechar esta tecnología al máximo, por lo que, al menos de momento, si la diferencia
de inversión es grande puede que sea mucha mejor opción un procesador de doble núcleo, pero de
mayor velocidad por núcleo, que un Quad. Aunque casi con seguridad las aplicaciones se adecuen
en poco tiempo para ser usadas el microprocesadores de múltiples núcleos.
Como conclusión rápida podemos decir que, llegados al nivel de prestaciones alcanzadas por
los procesadores y los problemas que se planteaban con la tecnología de un sólo núcleo, sí que eran
(y son) necesarios los procesadores de varios núcleos.
A.R.S.G. 463
REPARACIÓN Y MANTENIMIENTO P.C.
Otra cosa muy distinta es que para un usuario normal realmente compense actualmente com-
prar un procesador de cuatro núcleos, sobre todo si el precio (a igualdad de velocidad por núcleo) es
significativamente superior al de un procesador de dos núcleos.
Esta es una pregunta que nos hacemos muy a menudo. Vamos a ver las diferentes posibilida-
des que se nos plantean para responderla.
Windows necesita sobre todo bastante memoria RAM para funcionar, a la vez que bastante
espacio en el disco duro.
Esto se debe a que, contrariamente a lo que se podría pensar, tanto el archivo de paginación
como el de memoria virtual son directamente proporcionales a la memoria que tengamos, es decir, a
más memoria mayor espacio reservado para memoria virtual (este suele ser aproximadamente 1.5
veces la memoria RAM que tengamos instalada).
Muchas veces culpamos de la necesidad de memoria a Windows. Pues bien, esto es cierto,
pero solo en parte. Los programas que utilizamos (sobre todo los juegos y los de retoque fotográfico)
también necesitan en la actualidad grandes cantidades de memoria, pero con esto hay que tener mu-
cho cuidado, que un programa indique que necesita 512Mb de RAM para funcionar no significa en la
mayoría de las ocasiones que con 512Mb de RAM vaya a funcionar bien, suele significar que necesita
512Mb libres para funcionar.
Dicho de otro modo, vamos a notar más rápido un PC con un procesador a 3Gh con 1Gb de
RAM que otro a 3.4Gh con solo 512Mb de RAM.
Pero siempre hay que buscar un equilibrio, ya que tampoco nos va a servir de mucho tener un
procesador de 800Mhz con 2Gb de RAM, aunque evidentemente vamos a notar una gran mejoría en
su funcionamiento.
Tampoco sirve de mucho un aumento desmesurado en la RAM, ya que todos los sistemas
operativos de 32 bits tienen por un lado un tope de 4Gb y por otro una cierta dificultad real para direc-
cionar más de 3.5Gb.
Una cantidad muy buena de RAM para la gran mayoría de los programas que utilizamos nor-
malmente la podemos estimar en 2Gb.
Por otro lado, en cuanto al cambio de procesador depende muy mucho del procesador que
tengamos, si bien hoy en día un cambio de procesador suele implicar en la mayoría de las ocasiones
la necesidad de cambiar también la placa base y, en la mayoría de los casos, las memorias, ya que
posiblemente las que tengamos no sean compatibles con la nueva placa base.
Cambiar un procesador para ganar un 10% nos va a ser rentable en muy pocas ocasiones, ya
que esta mejora no nos va a compensar el gasto que representa. Esto no quiere decir que ese 10%
no sea importante, solo que no va a resultar rentable el cambio.
Dicho esto, hay un tema en el que se piensa poco a la hora del rendimiento global del equipo,
y es el tema de los discos duros.
A.R.S.G. 464
REPARACIÓN Y MANTENIMIENTO P.C.
El acceso al disco duro, sobre todo cuando se trata de discos duros antiguos, es un verdadero
cuello de botella para el funcionamiento de nuestro PC.
Un disco duro antiguo (por ejemplo, uno de 10Gb) no solo se diferencia de uno moderno en la
capacidad. También tiene una velocidad de rotación menor y, sobre todo, una velocidad muy inferior
de acceso y transferencia.
Las averías imputables a un mal estado del procesador o a un defecto de fabricación se van a
manifestar en los primeros días de utilización (normalmente en el mismo momento de conectarlos por
primera vez). A partir de ese momento, el 99% de las averías que pueda sufrir el procesador van a
ser responsabilidad del usuario (y por lo tanto, sin estar cubiertas por la garantía), por lo que debe-
mos tener un gran cuidado sobre las tres causas posibles de avería.
Estas tres causas son comunes a todos los elementos que forman nuestro PC, y por orden de
importancia son:
Temperatura.
Es fundamental que nos aseguremos de que el procesador está en todo momento correcta-
mente refrigerado, manteniéndose su temperatura entre los límites que establece el fabricante.
Para ello podemos recurrir a una serie de herramientas que nos mantengan informados sobre
las diferentes temperaturas que tenemos en nuestro sistema, así como del correcto funcionamiento
de los ventiladores.
También para evitar un sobre calentamiento es muy importante que hagamos un manteni-
miento periódico de limpieza, sin esperar a que ya nos esté avisando de que está sucio.
Es muy importante asegurarnos igualmente de que el gabinete esté colocado de forma que su
ventilación, entrada de aire y evacuación del calor generado sean correctos, no estando entorpecidos
por ningún elemento extraño.
Una de las causas más habituales de este calentamiento excesivo es la practica del Overcloc-
king, en muchos casos hecho sin tener en cuenta que forzar un micro implica un superior consumo y
una muy superior temperatura generada que es necesario disipar.
Debemos tener en cuenta que los disipadores y ventiladores que traen de fábrica tanto INTEL
como AMD son muy buenos y más que suficientes para un uso normal de estos procesadores, pero
no están pensados para trabajar con unas temperaturas muy superiores a las que dichos fabricantes
tienen estipuladas a su normal frecuencia.
Los procesadores actuales están bastante bien protegidos contra los excesos de temperatura,
bloqueándose e incluso dejando de funcionar cuando la temperatura llega a unos niveles demasiado
altos, por lo que no es muy probable que se quemen, pero que esto pase de forma continuada suele
traer como consecuencia que el procesador termine averiándose.
A.R.S.G. 465
REPARACIÓN Y MANTENIMIENTO P.C.
Pero el daño que puede causar el sobre calentamiento del procesador no solo es que este
termine estropeándose.
Es bastante más común que debido a las altas temperaturas que se alcanzan en las zonas
inmediatas al procesador sufra una avería nuestra placa base, ya que normalmente muy cerca del
disipador del procesador se encuentran los condensadores, y estos suelen estropearse bastante por
los excesos de temperatura.
Con respecto a este tema del calentamiento no es cierto que un PC se pueda estropear por un
exceso de temperatura por permanecer encendido durante mucho tiempo.
Un procesador también se estropea por un fallo en la alimentación, aunque es bien cierto que
cuando un fallo en la alimentación llega a afectar al procesador ya suele haber dado indicios del pro-
blema quemando algún otro elemento de nuestro PC, como la placa base y muy probablemente los
módulos de memoria.
El procesador se alimenta con una tensión (en la actualidad) de 1.5v aproximadamente. Con
estos valores pueden soportar picos durante fracciones de segundo de hasta casi el doble de estos
valores.
Esto no ocurre del mismo modo con procesadores más antiguos, que además tienen un con-
sumo mayor y trabajan a un mayor voltaje.
Naturalmente nos referimos a averías. Un mal funcionamiento se puede producir con una fluc-
tuación de ese voltaje de un 10%, sin que este mal funcionamiento implique la avería del procesador.
Mala manipulación.
Una tercera causa de avería suele deberse a una mala manipulación del procesador, cuando
por descuido al manipularlo doblamos los pines de conexión o rompemos alguno de ellos.
Con respecto a estas causas de avería es bueno saber que tanto INTEL como AMD conside-
ran anulada la garantía de estos cuando presentan cualquier síntoma de sobre calentamiento o de
mala manipulación, considerando al usuario como único responsable de las averías causadas.
LEY DE MOORE
El Dr. Gordon Moore, uno de los fundadores de Intel Corporation, formuló en el año 1965 una
ley que se ha venido a conocer como la "Ley de Moore". La citada ley enuncia que el número de tran-
sistores contenidos en un microprocesador se dobla aproximadamente cada dieciocho meses. Esto
se ha venido cumpliendo en los últimos 30 años.
A.R.S.G. 466
REPARACIÓN Y MANTENIMIENTO P.C.
EVOLUCION DE LOS PROCESADORES
Hablar de procesadores es, sobre todo, hablar de Intel y de AMD, ya que son las empresas
que han soportado el peso del desarrollo de estos, ya sea colaborando ambas empresas como en su
fase de desarrollos independientes.
La historia de los microprocesadores específicos para PC, comienza en el año 1978, con la
salida al mercado del procesador Intel 8086.
Si bien cuando hablamos de las computadoras personales se debe incluir Apple y su Macin-
tosh, y a Motorola y su Power PC, nos vamos a limitar a los microprocesadores que utilizan los juegos
de instrucciones x86 y x64 (los actuales procesadores de 64 bits) que corresponden a los IBM PC y
sus múltiples clones y compatibles.
Son los primeros procesadores utilizados en PC. El 8086 sale al mercado el 8 de junio de
1978 y el 8088 el 1 de junio de 1979.
Muy poco tienen que ver con lo que hoy en día estamos acostumbrados. Ni tan siquiera la
forma o el tipo de conexión con la placa base.
La diferencia entre los 8086 y los 8088 estaba en su frecuencia, que en el caso del 8086 era
4.77Mhz, pasando en los 8088 a una frecuencia de entre 8 y 10Mhz, pudiendo gestionar 1Mb de
memoria.
Usaban un socket de 40 pines (paralelos 20 + 20) y tenían un bus externo de entre 8 y 16 bits.
Carecían de instrucciones de coma flotante (Unidad de Punto Flotante), pero para implemen-
tar estas se podían complementar con el coprocesador matemático 8087, que era el más utilizado,
aunque no el único, ni tan siquiera el que ofrecía un mejor rendimiento.
De los dos modelos, el más utilizado sin duda fue el 8088, que además fue el utilizado por IBM
en su IBM PC.
A.R.S.G. 467
REPARACIÓN Y MANTENIMIENTO P.C.
Si bien tuvo poco uso e incidencia en las PC, siendo utilizado como tal por tan solo un par de
fabricantes de PC, no se puede decir lo mismo sobre su importancia, ya que se siguen utilizando en
nuestros días (en su versión CMOS), sobre todo por su capacidad de desarrollar las funciones que de
otra forma tendrían que estar distribuidas entre varios circuitos.
En lugar de socket utilizaban una presentación tipo chip (la misma que utilizan hoy como
CMOS), con una frecuencia de 6Mhz.
Más conocido como 286 sale al mercado el 1 de febrero de 1982, se trata de un procesador
en el que ya aparece la forma definitiva que llega hasta hoy (cuadrado, con los pines en una de sus
caras), insertado en un socket de 68 pines, si bien también hubo versiones en formato chip de 68
contactos.
Los primeros 80286 tenían una frecuencia de 6 y 8Mhz, llegando con el paso del tiempo a los
25Mhz.
Funcionaban al doble de velocidad por ciclo de reloj que los 8086 y podían direccionar 16Mb
de memoria RAM.
Los 80286 fueron desarrollados para poder trabajar en control de procesos en tiempo real y
sistemas multiusuario, para lo que se le añadió un modo protegido. En este modo trabajaban las ver-
siones de 16 bits del sistema operativo OS/2.
A.R.S.G. 468
REPARACIÓN Y MANTENIMIENTO P.C.
Los procesadores 80286 fueron fabricados bajo licencia de Intel por varios fabricantes además
de la propia Intel, como AMD, Siemens, Fujitsu y otros.
La aparición el 17 de octubre de 1985 de los procesadores 80386 (más conocido como 386)
supuso el mayor avance hasta el momento en el desarrollo de los procesadores, no solo por lo que
supusieron de mejora sobre los 80286 en cuanto a rendimiento, sino porque es precisamente con
este procesador con el que se sientan las bases de los futuros microprocesadores. Esto llega hasta el
punto de que si no fuera por el rendimiento y frecuencias, cualquier programa actual podría funcionar
perfectamente en un 80386 (cosa que no ocurre con los procesadores anteriores).
Se trata del primer procesador para PC50 con una arquitectura CISC de 32bits e instrucciones
x86 de direccionamiento plano (IA32)51, que básicamente es la misma que se utiliza en nuestros días
para los microprocesadores de 32 bits.
Al tratarse de procesadores de 32bits podían manejar (en teoría) hasta 4Gb de RAM. Fueron
también los primeros procesadores a los que se adaptó un disipador para su refrigeración.
La conexión a la placa base en las primeras versiones es mediante socket de 68 pines, igual
al de los 80286 pero no compatibles, por lo que también significó el desarrollo de placas base especí-
ficas para este procesador, pasando posteriormente a un socket de 132 pines.
80386SX: Diseñado como versión económica del 80386. Seguía siendo un procesador de 32bits,
pero externamente se comunicaba a 16bits, lo que hacía que fuera a la mitad de la velocidad de un
80386 normal.
80386SX Now: Versión del 80386SX, pero con el patillaje compatible pin a pin con los procesadores
80286, desarrollado por Intel para poder actualizar los 80286 sin necesidad de cambiar de placa ba-
se.
80386DX: Es la denominación que se le dio a los 80386 para distinguirlos de los 80386SX cuando
estos salieron al mercado.
50
''Para PC'' porque Motorola, con su Motorola 68000 para Mac hacia tiempo que ya utilizaba el direccionamien-
to plano.
51
IA: Intel Architecture.
A.R.S.G. 469
REPARACIÓN Y MANTENIMIENTO P.C.
Este procesador supuso la ruptura de la colaboración de Intel con otros fabricantes de proce-
sadores, lo que tuvo como consecuencia que la gran mayoría de ellos dejaran de fabricar estos.
La gran excepción fue AMD, que en 1991 sacó al mercado su procesador Am386, totalmente
compatible con los 80386, lo que terminó con el monopolio de Intel en la fabricación de estos.
Aunque no se utilizaron en PC, este procesador siguió siendo fabricado hasta mediados de 2007.
Más conocidos como 486, es muy similar al 80386DX, aunque con notables diferencias, sale
al mercado el 10 de abril de 1989.
De este tipo de procesador ha habido muchas versiones, tanto de Intel como de otros fabri-
cantes a los que les fue licenciado.
Las frecuencias de estos procesadores fueron creciendo con el tiempo, llegando al final de su
periodo de venta a los 133Mhz (en el caso del Am486 DX5 133), lo que lo convirtió en uno de los pro-
cesadores más rápidos de su época (y hay que tener en cuenta que los Pentium ya estaban en el
mercado).
Las más frecuentes fueron 25Mhz, 33Mhz, 40Mhz, 50Mhz (con duplicación del reloj), 66Mhz
(con duplicación del reloj), 75Mhz (con triplicación del reloj), 100Mhz (con triplicación del reloj) y en el
caso de AMD (en los Am486DX5) 120Mhz y 133Mhz.
En un primer momento también salieron con unas frecuencias de 16Mhz y de 20Mhz, pero es-
tas versiones son muy raras.
Con respecto a los Am486DX5 133 (también conocidos como Am5x86 133), hay que señalar
que se trataba del procesador de mayor rendimiento de su época.
Las novedades en estos procesadores 80486 fueron muchas, como por ejemplo un conjunto
de instrucciones muy optimizado, unidad de coma flotante integrada en el micro (fueron los primeros
en no necesitar el coprocesador matemático), una caché integrada en el propio procesador y una
interface de bus mejorada. Esto hacia que a igualdad de frecuencia que un i386 los i486 fueran al
doble de velocidad.
Intel 80486-DX2: Un 80486DX que internamente funciona al doble de la velocidad del reloj externo.
Intel 80486-SX2: Un 80486SX que funciona internamente al doble de la velocidad del reloj.
Intel 80486 OverDrive (486SX, 486SX2, 486DX2 o 486DX4): variantes de los modelos anteriores,
diseñados como procesadores de actualización, que tienen un patillaje o voltaje diferente. Normal-
mente estaban diseñados para ser empleados en placas base que no soportaban el microprocesador
equivalente de forma directa.
Los procesadores 80486 utilizaron a lo largo su existencia varios tipos diferentes de socket,
socket 486 (de 168 pines), socket 2 (de 238 pines), y socket 3 (de 237 pines, trabajando a 3.3v o a
5v).
Como ya hemos comentado, estos procesadores (en sus últimas versiones, sobre todo de
AMD y de Cyrix) estuvieron durante un tiempo en el mercado junto con los primeros Pentium (desde
marzo de 1993 hasta 1995, prácticamente hasta la salida del Pentium Pro y en el caso de los AMD
hasta 1996).
Este procesador sale al mercado el 22 de marzo de 1993, fue creado para sustituir al 80486
en los PC de alto rendimiento, si bien compartió mercado con ellos hasta el año 1.995, siendo preci-
samente estos su gran rival, ya que tuvieron que pasar algunos años y varias versiones del Pentium
para que superara a los 80486 DX4 en prestaciones, siendo además mucho más caros.
Los primeros Pentium tenían una frecuencia de entre 60Mhz, 66Mhz, 75Mhz y 133Mhz, y a
pesar de las mejoras en su estructura, entre las que destaca su arquitectura escalable, no llegaban a
superar a los 80486 de Intel que en ese momento había en el mercado, y mucho menos a los Cyrix y
Am486 DX4.
Para empeorar esta situación, en 1994 se descubrió un error de división presentado en la uni-
dad de coma flotante (FPU) de los Pentium.
A.R.S.G. 471
REPARACIÓN Y MANTENIMIENTO P.C.
Los primeros Pentium de 60Mhz y 66Mhz utilizaban el socket 4, de 273 pines y 5v, siendo
rápidamente sustituido por el socket 5, de 320 pines y 3.3v, utilizado por los Intel Pentium a partir de
75Mhz y por los AMD 5x86 y los primeros K5 de hasta 100Mhz, que también podían utilizar el socket
7.
En enero de 1997 salió al mercado una evolución de los Pentium llamada Pentium MMX (Mul-
timedia Extensions), al añadírsele a los Pentium un juego de instrucciones multimedia que agilizaba
enormemente el desarrollo de estos, con unas frecuencias de entre 166Mhz y 200Mhz.
Los Intel Pentium MMX utilizaban los socket 7, de 321 pines y entre 2.5 y 5v. Estos socket son
los que también utilizaban los procesadores de la competencia de Intel, tanto los AMD K5 y K6 como
los Cyrix 6x86.
AMD K5 (1996)
Utilizaban para las funciones multimedia las instrucciones MMX, que se habían convertido en
el estándar de la época.
A.R.S.G. 472
REPARACIÓN Y MANTENIMIENTO P.C.
AMD K6 (1997)
Diseñados para trabajar en placas base de Pentium dotadas de socket 7 y con unas frecuen-
cia de entre 166 y 300Mhz, tuvieron una pronta aceptación en el mercado, ya que no solo tenían un
precio bastante inferior a los Pentium MMX de Intel, sino también unas prestaciones muy superiores a
estos y a los Cyrix 6x86, que se quedaron bastante descolgados.
Tal era la velocidad de los K6 que superaban incluso a los Pentium Pro en ejecución de soft-
ware de 16 bits y solo por debajo del Pentium Pro en ejecución de programas de 32 bits y del Pen-
tium II en ejecución de instrucciones de coma flotante (hay que tener en cuenta que los rivales natura-
les del AMD K6 no son ni el Pentium Pro ni el Pentium II, sino los Pentium MMX).
Cyrix 6x86
En cuanto al Cyrix 6x86, si bien se trataba de un procesador bastante rápido (más que los
MMX de Intel, aunque sin llegar a los K6 de AMD), fue un procesador que desde un principio adoleció
de una serie de debilidades e incompatibilidades que hizo que no llegara en ningún momento a ser un
serio rival de ninguno de ellos, llegando incluso a poner en peligro la supervivencia de la propia Cyrix,
que a finales de 1997 tuvo que fusionarse con Nationals Semiconductor.
Hay que decir que este es el último socket que tanto Intel como AMD utilizaron conjuntamente,
produciéndose con la salida al mercado de los Pentium II el definitivo divorcio entre ambas compañ-
ías, hasta el punto de ser incompatibles las placas base para uno u otro.
Basado en el nuevo núcleo P6, que más tarde seria adoptado por los Pentium II y Pentium III,
utilizaba el socket 8, de forma rectangular y 387 pines, desarrollado exclusivamente para este proce-
sador.
Con una frecuencia de reloj de 133 y 200Mhz, incorpora por primera vez un sistema de memo-
ria caché integrada en el mismo encapsulado. Esta cache podía ser de 256Kb, 512Kb o de 1Mb.
En 1998 Intel abandonó su producción en favor de una nueva serie de procesadores para ser-
vidores y estaciones de trabajo, conocida con el nombre de Intel Xeon, que es la denominación que
llega hasta nuestros días para ese tipo de procesadores, tras pasar por denominaciones tales como
Intel Pentium II Xeon o Intel Pentium III Xeon.
El 7 de mayo de 1997 Intel saca al mercado con una campaña de propaganda nunca antes
vista para el lanzamiento de un procesador, el Pentium II.
Se trata de un procesador basado en la arquitectura x86, con el núcleo P6, que fue utilizado
por primera vez en los Pentium Pro.
A.R.S.G. 474
REPARACIÓN Y MANTENIMIENTO P.C.
Con el lanzamiento de este procesador se produce la separación definitiva entre Intel y AMD,
a partir de lo cual comienza la incompatibilidad de placas base entre ambos.
También se produce por parte de Intel el abandono de los socket, en favor de instalar los pro-
cesadores en Slot, en este caso Slot 1, de 242 contactos y de entre 1.3 y 3.3 voltios, que por cierto,
sería abandonado posteriormente ante los problemas que este sistema genera.
La incorporación de los Slots fue justificada por tres motivos. Uno fue el facilitar la refrigeración
del procesador, el otro, bastante más real y no confesado, fue la necesidad de espacio en la placa
para poder dotar de una serie de características a los Pentium II.
Un tercer motivo fue puramente comercial, Intel se vio superada tanto en prestaciones como
en precio por AMD, lo que le llevo a intentar con el lanzamiento de los Pentium II monopolizar el mer-
cado, ya que la patente del Slot 1 es de su propiedad y en un principio se convirtió también en el úni-
co fabricante de placas base para Pentium II, pero este intento tuvo que ser rápidamente abandonado
por razones comerciales, ya que los demás fabricantes de placas base respondieron potenciando la
fabricación de placas base para los K6 y K6-2 de AMD y para los Cyrix, mejorando incluso las presta-
ciones del socket 7 con la salida al mercado del socket Súper 7.
Estos procesadores, que como ya hemos dicho estaban basados más en los Pentium Pro que
en los Pentium originales, contaban con memoria caché, tanto de nivel L1 (32Kb) como de nivel L2
(512Kb), pero a diferencia de lo que ocurría en los Pentium Pro no estaba integrada en el encapsula-
do del procesador, sino unida a este por medio de un circuito impreso. Para complicar más el tema,
se les dota de instrucciones MMX y se les mejora el rendimiento en ejecuciones de 16bits.
Las frecuencias de reloj de estos Pentium II iban desde los 166Mhz a los 450Mhz, con una ve-
locidad de bus de 66Mhz y de 100Mhz para las versiones superiores a los 333Mhz.
Por primera vez se utilizaron nomenclaturas para definir las diferentes versiones, tales como
Klamath y Deschutes o Tonga y Dixon en dispositivos móviles.
Klamath:
A la venta desde mayo de 1997, con un FSB de 66Mhz y frecuencias de 233Mhz, 266Mhz y
300Mhz.
Deschutes:
Sustituye a la serie Klamath en enero de 1998. Se comercializa con dos frecuencias de FSB diferen-
tes y con velocidades de entre 266Mhz y 450Mhz.
Celeron
La principal finalidad de esta gama fue y es la de ofrecer procesadores al bajo precio para fre-
nar el avance de AMD.
A.R.S.G. 475
REPARACIÓN Y MANTENIMIENTO P.C.
En esta fecha, Intel lanza el primer Celeron, denominado Covington. Este procesador no era
otra cosa que un Pentiun II a 266 o a 300Mhz, pero sin memoria Caché L2.
Tenían una velocidad superior a los MMX, pero su rendimiento efectivo era bastante pobre,
por lo que después de un éxito inicial (basado sobre todo en la fuerza de la marca, más que en las
cualidades del producto), Intel se planteó su sustitución.
A principios de 1999, Intel saco al mercado el sustituto del Celeron Covington, el Celeron
Mendocino.
Los primeros Mendocino salieron con velocidad de 300Mhz, conservando el FSB a 66Mhz, pe-
ro incorporando por primera vez en un procesador una memoria caché L2 (en este caso de 128Kb)
incorporada en el mismo microprocesador y a la misma velocidad de este, en vez de llevarla exterior,
como es el caso de los Pentium II.
Esto hacía que las prestaciones del Mendocino, sobre todo en velocidades de hasta 433 Mhz,
fueran realmente buenas, llegando a competir seriamente con los Pentium II, lo que a la larga se con-
virtió en un problema para la propia Intel.
En las versiones superiores, debido sobre todo a la limitación que suponía el FSB a 66Mhz,
las prestaciones reales no eran tan buenas, dejando de ser un gran procesador para convertirse sim-
plemente en un procesador competitivo, siendo en muchos casos superado ampliamente por los AMD
K6-2.
AMD K6-2
Por su parte, AMD no respondió a la salida de los Intel Pentium II hasta mayo de 1998, con la
salida al mercado del nuevo AMD K6-2.
Este procesador siguió utilizando el socket 7 en las versiones de hasta 550Mhz y el socket
Super7, que permitía el uso de AGP.
El uso de este tipo de socket fue todo un acierto comercial por parte de AMD, ya que permitía
actualizar los Pentium que utilizaban este mismo socket a unas prestaciones incluso superiores a las
ofrecidas por los Mendocino, e incluso en algunos casos a las ofrecidas por los Pentium II de meno-
res velocidades, pero con un desembolso económico muchísimo menor.
A.R.S.G. 476