Está en la página 1de 105

Circuito

nombre masculino

1. Conjunto de conductores y otros elementos eléctricos


interconectados por los que pasa la corriente eléctrica.

"al quitar el fusible quedó el circuito abierto"

o circuito impreso

Circuito eléctrico que va colocado en un soporte aislante plano y se


emplea en computadoras y otros equipos digitales.

Circuito impreso

En electrónica, “placa de circuito impreso” (del inglés:


PrintedCircuitBoard, PCB), es la superficie constituida por caminos, pistas
o buses de material conductor laminadas sobre una base no conductora.
El circuito impreso se utiliza para conectar eléctricamente a través de las
pistas conductoras, y sostener mecánicamente, por medio de la base, un
conjunto de componentes electrónicos. Las pistas son generalmente de
cobre mientras que la base se fabrica generalmente de resinas de fibra de
vidrio reforzada, Pertinax, pero también cerámica, plástico, teflón o
polímeros como la baquelita.

También se fabrican de celuloide con pistas de pintura conductora cuando


se requiere que sean flexibles para conectar partes con movimiento entre
sí, evitando los problemas del cambio de estructura cristalina del cobre
que hace quebradizos los conductores de cables y placas

La producción de las PCB y el montaje de los componentes puede ser


automatizada.1 Esto permite que en ambientes de producción en masa,
sean más económicos y fiables que otras alternativas de montaje (p. e.:
wire-wrap o entorchado, ya pasado de moda). En otros contextos, como la
construcción de prototipos basada en ensamblaje manual, la escasa
capacidad de modificación una vez construidos y el esfuerzo que implica la
soldadura de los componentes2 hace que las PCB no sean una alternativa
óptima. Igualmente, se fabrican placas con islas y / barras conductoras
para los prototipos, algunas según el formato de las Protoboards.

La organización IPC (InstituteforPrintedCircuits), ha generado un conjunto


de estándares que regulan el diseño, ensamblado y control de calidad de
los circuitos impresos, siendo la familia IPC-2220 una de las de mayor
reconocimiento en la industria. Otras organizaciones, también
contribuyen con estándares relacionados, como por ejemplo: Instituto
Nacional Estadounidense de Estándares (ANSI, American
NationalStandardsInstitute), Comisión Electrotécnica Internacional (IEC,
International EngineeringConsortium), Alianza de Industrias Electrónicas
(EIA, Electronic Industries Alliance), y JointElectronDeviceEngineering
Council (JEDEC).

Índice

[ocultar]

• 1Historia

• 2Composición física

o 2.1Sustratos

• 3Características básicas del sustrato

o 3.1Mecánicas

o 3.2Químicas

o 3.3Térmicas

o 3.4Eléctricas

• 4Diseño

o 4.1Automatización de diseño electrónico


• 5Manufactura

o 5.1Patrones

• 6Métodos típicos para la producción de circuitos impresos

o 6.1Atacado

o 6.2Perforado

o 6.3Estañado y máscara antisoldante

o 6.4Serigrafía

o 6.5Montaje

o 6.6Pruebas y verificación

o 6.7Protección y paquete

• 7Tecnología de montaje superficial

• 8Listado de máquinas industriales que intervienen en la fabricación


de PCB

• 9Programas para el diseño de circuitos impresos

• 10Véase también

• 11Notas y referencias

• 12Enlaces externos

Historia[editar]

Probablemente, el inventor del circuito impreso fue el ingeniero austríaco


Paul Eisler (1907-1995), que mientras trabajaba en Inglaterra, fue quien
fabricó un circuito impreso como parte de una radio, alrededor de 1936.
[cita requerida] Aproximadamente en 1943, en los Estados Unidos
comenzaron a usar esta tecnología a gran escala para fabricar radios
robustas, con la finalidad de usarlas en la Segunda Guerra Mundial.
Después de la guerra, en 1948, EE.UU. liberó la invención para su uso
comercial.[cita requerida] Los circuitos impresos no se volvieron populares
en la electrónica de consumo hasta mediados de 1950, cuando el proceso
de “auto-ensamblaje” fue desarrollado por la Armada de los Estados
Unidos.[cita requerida]

Antes que los circuitos impresos (y por un tiempo después de su


invención), la conexión “punto a punto” era la más usada. Para prototipos,
o producción de pequeñas cantidades, el método wirewrap puede
considerarse más eficiente.[cita requerida]

Originalmente, cada componente electrónico tenía pines de cobre o latón


de varios milímetros de longitud, y el circuito impreso tenía orificios
taladrados para cada pin del componente. Los pines de los componentes
atravesaban los orificios y eran soldados a las pistas del circuito impreso.
Este método de ensamblaje es llamado agujero pasante o through-hole.
[cita requerida] En 1949, Moe Abramson y Stanilus F. Danko, de la
UnitedStatesArmySignal Corps, desarrollaron el proceso de auto-
ensamblaje, en donde las pines de los componentes eran insertadas en
una lámina de cobre con el patrón de interconexión, y luego eran
soldadas.[cita requerida] Con el desarrollo de la laminación de tarjetas y
técnicas de grabados, este concepto evolucionó en el proceso estándar de
fabricación de circuitos impresos usado en la actualidad. La soldadura se
puede hacer automáticamente pasando la tarjeta sobre un flujo de
soldadura derretida, en una máquina de soldadura por ola.[cita requerida]

El costo asociado con la perforación de los orificios y el largo adicional de


las pines, se elimina al utilizar dispositivo de montaje superficial
(tecnología de montaje superficial).

Composición física[editar]

La mayoría de los circuitos impresos están compuestos por entre una a


dieciséis capas conductoras, separadas y soportadas por capas de material
aislante (sustrato) laminadas (pegadas) entre sí. Normalmente, la cantidad
de capas de una PCB depende dela cantidad de señales que se quieren
rutar.

Las capas pueden conectarse a través de orificios, llamados vías. Los


orificios pueden ser electorecubiertos; para conectar cada capa del
circuito, el fabricante mediante un proceso químico, deposita en todas las
superficies expuestas del panel, incluyendo las paredes del agujero una
fina capa de cobre químico, esto crea una base metálica de cobre puro; o
también se pueden utilizar pequeños remaches. Los circuitos impresos de
alta densidad pueden tener “vías ciegas”, que son visibles en solo un lado
de la tarjeta, o “vías enterradas”, que no son visibles en el exterior de la
tarjeta.

Sustratos[editar]

Artículo principal: Substrato (electrónica)

Los sustratos de los circuitos impresos utilizados en la electrónica de


consumo de bajo costo, se hacen de papel impregnado de resina fenólica,
a menudo llamados por su nombre comercial: Pértinax. Usan
designaciones como XXXP, XXXPC y FR-2. El material es de bajo costo, fácil
de mecanizar y causa menos desgaste de las herramientas que los
sustratos de fibra de vidrio reforzados (la más conocida es la FR-4). Las
letras "FR" en la designación del material indican "retardante de llama"
(FlameRetardant, en inglés).

Los sustratos para los circuitos impresos utilizados en la electrónica


industrial y de consumo de alto costo, están hechos típicamente de un
material designado FR-4. Estos consisten en un material de fibra de vidrio,
impregnados con una resina epóxica resistente a las llamas. Pueden ser
mecanizados, pero debido al contenido de vidrio abrasivo, requiere de
herramientas hechas de carburo de tungsteno en la producción de altos
volúmenes. Debido al reforzamiento de la fibra de vidrio, exhibe una
resistencia a la flexión alrededor de 5 veces más alta que el Pertinax,
aunque a un costo más alto.

Los sustratos para los circuitos impresos de circuitos de radio en


frecuencia de alta potencia usan plásticos con una constante dieléctrica
(permitividad) baja, tales como Rogers® 4000, Rogers® Duroid, DuPont
Teflón (tipos GT y GX), poliamida, poliestireno y poliestireno entrecruzado.
Típicamente tienen propiedades mecánicas más pobres, pero se considera
que es un compromiso de ingeniería aceptable, en vista de su desempeño
eléctrico superior.
Los circuitos impresos utilizados en el vacío o en gravedad cero, como en
una nave espacial, al ser incapaces de contar con el enfriamiento por
convección, a menudo tienen un núcleo grueso de cobre o aluminio para
disipar el calor de los componentes electrónicos.

No todas las tarjetas usan materiales rígidos. Algunas son diseñadas para
ser muy o ligeramente flexibles, usando DuPont'sKapton film de poliamida
y otros. Esta clase de tarjetas, a veces llamadas “circuitos flexibles”, o
“circuitos rígido-flexibles”, respectivamente, son difíciles de crear, pero
tienen muchas aplicaciones. A veces son flexibles para ahorrar espacio (los
circuitos impresos dentro de las cámaras y auriculares son casi siempre
circuitos flexibles, de tal forma que puedan doblarse en el espacio
disponible limitado. En ocasiones, la parte flexible del circuito impreso se
utiliza como cable o conexión móvil hacia otra tarjeta o dispositivo. Un
ejemplo de esta última aplicación es el cable que conecta el cabezal en
una impresora de inyección de tinta.

Características básicas del sustrato[editar]

Mecánicas[editar]

1. Suficientemente rígidos para mantener los componentes.

2. Fácil de taladrar.

3. Sin problemas de laminado.

Químicas[editar]

1. Metalizado de los taladros.

2. Retardante de las llamas.

3. No absorbe demasiada humedad.

Térmicas[editar]

1. Disipa bien el calor.

2. Coeficiente de expansión térmica bajo para que no se rompa.

3. Capaz de soportar el calor en la soldadura.


4. Capaz de soportar diferentes ciclos de temperatura.

Eléctricas[editar]

1. Constante dieléctrica baja, para tener pocas pérdidas.

2. Rigidez dieléctrica (punto de ruptura dieléctrica) elevada.

Diseño[editar]

Usualmente un ingeniero (eléctrico o electrónico) diseña el circuito y un


especialista diseña el circuito impreso. El diseñador debe obedecer
numerosas normas para diseñar un circuito impreso que funcione
correctamente y que al mismo tiempo sea barato de fabricar.

Automatización de diseño electrónico[editar]

Artículo principal: Automatización de diseño electrónico

Los diseñadores de circuitos impresos a menudo utilizan programas de


automatización de diseño electrónico (EDA, por sus siglas en inglés), para
distribuir e interconectar los componentes. Estos programas almacenan
información relacionada con el diseño, facilita la edición, y puede también
automatizar tareas repetitivas.

La primera etapa es convertir el esquema en una lista de nodos (net list en


inglés). La lista de nodos es una lista de los pines (o patillas) y nodos del
circuito, a los que se conectan los pines de los componentes. Usualmente
el programa de “captura de esquemáticos”, utilizado por el diseñador del
circuito, es responsable de la generación de la lista de nodos, y esta lista
es posteriormente importada en el programa de ruteo.

El siguiente paso es determinar la posición de cada componente. La forma


sencilla de hacer esto es especificar una rejilla de filas y columnas, donde
los dispositivos deberían ir. Luego, el programa asigna el pin 1 de cada
dispositivo en la lista de componentes, a una posición en la rejilla.
Típicamente, el operador puede asistir a la rutina de posicionamiento
automático al especificar ciertas zonas de la tarjeta, donde deben ir
determinados grupos de componentes. Por ejemplo, a las partes
asociadas con el subcircuito de la fuente de alimentación se les podría
asignar una zona cercana a la entrada al conector de alimentación. En
otros casos, los componentes pueden ser posicionados manualmente, ya
sea para optimizar el desempeño del circuito, o para poner componentes
tales como perillas, interruptores y conectores, según lo requiere el diseño
mecánico del sistema.

El programa luego expande la lista de componentes en una lista completa


de todos los pines para la tarjeta, utilizando plantillas de una biblioteca de
footprints asociados a cada tipo de componentes. Cada footprint es un
mapa de los pines de un dispositivo, usualmente con la distribución de los
pad y perforaciones recomendadas. La biblioteca permite que los
footprint sean dibujados solo una vez, y luego compartidos por todos los
dispositivos de ese tipo.

En algunos sistemas, los pads de alta corriente son identificados en la


biblioteca de dispositivos, y los nodos asociados son etiquetados para
llamar la atención del diseñador del circuito impreso. Las corrientes
elevadas requieren de pistas más anchas, y el diseñador usualmente
determina este ancho.

Luego el programa combina la lista de nodos (ordenada por el nombre de


los pines) con la lista de pines (ordenada por el nombre de cada uno de los
pines), transfiriendo las coordenadas físicas de la lista de pines a la lista de
nodos. La lista de nodos es luego reordenada, por el nombre del nodo.

Algunos sistemas pueden optimizar el diseño al intercambiar la posición


de las partes y puertas lógicas para reducir el largo de las pistas de cobre.
Algunos sistemas también detectan automáticamente los pines de
alimentación de los dispositivos, y generan pistas o vías al plano de
alimentación o conductor más cercano.

Luego el programa trata de rutear cada nodo en la lista de señales-pines,


encontrando secuencias de conexión en las capas disponibles. A menudo
algunas capas son asignadas a la alimentación y a la tierra, y se conocen
como plano de alimentación y tierra respectivamente. Estos planos
ayudan a blindar los circuitos del ruido.
El problema de ruteo es equivalente al problema del vendedor viajero, y
es por lo tanto NP-completo, y no se presta para una solución perfecta. Un
algoritmo práctico de ruteo es elegir el pin más lejano del centro de la
tarjeta, y luego usar un “algoritmo codicioso” para seleccionar el siguiente
pin más cercano con la señal del mismo nombre.

Después del ruteo automático, usualmente hay una lista de nodos que
deben ser ruteados manualmente.

Una vez ruteado, el sistema puede tener un conjunto de estrategias para


reducir el costo de producción del circuito impreso. Por ejemplo, una
rutina podría suprimir las vías innecesarias (cada vía es una perforación,
que cuesta dinero). Otras podrían redondear los bordes de las pistas, y
ensanchar o mover las pistas para mantener el espacio entre estas dentro
de un margen seguro. Otra estrategia podría ser ajustar grandes áreas de
cobre de tal forma que ellas formen nodos, o juntar áreas vacías en áreas
de cobre. Esto permite reducir la contaminación de los productos
químicos utilizados durante el grabado y acelerar la velocidad de
producción.

Algunos sistemas tienen “comprobación de reglas de diseño” para validar


la conectividad eléctrica y separación entre las distintas partes,
compatibilidad electromagnética, reglas para la manufactura, ensamblaje
y prueba de las tarjetas, flujo de calor y otro tipo de errores.

La serigrafía, máscara antisoldante y plantilla para la pasta de soldar, a


menudo se diseñan como capas auxiliares.

Manufactura[editar]

Patrones[editar]

A la izquierda la imagen de la PCB diseñada por computadora, y a la


derecha la PCB manufacturada y montada.

La gran mayoría de las tarjetas para circuitos impresos se hacen


adhiriendo una capa de cobre sobre todo el sustrato, a veces en ambos
lados (creando un circuito impreso virgen), y luego retirando el cobre no
deseado después de aplicar una máscara temporal (por ejemplo,
grabándola con percloruro férrico), dejando sólo las pistas de cobre
deseado. Algunos pocos circuitos impresos son fabricados al ‘agregar’ las
pistas al sustrato, a través de un proceso complejo de electro-
recubrimiento múltiple. Algunos circuitos impresos tienen capas con pistas
en el interior de este, y son llamados circuitos impresos multicapas. Estos
son formados al aglomerar tarjetas delgadas que son procesadas en forma
separada. Después de que la tarjeta ha sido fabricada, los componentes
electrónicos se sueldan a la tarjeta.

Métodos típicos para la producción de circuitos impresos[editar]

1. La impresión serigráfica utiliza tintas resistentes al grabado para


proteger la capa de cobre. Los grabados posteriores retiran el cobre no
deseado. Alternativamente, la tinta puede ser conductiva, y se imprime en
una tarjeta virgen no conductiva. Esta última técnica también se utiliza en
la fabricación de circuitos híbridos.

2. El fotograbado utiliza una fotomecánica y grabado químico para


eliminar la capa de cobre del sustrato. La fotomecánica usualmente se
prepara con un fotoplóter, a partir de los datos producidos por un
programa para el diseño de circuitos impresos. Algunas veces se utilizan
transparencias impresas en una impresora láser como fotoherramientas
de baja resolución.

3. El fresado de circuitos impresos utiliza una fresa mecánica de 2 o 3


ejes para quitar el cobre del sustrato. Una fresa para circuitos impresos
funciona en forma similar a un plóter, recibiendo comandos desde un
programa que controla el cabezal de la fresa los ejes x, y, y z. Los datos
para controla la máquina son generados por el programa de diseño, y son
almacenados en un archivo en formato HPGL o Gerber.

4. La impresión en material termosensible para transferir a través de


calor a la placa de cobre. En algunos sitios comentan de uso de papel
glossy (fotográfico), y en otros de uso de papel con cera, como los papeles
en los que vienen los autoadhesivos.
Tanto el recubrimiento con tinta, como el fotograbado requieren de un
proceso de atacado químico, en el cual el cobre excedente es eliminado,
quedando únicamente el patrón deseado.

Atacado[editar]

El atacado de la placa virgen se puede realizar de diferentes maneras. La


mayoría de los procesos utilizan ácidos o corrosivos para eliminar el cobre
excedente. Existen métodos de galvanoplastia que funcionan de manera
rápida, pero con el inconveniente de que es necesario atacar al ácido la
placa después del galvanizado, ya que no se elimina todo el cobre.

Los químicos más utilizados son el cloruro férrico, el sulfuro de amonio, el


ácido clorhídrico mezclado con agua y peróxido de hidrógeno. Existen
formulaciones de ataque de tipo alcalino y de tipo ácido. Según el tipo de
circuito a fabricar, se considera más conveniente un tipo de formulación u
otro.

Para la fabricación industrial de circuitos impresos es conveniente utilizar


máquinas con transporte de rodillos y cámaras de aspersión de los
líquidos de ataque, que cuentan con control de temperatura, de control
de presión y de velocidad de transporte. También es necesario que
cuenten con extracción y lavado de gases.

Perforado[editar]

Las perforaciones o vías del circuito impreso se taladran con pequeñas


brocas hechas de carburo tungsteno. El perforado es realizado por
maquinaria automatizada, controlada por una cinta de perforaciones o
archivo de perforaciones. Estos archivos generados por computador son
también llamados “taladros controlados por computadora” (NCD, por sus
siglas en inglés) o “archivos Excellon”. El archivo de perforaciones describe
la posición y tamaño de cada perforación taladrada.

Cuando se requieren vías muy pequeñas, taladrar con brocas es costoso,


debido a la alta tasa de uso y fragilidad de estas. En estos casos, las vías
pueden ser evaporadas por un láser. Las vías perforadas de esta forma
usualmente tienen una terminación de menor calidad al interior del
orificio. Estas perforaciones se llaman “micro vías”.
También es posible, a través de taladrado con control de profundidad,
perforado láser, o pre-taladrando las láminas individuales antes de la
laminación, producir perforaciones que conectan sólo algunas de las capas
de cobre, en vez de atravesar la tarjeta completa. Estas perforaciones se
llaman “vías ciegas” cuando conectan una capa interna con una de las
capas exteriores, o “vías enterradas” cuando conectan dos capas internas.

Las paredes de los orificios, para tarjetas con dos o más capas, son
metalizadas con cobre para formar “orificios metalizados”, que conectan
eléctricamente las capas conductoras del circuito impreso.

Estañado y máscara antisoldante[editar]

Los pads y superficies en las cuales se montarán los componentes,


usualmente se metalizan, ya que el cobre al desnudo no es soldable
fácilmente. Tradicionalmente, todo el cobre expuesto era metalizado con
soldadura. Esta soldadura solía ser una aleación de plomo-estaño, sin
embargo, se están utilizando nuevos compuestos para cumplir con la
directiva RoHS de la Unión Europea, la cual restringe el uso de plomo. Los
conectores de borde, que se hacen en los lados de las tarjetas, a menudo
se metalizan con oro. El metalizado con oro a veces se hace en la tarjeta
completa.

Las áreas que no deben ser soldadas pueden ser recubiertas con un
polímero ‘resistente a la soldadura’, el cual evita cortocircuitos entre los
pines adyacentes de un componente.

Serigrafía[editar]

Los dibujos y texto se pueden imprimir en las superficies exteriores de un


circuito impreso a través de la serigrafía. Cuando el espacio lo permite, el
texto de la serigrafía puede indicar los nombres de los componentes, la
configuración de los interruptores, puntos de prueba, y otras
características útiles en el ensamblaje, prueba y servicio de la tarjeta.
También puede imprimirse a través de tecnología de impresión digital por
chorro de tinta (inkjet/Printar) y volcar información variable sobre el
circuito (serialización, códigos de barra, información de trazabilidad).

Montaje[editar]
En las tarjetas throughhole (“a través del orificio”), los pines de los
componentes se insertan en los orificios, y son fijadas eléctrica y
mecánicamente a la tarjeta con soldadura.

Con la tecnología de montaje superficial, los componentes se sueldan a los


pads en las capas exteriores de la tarjetas. A menudo esta tecnología se
combina con componentes throughhole, debido a que algunos
componentes están disponibles sólo en un formato.

Pruebas y verificación[editar]

Las tarjetas sin componentes pueden ser sometidas a “pruebas al


desnudo”, donde se verifica cada conexión definida en el netlist en la
tarjeta finalizada. Para facilitar las pruebas en producciones de volúmenes
grandes, se usa una “Cama de pinchos” para hacer contacto con las áreas
de cobre u orificios en uno o ambos lados de la tarjeta. Una computadora
le indica a la unidad de pruebas eléctricas, que envíe una pequeña
corriente eléctrica a través de cada contacto de la cama de pinchos, y que
verifique que esta corriente se reciba en el otro extremo del contacto.
Para volúmenes medianos o pequeños, se utilizan unidades de prueba con
un cabezal volante que hace contacto con las pistas de cobre y los orificios
para verificar la conectividad de la placa verificada.

Protección y paquete[editar]

Los circuitos impresos que se utilizan en ambientes extremos, usualmente


tienen un recubrimiento, el cual se aplica sumergiendo la tarjeta o a través
de un aerosol, después de que los componentes hayan sido soldados. El
recubrimiento previene la corrosión y las corrientes de fuga o
cortocircuitos producto de la condensación. Los primeros recubrimientos
utilizados eran ceras. Los recubrimientos modernos están constituidos por
soluciones de goma silicosa, poliuretano, acrílico o resina epóxida. Algunos
son plásticos aplicados en una cámara al vacío.

Tecnología de montaje superficial[editar]

Artículo principal: Tecnología de montaje superficial


La tecnología de montaje superficial fue desarrollada en la década de
1960, ganó impulso en Japón en la década de 1980, y se hizo popular en
todo el mundo a mediados de la década de 1990.

Los componentes fueron mecánicamente rediseñados para tener


pequeñas pestañas metálicas que podían ser soldadas directamente a la
superficie de los circuitos impresos. Los componentes se hicieron mucho
más pequeños, y el uso de componentes en ambos lados de las tarjetas se
hizo mucho más común, permitiendo una densidad de componentes
mucho mayor.

El montaje superficial o de superficie se presta para un alto grado de


automatización, reduciendo el costo en mano de obra y aumentando las
tasas de producción. Estos dispositivos pueden reducir su tamaño entre
una cuarta a una décima parte, y su costo entre la mitad y la cuarta parte,
comparado con componentes throughhole.

Listado de máquinas industriales que intervienen en la fabricación de


PCB[editar]

1. Perforadoras de control numérico con cambio automático de


mechas.

2. Perforadora de control numérico 6 de 4 cabezales.

3. Laminadora.

4. Iluminadora de 2 x 1000 W de una bandeja doble faz.

5. Iluminadora 60/75 de 2 x 5000 W de doble bandeja doble faz.

6. Reveladora de fotopolímeros de 4 cámaras.

7. Desplacadora de fotopolímeros de 4 cámaras.

8. Grabadora amoniacal de 2 cámaras + doble enjuague.

9. Grabadora amoniacal.

10. Impresoras serigráficas semiautomáticas.

11. Impresora.
12. Pulidoras simples.

13. Pulidora.

14. Fotoplóter de película continua de triple rayo láser.

15. Reveladora continua de películas fotográficas.

16. Router de control numérico de 1 cabezal de capacidad de 600 x 600


mm.

17. Perforadora/apinadora de doble cabezal.

18. Compresores de pistón seco de 10 HP.

19. Compresor de tornillo de 30 HP.

20. Guillotina.

21. Hornos de secado.

22. Afiladora de mechas de vidia de 6 piedras.

23. Máquina de V-scoring.

24. Reveladora con 2 cámaras de enjuague.

25. Máquina Bonding por inducción para el registro de multicapas.

26. Prensa para el prensado de multicapas.

• Chip, abreviatura de "Circuito integrado".

Circuito integrado

Este artículo trata sobre microchips (circuitos integrados). Para otros usos
de este término, véase Microchip.

Circuitos integrados de memoria EPROM con una ventana de cristal de


cuarzo que posibilita su borrado mediante radiación ultravioleta.
Un circuito integrado (CI), también conocido como chip o microchip, es
una estructura de pequeñas dimensiones de material semiconductor,
normalmente silicio, de algunos milímetros cuadrados de superficie (área),
sobre la que se fabrican circuitos electrónicos generalmente mediante
fotolitografía y que está protegida dentro de un encapsulado de plástico o
de cerámica.1 El encapsulado posee conductores metálicos apropiados
para hacer conexión entre el circuito integrado y un circuito impreso.

Los CI se hicieron posibles gracias a descubrimientos experimentales que


mostraban que artefactos semiconductores podían realizar las funciones
de los tubos de vacío, así como a los avances científicos de la fabricación
de semiconductores a mediados del siglo XX. La integración de grandes
cantidades de pequeños transistores dentro de un pequeño espacio fue
un gran avance en la elaboración manual de circuitos utilizando
componentes electrónicos discretos. La capacidad de producción masiva
de los circuitos integrados, así como la fiabilidad y acercamiento a la
construcción de un diagrama a bloques en circuitos, aseguraba la rápida
adopción de los circuitos integrados estandarizados en lugar de diseños
utilizando transistores discretos.

Los CI tienen dos principales ventajas sobre los circuitos discretos: costo y
rendimiento. El bajo costo es debido a los chips; ya que posee todos sus
componentes impresos en una unidad de fotolitografía en lugar de ser
construidos un transistor a la vez. Más aún, los CI empaquetados usan
mucho menos material que los circuitos discretos. El rendimiento es alto
ya que los componentes de los CI cambian rápidamente y consumen poco
poder (comparado sus contrapartes discretas) como resultado de su
pequeño tamaño y proximidad de todos sus componentes. Desde 2012, el
intervalo de área de chips típicos es desde unos pocos milímetros
cuadrados a alrededor de 450 mm2, con hasta 9 millones de transistores
por mm2.

Los circuitos integrados son usados en prácticamente todos los equipos


electrónicos hoy en día, y han revolucionado el mundo de la electrónica.
Computadoras, teléfonos móviles, y otros dispositivos electrónicos que
son parte indispensables de las sociedades modernas, son posibles gracias
a los bajos costos de los circuitos integrados.
Índice

[ocultar]

• 1Historia

• 2Popularidad

• 3Tipos

• 4Clasificación

• 5Limitaciones de los circuitos integrados

o 5.1Disipación de potencia

o 5.2Capacidades y autoinducciones parásitas

o 5.3Límites en los componentes

o 5.4Densidad de integración

• 6Véase también

• 7Referencias

• 8Enlaces externos

Historia[editar]

Geoffrey Dummer en los años 1950.

En abril de 1958, el ingeniero alemán Werner Jacobi2 (Siemens AG)


completa la primera solicitud de patente para circuitos integrados con
dispositivos amplificadores de semiconductores. Jacobi realizó una típica
aplicación industrial para su patente, la cual no fue registrada.

Más tarde, la integración de circuitos fue conceptualizada por el científico


de radares Geoffrey Dummer (1909-2002), que estaba trabajando para la
Royal Radar Establishment del Ministerio de Defensa Británico, a finales
de la década de 1940 y principios de la década de 1950.
El primer circuito integrado fue desarrollado en 1959 por el ingeniero Jack
S. Kilby2 (1923-2005) pocos meses después de haber sido contratado por
la firma Texas Instruments. Se trataba de un dispositivo de germanio que
integraba seis transistores en una misma base semiconductora para
formar un oscilador de rotación de fase.

En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la
enorme contribución de su invento al desarrollo de la tecnología.3

Robert Noyce desarrolló su propio circuito integrado, que patentó unos


seis meses después. Además resolvió algunos problemas prácticos que
poseía el circuito de Kilby, como el de la interconexión de todos los
componentes; al simplificar la estructura del chip mediante la adición de
metal en una capa final y la eliminación de algunas de las conexiones, el
circuito integrado se hizo más adecuado para su producción en masa.
Además de ser uno de los pioneros del circuito integrado, Robert Noyce
también fue uno de los co-fundadores de Intel Corporation, uno de los
mayores fabricantes de circuitos integrados del mundo.4

Los circuitos integrados se encuentran en todos los aparatos electrónicos


modernos, tales como relojes, automóviles, televisores, reproductores
MP3, teléfonos móviles, computadoras, equipos médicos, etc.

El desarrollo de los circuitos integrados fue posible gracias a


descubrimientos experimentales que demostraron que los semiconductor,
particularmente los transistores, pueden realizar algunas de las funciones
de las válvulas de vacío.

La integración de grandes cantidades de diminutos transistores en


pequeños chips fue un enorme avance sobre el ensamblaje manual de los
tubos de vacío (válvulas) y en la fabricación de circuitos electrónicos
utilizando componentes discretos.

La capacidad de producción masiva de circuitos integrados, su


confiabilidad y la facilidad de agregarles complejidad, llevó a su
estandarización, reemplazando circuitos completos con diseños que
utilizaban transistores discretos, y además, llevando rápidamente a la
obsolescencia a las válvulas o tubos de vacío.
Son tres las ventajas más importantes que tienen los circuitos integrados
sobre los circuitos electrónicos construidos con componentes discretos: su
menor costo; su mayor eficiencia energética y su reducido tamaño. El bajo
costo es debido a que los CI son fabricados siendo impresos como una sola
pieza por fotolitografía a partir de una oblea, generalmente de silicio,
permitiendo la producción en cadena de grandes cantidades, con una muy
baja tasa de defectos. La elevada eficiencia se debe a que, dada la
miniaturización de todos sus componentes, el consumo de energía es
considerablemente menor, a iguales condiciones de funcionamiento que
un circuito electrónico homólogo fabricado con componentes discretos.
Finalmente, el más notable atributo, es su reducido tamaño en relación a
los circuitos discretos; para ilustrar esto: un circuito integrado puede
contener desde miles hasta varios millones de transistores en unos pocos
milímetros cuadrados.5

Los avances que hicieron posible el circuito integrado han sido,


fundamentalmente, los desarrollos en la fabricación de dispositivos
semiconductores a mediados del siglo XX y los descubrimientos
experimentales que mostraron que estos dispositivos podían reemplazar
las funciones de las válvulas o tubos de vacío, que se volvieron
rápidamente obsoletos al no poder competir con el pequeño tamaño, el
consumo de energía moderado, los tiempos de conmutación mínimos, la
confiabilidad, la capacidad de producción en masa y la versatilidad de los
CI.6

Entre los circuitos integrados más complejos y avanzados se encuentran


los microprocesadores, que controlan numerosos aparatos, desde
teléfonos móviles y horno de microondas hasta computadoras. Los chips
de memorias digitales son otra familia de circuitos integrados, de
importancia crucial para la moderna sociedad de la información. Mientras
que el costo de diseñar y desarrollar un circuito integrado complejo es
bastante alto, cuando se reparte entre millones de unidades de
producción, el costo individual de los CI por lo general se reduce al
mínimo. La eficiencia de los CI es alta debido a que el pequeño tamaño de
los chips permite cortas conexiones que posibilitan la utilización de lógica
de bajo consumo (como es el caso de CMOS), y con altas velocidades de
conmutación.

A medida que transcurren los años, los circuitos integrados van


evolucionando: se fabrican en tamaños cada vez más pequeños, con
mejores características y prestaciones, mejoran su eficiencia y su eficacia,
y se permite así que mayor cantidad de elementos sean empaquetados
(integrados) en un mismo chip (véase la ley de Moore). Al tiempo que el
tamaño se reduce, otras cualidades también mejoran (el costo y el
consumo de energía disminuyen, y a la vez aumenta el rendimiento).
Aunque estas ganancias son aparentemente para el usuario final, existe
una feroz competencia entre los fabricantes para utilizar geometrías cada
vez más delgadas. Este proceso, y lo esperado para los próximos años,
está muy bien descrito por la International
TechnologyRoadmapforSemiconductors. 7

Tipos[editar]

Este artículo tiene referencias, pero necesita más para


complementar su verificabilidad.

Puedes colaborar agregando referencias a fuentes fiables como se indica


aquí. El material sin fuentes fiables podría ser cuestionado y eliminado.

Este aviso fue puesto el 31 de octubre de 2015.

Existen al menos tres tipos de circuitos integrados:

• Circuitos monolíticos: están fabricados en un solo monocristal,


habitualmente de silicio,1 pero también existen en germanio, arseniuro de
galio, silicio-germanio, etc.

• Circuitos híbridos de capa fina: son muy similares a los circuitos


monolíticos, pero, además, contienen componentes difíciles de fabricar
con tecnología monolítica. Muchos conversores A/D y conversores D/A se
fabricaron en tecnología híbrida hasta que los progresos en la tecnología
permitieron fabricar resistencias precisas.

• Circuitos híbridos de capa gruesa: se apartan bastante de los


circuitos monolíticos. De hecho suelen contener circuitos monolíticos sin
cápsula, transistores, diodos, etc, sobre un sustrato dieléctrico,
interconectados con pistas conductoras. Las resistencias se depositan por
serigrafía y se ajustan haciéndoles cortes con láser. Todo ello se
encapsula, en cápsulas plásticas o metálicas, dependiendo de la disipación
de energía calórica requerida. En muchos casos, la cápsula no está
moldeada, sino que simplemente se cubre el circuito con una resina epoxi
para protegerlo. En el mercado se encuentran circuitos híbridos para
aplicaciones en módulos de radio frecuencia (RF), fuentes de
alimentación, circuitos de encendido para automóvil, etc.9

Clasificación[editar]

Atendiendo al nivel de integración —número de componentes— los


circuitos integrados se pueden clasificar en:10

• SSI (Small ScaleIntegration) pequeño nivel: de 10 a 100 transistores

• MSI (Medium ScaleIntegration) medio: 101 a 1 000 transistores

• LSI (LargeScaleIntegration) grande: 1 001 a 10 000 transistores

• VLSI (VeryLargeScaleIntegration) muy grande: 10 001 a 100 000


transistores

• ULSI (Ultra LargeScaleIntegration) ultra grande: 100 001 a 1 000 000


transistores

• GLSI (Giga LargeScaleIntegration) giga grande: más de un millón de


transistores

En cuanto a las funciones integradas, los circuitos se clasifican en dos


grandes grupos:11

Circuitos integrados analógicos.

Pueden constar desde simples transistores encapsulados juntos, sin unión


entre ellos, hasta circuitos completos y funcionales, como amplificadores,
osciladores o incluso receptores de radio completos.

Circuitos integrados digitales.


Pueden ser desde básicas puertas lógicas (AND, OR, NOT) hasta los más
complicados microprocesadores o microcontroladores.

Algunos son diseñados y fabricados para cumplir una función específica


dentro de un sistema mayor y más complejo.

En general, la fabricación de los CI es compleja ya que tienen una alta


integración de componentes en un espacio muy reducido, de forma que
llegan a ser microscópicos. Sin embargo, permiten grandes
simplificaciones con respecto a los antiguos circuitos, además de un
montaje más eficaz y rápido.

Limitaciones de los circuitos integrados[editar]

Existen ciertos límites físicos y económicos al desarrollo de los circuitos


integrados. Básicamente, son barreras que se van alejando al mejorar la
tecnología, pero no desaparecen. Las principales son:

Disipación de potencia[editar]

Los circuitos eléctricos disipan potencia. Cuando el número de


componentes integrados en un volumen dado crece, las exigencias en
cuanto a disipación de esta potencia, también crecen, calentando el
sustrato y degradando el comportamiento del dispositivo. Además, en
muchos casos es un sistema de realimentación positiva, de modo que
cuanto mayor sea la temperatura, más corriente conducen, fenómeno que
se suele llamar "embalamiento térmico" y, que si no se evita, llega a
destruir el dispositivo. Los amplificadores de audio y los reguladores de
tensión son proclives a este fenómeno, por lo que suelen incorporar
protecciones térmicas.

Los circuitos de potencia, evidentemente, son los que más energía deben
disipar. Para ello su cápsula contiene partes metálicas, en contacto con la
parte inferior del chip, que sirven de conducto térmico para transferir el
calor del chip al disipador o al ambiente. La reducción de resistividad
térmica de este conducto, así como de las nuevas cápsulas de compuestos
de silicona,12 permiten mayores disipaciones con cápsulas más pequeñas.
Los circuitos digitales resuelven el problema reduciendo la tensión de
alimentación y utilizando tecnologías de bajo consumo, como CMOS. Aun
así en los circuitos con más densidad de integración y elevadas
velocidades, la disipación es uno de los mayores problemas, llegándose a
utilizar experimentalmente ciertos tipos de criostatos. Precisamente la
alta resistividad térmica del arseniuro de galio es su talón de Aquiles para
realizar circuitos digitales con él.

Capacidades y autoinducciones parásitas[editar]

Este efecto se refiere principalmente a las conexiones eléctricas entre el


chip, la cápsula y el circuito donde va montada, limitando su frecuencia de
funcionamiento. Con pastillas más pequeñas se reduce la capacidad y la
autoinducción de ellas. En los circuitos digitales excitadores de buses,
generadores de reloj, etc, es importante mantener la impedanciade las
líneas y, todavía más, en los circuitos de radio y de microondas.

Límites en los componentes[editar]

Los componentes disponibles para integrar tienen ciertas limitaciones,


que difieren de sus contrapartidas discretas.

• Resistores. Son indeseables por necesitar una gran cantidad de


superficie. Por ello sólo se usan valores reducidos y en tecnologías MOS se
eliminan casi totalmente.

• Condensadores. Sólo son posibles valores muy reducidos y a costa


de mucha superficie. Como ejemplo, en el amplificador operacional
μA741, el condensador de estabilización viene a ocupar un cuarto del chip.

• Inductores. Se usan comúnmente en circuitos de radiofrecuencia,


siendo híbridos muchas veces. En general no se integran.

Densidad de integración[editar]

Durante el proceso de fabricación de los circuitos integrados se van


acumulando los defectos, de modo que cierto número de componentes
del circuito final no funcionan correctamente. Cuando el chip integra un
número mayor de componentes, estos componentes defectuosos
disminuyen la proporción de chips funcionales. Es por ello que en circuitos
de memorias, por ejemplo, donde existen millones de transistores, se
fabrican más de los necesarios, de manera que se puede variar la
interconexión final para obtener la organización especificada.

Unidad central de procesamiento

«Procesador de ordenador» redirige aquí. Para otros usos, véase


Procesador.

Vista superior de una CPU Intel80486DX2 en un paquete PGA de cerámica.

Vista posterior de una Intel 80486DX2.

La unidad central de procesamiento o unidad de procesamiento central


(conocida por las siglas CPU, del inglés: central processingunit), es el
hardware dentro de un ordenador u otros dispositivos programables, que
interpreta las instrucciones de un programa informáticomediante la
realización de las operaciones básicas aritméticas, lógicas y de
entrada/salida del sistema. El término, y su acrónimo, han estado en uso
en la industria de la Informática por lo menos desde el principio de los
años 1960.1 La forma, el diseño de CPU y la implementación de las CPU ha
cambiado drásticamente desde los primeros ejemplos, pero su operación
fundamental sigue siendo la misma.

Un ordenador puede tener más de una CPU; esto se llama


multiprocesamiento. Todas las CPU modernas son microprocesadores, lo
que significa que contienen un solo circuito integrado (chip). Algunos
circuitos integrados pueden contener varias CPU en un solo chip; estos
son denominados procesadores multinúcleo. Un circuito integrado que
contiene una CPU también puede contener los dispositivos periféricos, y
otros componentes de un sistema informático; a esto se llama un sistema
en un chip (SoC).

Dos componentes típicos de una CPU son la unidad aritmético lógica


(ALU), que realiza operaciones aritméticas y lógicas, y la unidad de control
(CU), que extrae instrucciones de la memoria, las decodifica y las ejecuta,
llamando a la ALU cuando sea necesario.

No todos los sistemas computacionales se basan en una unidad central de


procesamiento. Una matriz de procesador o procesador vectorialtiene
múltiples elementos cómputo paralelo, sin una unidad considerada el
"centro". En el modelo de computación distribuido, se resuelven
problemas mediante un conjunto interconectado y distribuido de
procesadores.

Historia[editar]

El EDVAC, una de las primeras computadoras de programas almacenados


electrónicamente.

Los primeros ordenadores, como el ENIAC, tenían que ser físicamente


recableados para realizar diferentes tareas, lo que hizo que estas
máquinas se denominaran "ordenadores de programa fijo". Dado que el
término "CPU" generalmente se define como un dispositivo para la
ejecución de software (programa informático), los primeros dispositivos
que con razón podríamos llamar CPU vinieron con el advenimiento del
ordenador con programa almacenado.

La idea de un ordenador con programa almacenado ya estaba presente en


el diseño de John PresperEckert y en el ENIAC de John William Mauchly,
pero esta característica se omitió inicialmente para que el aparato pudiera
estar listo antes. El 30 de junio de 1945, antes de que se construyera la
ENIAC, el matemático John von Neumann distribuyó el trabajo titulado
FirstDraft of a Reportonthe EDVAC (Primer Borrador de un Reporte sobre
el EDVAC). Fue el esbozo de un ordenador de programa almacenado, que
se terminó en agosto de 1949.2 EDVAC fue diseñado para realizar un
cierto número de instrucciones (u operaciones) de varios tipos.
Significativamente, los programas escritos para el EDVAC se crearon para
ser almacenados en la memoria de alta velocidad del ordenador y no para
que los especificara el cableado físico del ordenador. Esto superó una
severa limitación del ENIAC, que era el importante tiempo y esfuerzo
requerido para volver a configurar el equipo para realizar una nueva tarea.
Con el diseño de von Neumann, el programa o software que corría EDVAC
podría ser cambiado simplemente cambiando el contenido de la memoria.
Sin embargo, EDVAC no fue el primer ordenador de programa
almacenado; la Máquina Experimental de Pequeña Escala de Mánchester,
un pequeño prototipo de ordenador de programa almacenado, ejecutó su
primer programa el 21 de junio de 19483 y la Manchester Mark I ejecutó
su primer programa en la noche del 16 al 17 junio de 1949.

Las primeras CPU fueron diseñadas a medida como parte de un ordenador


más grande, generalmente un ordenador único en su especie. Sin
embargo, este método de diseñar las CPU a medida, para una aplicación
particular, ha desaparecido en gran parte y se ha sustituido por el
desarrollo de clases de procesadores baratos y estandarizados adaptados
para uno o varios propósitos. Esta tendencia de estandarización comenzó
generalmente en la era de los transistores discretos, computadoras
centrales y microcomputadoras y fue acelerada rápidamente con la
popularización del circuito integrado (IC), este ha permitido que sean
diseñados y fabricados CPU más complejas en espacios pequeños en la
orden de nanómetros. Tanto la miniaturización como la estandarización
de las CPU han aumentado la presencia de estos dispositivos digitales en
la vida moderna mucho más allá de las aplicaciones limitadas de máquinas
de computación dedicadas. Los microprocesadores modernos aparecen en
todo, desde automóviles hasta teléfonos móviles o celulares y juguetes de
niños.

Si bien von Neumann muchas veces acreditado por el diseño de la


computadora con programa almacenado debido a su diseño del EDVAC,
otros antes que él, como Konrad Zuse, habían sugerido y aplicado ideas
similares. La denominada arquitectura Harvard del Harvard Mark I, que se
completó antes de EDVAC, también utilizó un diseño de programa
almacenado usando cinta de papel perforada en vez de memoria
electrónica. La diferencia clave entre las arquitecturas de von Neumann y
la de Harvard es que la última separa el almacenamiento y tratamiento de
instrucciones de la CPU y los datos, mientras que el primero utiliza el
mismo espacio de memoria para ambos. La mayoría de los CPU modernos
son de diseño von Neumann, pero los CPU con arquitectura Harvard se
ven así, sobre todo en aplicaciones embebidas; por ejemplo, los
microcontroladores Atmel AVR son procesadores de arquitectura Harvard.

Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran


usados comúnmente como elementos de conmutación; un ordenador útil
requiere miles o decenas de miles de dispositivos de conmutación. La
velocidad global de un sistema depende de la velocidad de los
conmutadores. Los ordenadores de tubo, como el EDVAC, tendieron en
tener un promedio de ocho horas entre fallos, mientras que los
ordenadores de relés, (anteriores y más lentos), como el Harvard Mark I,
fallaban muy raramente.1 Al final, los CPU basados en tubo llegaron a ser
dominantes porque las significativas ventajas de velocidad producidas
generalmente pesaban más que los problemas de confiabilidad. La mayor
parte de estas tempranas CPU síncronas corrían en frecuencias de reloj
bajas comparadas con los modernos diseños microelectrónicos. Eran muy
comunes en este tiempo las frecuencias de la señal del reloj con un rango
desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los
dispositivos de conmutación con los que fueron construidos.

CPU de transistores y de circuitos integrados discretos

CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I.


Hecho de circuitos integrados de mediana escala.

La complejidad del diseño de las CPU aumentó junto con la facilidad de la


construcción de dispositivos electrónicos más pequeños y confiables. La
primera de esas mejoras vino con el advenimiento del transistor. Las CPU
transistorizadas durante los años 1950 y los años 1960 no tuvieron que ser
construidos con elementos de conmutación abultados, no fiables y
frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora,
fueron construidas CPU más complejas y más confiables sobre una o varias
tarjetas de circuito impreso que contenían componentes discretos
(individuales).
Durante este período, ganó popularidad un método de fabricar muchos
transistores en un espacio compacto. El circuito integrado (IC) permitió
que una gran cantidad de transistores fueran fabricados en una simple
oblea basada en semiconductor o "chip". Al principio, solamente circuitos
digitales muy básicos, no especializados, como las puertas NOR fueron
miniaturizados en IC. Las CPU basadas en estos IC de "bloques de
construcción" generalmente son referidos como dispositivos de pequeña
escala de integración "small-scaleintegration" (SSI). Los circuitos
integrados SSI, como los usados en el computador guía del Apollo
(ApolloGuidanceComputer), usualmente contenían transistores que se
contaban en números de múltiplos de diez. Construir un CPU completo
usando IC SSI requería miles de chips individuales, pero todavía consumía
mucho menos espacio y energía que diseños anteriores de transistores
discretos. A medida que la tecnología microelectrónica avanzó, en los IC
fue colocado un número creciente de transistores, disminuyendo así la
cantidad de IC individuales necesarios para una CPU completa. Los
circuitos integrados MSI y el LSI (de mediana y gran escala de integración)
aumentaron el número de transistores a cientos y luego a miles.

En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue


usada en una serie de ordenadores que podían ejecutar los mismos
programas con velocidades y desempeños diferentes. Esto fue significativo
en un tiempo en que la mayoría de los ordenadores electrónicos eran
incompatibles entre sí, incluso las hechas por el mismo fabricante. Para
facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo
llamado «microcódigo», ampliamente usado aún en las CPU modernas.4
La arquitectura System/360 era tan popular que dominó el mercado del
mainframe durante las siguientes décadas y dejó una herencia que todavía
aún perdura en los ordenadores modernos, como el IBM zSeries. En el
mismo año de 1964, Digital EquipmentCorporation (DEC) introdujo otro
ordenador que sería muy influyente, dirigido a los mercados científicos y
de investigación, el PDP-8. DEC introduciría más adelante la muy popular
línea del PDP-11, que originalmente fue construido con IC SSI pero
eventualmente fue implementado con componentes LSI cuando se
convirtieron en prácticos. En fuerte contraste con sus precursores hechos
con tecnología SSI y MSI, la primera implementación LSI del PDP-11
contenía una CPU integrada únicamente por cuatro circuitos integrados
LSI.5

Los ordenadores basados en transistores tenían varias ventajas frente a


sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor
consumo de energía, los transistores también permitían que CPU operara
a velocidades mucho más altas debido al corto tiempo de conmutación de
un transistor en comparación a un tubo o relé. Gracias tanto a esta
creciente fiabilidad como al dramático incremento de velocidad de los
elementos de conmutación que por este tiempo eran casi exclusivamente
transistores, se fueron alcanzando frecuencias de reloj de la CPU de
decenas de megahercios. Además, mientras que las CPU de transistores
discretos y circuitos integrados se usaban comúnmente, comenzaron a
aparecer los nuevos diseños de alto rendimiento como procesadores
vectoriales SIMD (single instructionmultiple data – instrucción única, datos
múltiples). Estos primeros diseños experimentales dieron lugar más
adelante a la era de los superordenadores especializados, como los
hechos por Cray Inc.

Microprocesadores[editar]

Artículo principal: Microprocesador

Oblea de un microprocesador Intel 80486DX2 (tamaño: 12×6,75 mm) en


su empaquetado.

CPU Intel Core i5 en una placa madre del ordenador portátil Vaio serie E (a
la derecha, debajo del tubo termosifón bifásico.

En la década de 1970 los inventos fundamentales de Federico Faggin


(ICsSiliconGate MOS con puertas autoalineadas junto con su nueva
metodología de diseño de lógica aleatoria) cambió el diseño e
implementación de las CPU para siempre. Desde la introducción del
primer microprocesador comercialmente disponible, el Intel 4004, en
1970 y del primer microprocesador ampliamente usado, el Intel 8080, en
1974, esta clase de CPU ha desplazado casi totalmente el resto de los
métodos de implementación de la Unidad Central de procesamiento. Los
fabricantes de mainframes y miniordenadores de ese tiempo lanzaron
programas de desarrollo de IC propietarios para actualizar sus
arquitecturas de computadoras más viejas y eventualmente producir
microprocesadores con conjuntos de instrucciones que eran
retrocompatibles con sus hardwares y softwares más viejos. Combinado
con el advenimiento y el eventual vasto éxito de la ahora ubicua
computadora personal, el término "CPU" es aplicado ahora casi
exclusivamentenota 1 a los microprocesadores.

Las generaciones previas de CPU fueron implementadas como


componentes discretos y numerosos circuitos integrados de pequeña
escala de integración en una o más tarjetas de circuitos. Por otro lado, los
microprocesadores son CPU fabricados con un número muy pequeño de
IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado
de estar implementado en una simple pastilla, significa tiempos de
conmutación más rápidos debido a factores físicos como el decrecimiento
de la capacitancia parásita de las puertas. Esto ha permitido que los
microprocesadores síncronos tengan tiempos de reloj con un rango de
decenas de megahercios a varios gigahercios. Adicionalmente, como ha
aumentado la capacidad de construir transistores excesivamente
pequeños en un IC, la complejidad y el número de transistores en un
simple CPU también se ha incrementado dramáticamente. Esta tendencia
ampliamente observada es descrita por la ley de Moore, que ha
demostrado hasta la fecha, ser una predicción bastante exacta del
crecimiento de la complejidad de los CPUs y otros IC.6

Mientras que, en los pasados sesenta años han cambiado drásticamente,


la complejidad, el tamaño, la construcción y la forma general de la CPU, es
notable que el diseño y el funcionamiento básico no ha cambiado
demasiado. Casi todos los CPU comunes de hoy se pueden describir con
precisión como máquinas de programa almacenado de von Neumann.nota
2 A medida que la ya mencionada ley del Moore continúa manteniéndose
verdadera,6 se han presentado preocupaciones sobre los límites de la
tecnología de transistor del circuito integrado. La miniaturización extrema
de puertas electrónicas está causando los efectos de fenómenos que se
vuelven mucho más significativos, como la electromigración y el
subumbral de pérdida. Estas nuevas preocupaciones están entre los
muchos factores que hacen a investigadores estudiar nuevos métodos de
computación como la computación cuántica, así como ampliar el uso de
paralelismo y otros métodos que extienden la utilidad del modelo clásico
de von Neumann.

Operación[editar]

La operación fundamental de la mayoría de las CPU es ejecutar una


secuencia de instrucciones almacenadas llamadas «programa». El
programa es representado por una serie de números que se mantienen en
una cierta clase de memoria de ordenador. Hay cuatro pasos que casi
todos las CPU de arquitectura de von Neumann usan en su operación:
fetch, decode, execute, y writeback, (leer, decodificar, ejecutar y escribir).

Diagrama mostrando como es decodificada una instrucción del MIPS32.


(MIPS Technologies 2005)

Fetch[editar]

El primer paso, leer, implica el recuperar una instrucción, (que es


representada por un número o una secuencia de números), de la memoria
de programa. La localización en la memoria del programa es determinada
por un contador de programa (PC), que almacena un número que
identifica la dirección de la siguiente instrucción que se debe buscar.
Después se lee una instrucción, el PC es incrementado por la longitud de la
instrucción en términos de unidades de memoria de modo que contendrá
la dirección de la siguiente instrucción en la secuencia.nota 3
Frecuentemente, la instrucción a ser leída debe ser recuperada de
memoria relativamente lenta, haciendo detener al CPU mientras espera
que la instrucción sea devuelta. Esta cuestión se trata en gran medida en
los procesadores modernos por los cachés y las arquitecturas pipeline (ver
abajo).

Decode[editar]
En el paso de decodificación, la instrucción es dividida en partes que
tienen significado para otras unidades de la CPU. La manera en que el
valor de la instrucción numérica es interpretado está definida por la
arquitectura del conjunto de instrucciones (el ISA) de la CPU.nota 4 A
menudo, un grupo de números en la instrucción, llamados opcode, indica
qué operación realizar. Las partes restantes del número usualmente
proporcionan información requerida para esa instrucción, como por
ejemplo, operandos para una operación de adición. Tales operandos se
pueden dar como un valor constante (llamado valor inmediato), o como
un lugar para localizar un valor, que según lo determinado por algún modo
de dirección, puede ser un registro o una dirección de memoria. En
diseños más viejos las unidades del CPU responsables de decodificar la
instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e
ISAs más abstractos y complicados, es frecuentemente usado un
microprograma para ayudar a traducir instrucciones en varias señales de
configuración para el CPU. Este microprograma es a veces reescribible de
tal manera que puede ser modificado para cambiar la manera en que el
CPU decodifica instrucciones incluso después de que haya sido fabricado.

Execute[editar]

Diagrama de bloques de un CPU simple.

Después de los pasos de lectura y decodificación, es llevado a cabo el paso


de la ejecución de la instrucción. Durante este paso, varias unidades del
CPU son conectadas de tal manera que ellas pueden realizar la operación
deseada. Si, por ejemplo, una operación de adición fue solicitada, una
unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y
un conjunto de salidas. Las entradas proporcionan los números a ser
sumados, y las salidas contendrán la suma final. La ALU contiene la
circuitería para realizar operaciones simples de aritmética y lógica en las
entradas, como adición y operaciones de bits (bitwise). Si la operación de
adición produce un resultado demasiado grande para poder ser manejado
por el CPU, también puede ser ajustada una bandera (flag) de
desbordamiento aritméticolocalizada en un registro de banderas (ver
abajo la sección sobre rango de números enteros).

Writeback[editar]

El paso final, la escritura, simplemente «escribe» los resultados del paso


de ejecución a una cierta forma de memoria. Muy a menudo, los
resultados son escritos a algún registro interno del CPU para acceso rápido
por subsecuentes instrucciones. En otros casos los resultados pueden ser
escritos a una memoria principal más lenta pero más barata y más grande.
Algunos tipos de instrucciones manipulan el contador de programa en
lugar de directamente producir datos de resultado. Estas son llamadas
generalmente "saltos" (jumps) y facilitan comportamientos como bucles,
la ejecución condicional de programas (con el uso de saltos condicionales),
y funciones en programas.nota 5 Muchas instrucciones también
cambiarán el estado de dígitos en un registro de "banderas". Estas
banderas pueden ser usadas para influenciar cómo se comporta un
programa, puesto que a menudo indican el resultado de varias
operaciones. Por ejemplo, un tipo de instrucción de "comparación"
considera dos valores y fija un número, en el registro de banderas, de
acuerdo a cuál es el mayor. Entonces, esta bandera puede ser usada por
una posterior instrucción de salto para determinar el flujo de programa.

Después de la ejecución de la instrucción y la escritura de los datos


resultantes, el proceso entero se repite con el siguiente ciclo de
instrucción, normalmente leyendo la siguiente instrucción en secuencia
debido al valor incrementado en el contador de programa. Si la instrucción
completada era un salto, el contador de programa será modificado para
contener la dirección de la instrucción a la cual se saltó, y la ejecución del
programa continúa normalmente. En CPUs más complejos que el descrito
aquí, múltiples instrucciones pueden ser leídas, decodificadas, y
ejecutadas simultáneamente. Esta sección describe lo que es referido
generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que
de hecho es bastante común entre los CPU simples usados en muchos
dispositivos electrónicos, a menudo llamados microcontroladores.nota 6

Diseño e implementación[editar]
Véanse también: Arquitectura de computadoras y Circuito digital.

Rango de enteros[editar]

La manera en que un CPU representa los números es una opción de


diseño que afecta las más básicas formas en que el dispositivo funciona.
Algunas de las primeras calculadoras digitales usaron, para representar
números internamente, un modelo eléctrico del sistema de numeración
decimal común (base diez). Algunas otras computadoras han usado
sistemas de numeración más exóticos como el ternario (base tres). Casi
todos los CPU modernos representan los números en forma binaria, en
donde cada dígito es representado por una cierta cantidad física de dos
valores, como un voltaje "alto" o "bajo".nota 7

Microprocesador MOS 6502 en un dual in-line package (encapasulado en


doble línea), un diseño extremadamente popular de 8 bits.

Con la representación numérica están relacionados el tamaño y la


precisión de los números que un CPU puede representar. En el caso de un
CPU binario, un bit se refiere a una posición significativa en los números
con que trabaja un CPU. El número de bits (o de posiciones numéricas, o
dígitos) que un CPU usa para representar los números, a menudo se llama
"tamaño de la palabra", "ancho de bits", "ancho de ruta de datos", o
"precisión del número entero" cuando se ocupa estrictamente de
números enteros (en oposición a números de coma flotante). Este número
difiere entre las arquitecturas, y a menudo dentro de diferentes unidades
del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de
números que pueden ser representados por ocho dígitos binarios, cada
dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo
28 o 256 números discretos. En efecto, el tamaño del número entero fija
un límite de hardware en el rango de números enteros que el software
corre y que el CPU puede usar directamente.nota 8

El rango del número entero también puede afectar el número de


posiciones en memoria que el CPU puede direccionar (localizar). Por
ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de
memoria, y cada dirección de memoria representa a un octeto (8 bits), la
cantidad máxima de memoria que el CPU puede direccionar es 232
octetos, o 4 GB. Esta es una vista muy simple del espacio de dirección del
CPU, y muchos diseños modernos usan métodos de dirección mucho más
complejos como paginación para localizar más memoria que su rango
entero permitiría con un espacio de dirección plano.

Niveles más altos del rango de números enteros requieren más


estructuras para manejar los dígitos adicionales, y por lo tanto, más
complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no
es del todo infrecuente, ver microcontroladores de 4 y 8 bits usados en
aplicaciones modernas, aun cuando están disponibles CPU con un rango
mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores
más simples son generalmente más baratos, usan menos energía, y por lo
tanto disipan menos calor. Todo esto pueden ser consideraciones de
diseño importantes para los dispositivos electrónicos. Sin embargo, en
aplicaciones del extremo alto, los beneficios producidos por el rango
adicional, (más a menudo el espacio de dirección adicional), son más
significativos y con frecuencia afectan las opciones del diseño. Para ganar
algunas de las ventajas proporcionadas por las longitudes de bits tanto
más bajas, como más altas, muchas CPUs están diseñadas con anchos de
bit diferentes para diferentes unidades del dispositivo. Por ejemplo, el
IBM System/370 usó un CPU que fue sobre todo de 32 bits, pero usó
precisión de 128 bits dentro de sus unidades de coma flotante para
facilitar mayor exactitud y rango de números de coma flotante.4 Muchos
diseños posteriores de CPU usan una mezcla de ancho de bits similar,
especialmente cuando el procesador está diseñado para usos de propósito
general donde se requiere un razonable equilibrio entre la capacidad de
números enteros y de coma flotante.

Frecuencia de reloj[editar]

Artículo principal: Frecuencia de reloj

La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica


secuencial, son de naturaleza síncrona.nota 9 Es decir, están diseñados y
operan en función de una señal de sincronización. Esta señal, conocida
como señal de reloj, usualmente toma la forma de una onda cuadrada
periódica. Calculando el tiempo máximo en que las señales eléctricas
pueden moverse en las varias bifurcaciones de los muchos circuitos de un
CPU, los diseñadores pueden seleccionar un período apropiado para la
señal del reloj.

Este período debe ser más largo que la cantidad de tiempo que toma a
una señal moverse, o propagarse en el peor de los casos. Al fijar el período
del reloj a un valor bastante mayor sobre el retardo de la propagación del
peor caso, es posible diseñar todo el CPU y la manera que mueve los datos
alrededor de los "bordes" de la subida y bajada de la señal del reloj. Esto
tiene la ventaja de simplificar el CPU significativamente, tanto en una
perspectiva de diseño, como en una perspectiva de cantidad de
componentes. Sin embargo, esto también tiene la desventaja que todo el
CPU debe esperar por sus elementos más lentos, aun cuando algunas
unidades de la misma son mucho más rápidas. Esta limitación ha sido
compensada en gran parte por varios métodos de aumentar el
paralelismo del CPU (ver abajo).

Sin embargo, las mejoras arquitectónicas por sí solas, no solucionan todas


las desventajas de CPUs globalmente síncronas. Por ejemplo, una señal de
reloj está sujeta a los retardos de cualquier otra señal eléctrica.
Velocidades de reloj más altas en CPUs cada vez más complejas hacen más
difícil de mantener la señal del reloj en fase (sincronizada) a través de toda
la unidad. Esto ha conducido que muchos CPU modernos requieran que se
les proporcione múltiples señales de reloj idénticas, para evitar retardar
una sola señal lo suficiente como para hacer al CPU funcionar
incorrectamente. Otro importante problema cuando la velocidad del reloj
aumenta dramáticamente, es la cantidad de calor que es disipado por el
CPU. La señal del reloj cambia constantemente, provocando la
conmutación de muchos componentes (cambio de estado) sin importar si
están siendo usados en ese momento. En general, un componente que
está cambiando de estado, usa más energía que un elemento en un
estado estático. Por lo tanto, a medida que la velocidad del reloj aumenta,
así lo hace también la disipación de calor, causando que el CPU requiera
soluciones de enfriamiento más efectivas.
Un método de tratar la conmutación de componentes innecesarios se
llama el clockgating, que implica apagar la señal del reloj a los
componentes innecesarios, efectivamente desactivándolos. Sin embargo,
esto es frecuentemente considerado como difícil de implementar y por lo
tanto no ve uso común fuera de diseños de muy baja potencia. Un notable
diseño de CPU tardío que utiliza una amplia compuerta del reloj para
reducir los requisitos de potencia de la consola de videojuegos es la de la
Xbox 360 basada en la PowerPC de IBM.7 Otro método de tratar algunos
de los problemas de una señal global de reloj es la completa remoción de
la misma. Mientras que quitar la señal global del reloj hace, de muchas
maneras, considerablemente más complejo el proceso del diseño, en
comparación con diseños síncronos similares, los diseños asincrónicos (o
sin reloj) tienen marcadas ventajas en el consumo de energía y la
disipación de calor. Aunque se trate de algo infrecuente, las CPUs
completas se han construido sin utilizar una señal global de reloj. Dos
notables ejemplos de esto son el AMULET, que implementa la
arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En
lugar de remover totalmente la señal del reloj, algunos diseños de CPU
permiten que ciertas unidades del dispositivo sean asincrónicas, como por
ejemplo, usando ALU en conjunción con pipeliningsuperescalar para
alcanzar algunas ganancias en el desempeño aritmético. Mientras que no
esté completamente claro si los diseños totalmente asincrónicos pueden
desempeñarse a un nivel comparable o mejor que sus contrapartes
síncronas, es evidente que por lo menos sobresalen en las operaciones
matemáticas más simples. Esto, combinado con sus excelentes
características de consumo de energía y disipación de calor, los hace muy
adecuados para sistemas embebidos.8

Paralelismo[editar]

Artículo principal: Computación paralela

Modelo de un CPU subescalar. Note que toma quince ciclos para terminar
tres instrucciones.
La descripción de la operación básica de un CPU ofrecida en la sección
anterior describe la forma más simple que puede tomar un CPU. Este tipo
de CPU, usualmente referido como subescalar, opera sobre y ejecuta una
sola instrucción con una o dos piezas de datos a la vez.

Este proceso da lugar a una ineficacia inherente en CPU subescalares.


Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU
debe esperar que esa instrucción se complete antes de proceder a la
siguiente instrucción. Como resultado, la CPU subescalar queda
"paralizado" en instrucciones que toman más de un ciclo de reloj para
completar su ejecución. Incluso la adición de una segunda unidad de
ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un
camino quedando congelado, ahora dos caminos se paralizan y aumenta
el número de transistores no usados. Este diseño, en donde los recursos
de ejecución de la CPU pueden operar con solamente una instrucción a la
vez, solo puede, posiblemente, alcanzar el desempeño escalar (una
instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es
subescalar (menos de una instrucción por ciclo).

Las tentativas de alcanzar un desempeño escalar y mejor, han resultado


en una variedad de metodologías de diseño que hacen comportarse al
CPU menos linealmente y más en paralelo. Cuando se refiere al
paralelismo en los CPU, generalmente son usados dos términos para
clasificar estas técnicas de diseño.

• El paralelismo a nivel de instrucción, en inglés


instructionlevelparallelism (ILP), busca aumentar la tasa en la cual las
instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la
utilización de los recursos de ejecución en la pastilla.

• El paralelismo a nivel de hilo de ejecución, en inglés


threadlevelparallelism (TLP), que se propone incrementar el número de
hilos (efectivamente programas individuales) que un CPU pueda ejecutar
simultáneamente.

Cada metodología se diferencia tanto en las maneras en las que están


implementadas, como en la efectividad relativa que producen en el
aumento del desempeño de la CPU para una aplicación.nota 10
ILP: Segmentación y arquitectura superescalar[editar]

Artículos principales: Segmentación (electrónica) y Superescalar.

Tubería básica de cinco etapas. En el mejor de los casos, esta tubería


puede sostener un ratio de completado de una instrucción por ciclo.

Uno de los métodos más simples para lograr incrementar el paralelismo es


comenzar los primeros pasos de leer y decodificar la instrucción antes de
que la instrucción anterior haya terminado de ejecutarse. Esta es la forma
más simple de una técnica conocida como segmentación
(instructionpipelining en inglés), y es utilizada en casi todas los CPU de
propósito general modernos. Al dividir la ruta de ejecución en etapas
discretas, la tubería permite que más de una instrucción sea ejecutada en
cualquier tiempo. Esta separación puede ser comparada a una línea de
ensamblaje, en la cual una instrucción es hecha más completa en cada
etapa hasta que sale de la tubería de ejecución y es retirada del mismo.

Sin embargo, la tubería introduce la posibilidad de una situación donde es


necesario terminar el resultado de la operación anterior para completar la
operación siguiente; una condición llamada a menudo como conflicto de
dependencia de datos. Para hacer frente a esto, debe ser tomado un
cuidado adicional para comprobar estas clases de condiciones, y si esto
ocurre, se debe retrasar una porción de la tubería de instrucción.
Naturalmente, lograr esto requiere circuitería adicional, los procesadores
entubados son más complejos que los subescalares, pero no mucho. Un
procesador entubado puede llegar a ser casi completamente escalar,
solamente inhibido por las abruptas paradas de la tubería (una instrucción
durando más de un ciclo de reloj en una etapa).

Segmentación superescalar simple. Al leer y despachar dos instrucciones a


la vez, un máximo de dos instrucciones por ciclo pueden ser completadas.

Una mejora adicional sobre la idea del entubado de instrucción


(instructionpipelining) condujo al desarrollo de un método que disminuye
incluso más el tiempo ocioso de los componentes del CPU. Diseños que se
dice que son superescalares incluyen una larga tubería de instrucción y
múltiples unidades de ejecución idénticas.9 En una tubería superescalar,
múltiples instrucciones son leídas y pasadas a un despachador, que decide
si las instrucciones se pueden o no ejecutar en paralelo
(simultáneamente). De ser así, son despachadas a las unidades de
ejecución disponibles, dando por resultado la capacidad para que varias
instrucciones sean ejecutadas simultáneamente. En general, cuanto más
instrucciones un CPU superescalar es capaz de despachar
simultáneamente a las unidades de ejecución en espera, más
instrucciones serán completadas en un ciclo dado.

La mayor parte de la dificultad en el diseño de una arquitectura


superescalar de CPU descansa en crear un despachador eficaz. El
despachador necesita poder determinar rápida y correctamente si las
instrucciones pueden ejecutarse en paralelo, tan bien como despacharlas
de una manera que mantenga ocupadas tantas unidades de ejecución
como sea posible. Esto requiere que la tubería de instrucción sea llenada
tan a menudo como sea posible y se incrementa la necesidad, en las
arquitecturas superescalares, de cantidades significativas de caché de
CPU. Esto también crea técnicas para evitar peligros como la predicción de
bifurcación, ejecución especulativa, y la ejecución fuera de orden,
cruciales para mantener altos niveles de desempeño. Tratando de
predecir qué rama (o trayectoria) tomará una instrucción condicional, la
CPU puede minimizar el número de veces que todo el canal debe esperar
hasta que se complete una instrucción condicional. Frecuentemente, la
ejecución especulativa proporciona aumentos modestos del desempeño al
ejecutar porciones de código que no puede ser necesario después de
completarse una operación condicional. Fuera de la orden de ejecución
cambia de algún modo el orden en que se ejecutan las instrucciones para
reducir retardos debido a las dependencias de datos. También en el caso
de instrucciones individuales de datos múltiples — los procesadores
modernos, en caso de que se hayan procesado una gran cantidad de datos
del mismo tipo, pueden desactivar partes de la tubería de manera que
cuando se ejecuta una sola sentencia muchas veces, la CPU salta la
captación y decodifica fases y por lo tanto aumenta considerablemente el
rendimiento en ciertas ocasiones, sobre todo en los motores de
programas altamente monótonos como el software de creación de video y
procesamiento de fotografías.

En el caso donde una porción de la CPU es superescalar y una parte no lo


es, la parte que no es superescalar sufre en el desempeño debido a las
paradas de horario. El Intel Pentium original (P5) tenía dos
ALUssuperescalares que podían aceptar, cada una, una instrucción por
ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de
reloj. Así el P5 era superescalar en la parte de números enteros pero no
era superescalar de números de coma (o punto [decimal]) flotante. El
sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades
superescalares a sus funciones de coma flotante, y por lo tanto produjo un
significativo aumento en el desempeño de este tipo de instrucciones.

Tanto el diseño superescalar como el entubado simple aumentan el ILP de


una CPU al permitir a un solo procesador completar la ejecución de
instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).nota
11 La mayoría de los modernos diseños de CPU son por lo menos algo
superescalares, y en la última década, casi todos los diseños de CPU de
propósito general son superescalares. En los últimos años algo del énfasis
en el diseño de computadores de alto ILP se ha movido del hardware del
CPU hacia su interfaz de software, o ISA. La estrategia
verylonginstructionword o VLIW, causa a algún ILP a ser implícito
directamente por el software, reduciendo la cantidad de trabajo que el
CPU debe realizar para darle un empuje significativo al ILP y por lo tanto
reducir la complejidad del diseño.

Paralelismo a nivel de hilos[editar]

Otra estrategia para lograr el rendimiento es ejecutar varios programas o


hilos en paralelo. Esta área de investigación se conoce como computación
paralela. En la taxonomía de Flynn, esta estrategia se conoce como
múltiples instrucciones de varios datos o MIMD.

Una tecnología utilizada para este propósito fue el multiprocesamiento


(MP). El puntapié inicial de esta tecnología se conoce como
multiprocesamiento simétrico (SMP), donde un pequeño número de CPU
comparten una visión coherente de su sistema de memoria. En este
esquema, cada CPU tiene un hardware adicional para mantener una visión
constantemente actualizada de la memoria. Para evitar visitas rancias de
la memoria, las CPU pueden cooperar en el mismo programa y los
programas pueden migrar desde una CPU a otra. Para aumentar el
número de CPUs que cooperan más allá de unas pocas, se introdujeron en
1990, los esquemas tales como el non-uniformmemory Access (acceso no
uniforme a memoria) (NUMA) y los protocolos de coherencia basados en
directorios. Los sistemas SMP se limitan a un pequeño número de CPU
mientras que los sistemas NUMA se han construido con miles de
procesadores. Inicialmente, el multiprocesamiento se construyó usando
múltiples CPUs discretas y tableros para implementar la interconexión
entre los procesadores. Cuando los procesadores y su interconexión hayan
sido implementadas en un único chip de silicio, la tecnología se conoce
como un procesador multinúcleo.

Posteriormente, se reconoció que existía un paralelismo muy estrecho con


un único programa. Un único programa podría tener varios hilos (o
funciones) que podrían ser ejecutadas por separado o en paralelo.
Algunos de los primeros ejemplos de esta tecnología implementaba
procesamiento de entrada/salida tales como el acceso directo a memoria
como un hilo separado del hilo computado. En la década de 1970, se
introdujo un enfoque más general a esta tecnología, cuando se diseñaron
sistemas para ejecutar múltiples hilos de computación en paralelo. Esta
tecnología se conoce como multihilo (MT).

Este enfoque se considera más rentable que la del multiprocesamiento, ya


que solo se replica un pequeño número de componentes dentro de una
CPU para soportar MT en oposición a la totalidad de la CPU en el caso de
MP. En MT, las unidades de ejecución y el sistema de memoria incluyendo
los cachés son compartidos entre varios hilos. La desventaja de MT es que
el soporte de hardware para multihilo es más visible para el software que
la de MP y por lo tanto el software supervisor como el de los sistemas
operativos tienen que someterse a los cambios más grandes para apoyar
MT. Un tipo de MT que se implementó es conocido como bloque
multihilo, donde se ejecuta un hilo hasta que se paralice esperando que
regresen los datos desde la memoria externa. En este esquema, la CPU
tendría luego que cambiar rápidamente a otro hilo que está listo para
funcionar, el interruptor muchas veces realiza un ciclo de reloj de la CPU,
como la tecnología UltraSPARC. Otro tipo de MT se denomina multihilo
simultáneo, en donde las instrucciones de múltiples hilos se ejecutan en
paralelo dentro de un ciclo de reloj de la CPU.

Paralelismo de datos[editar]

Artículos principales: Procesador vectorial y SIMD.

Un menos común pero cada vez más importante paradigma de CPU (y de


hecho, de computación en general) trata con vectores. Los procesadores
de los que se ha hablado anteriormente son todos referidos como cierto
tipo de dispositivo escalar.nota 12 Como implica su nombre, los
procesadores vectoriales se ocupan de múltiples piezas de datos en el
contexto de una instrucción, esto contrasta con los procesadores
escalares, que tratan una pieza de dato por cada instrucción. Estos dos
esquemas de ocuparse de los datos son generalmente referidos
respectivamente como SISD (single instruction, single data) y SIMD (single
instruction, multiple data). La gran utilidad en crear CPU que se ocupen de
vectores de datos radica en la optimización de tareas que tienden a
requerir la misma operación, por ejemplo, una suma, o un producto
escalar, a ser realizado en un gran conjunto de datos. Algunos ejemplos
clásicos de este tipo de tareas son las aplicaciones multimedia (imágenes,
vídeo, y sonido), así como muchos tipos de tareas científicas y de
ingeniería. Mientras que una CPU escalar debe completar todo el proceso
de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto de
datos, una CPU vectorial puede realizar una simple operación en un
comparativamente grande conjunto de datos con una sola instrucción. Por
supuesto, esto es solamente posible cuando la aplicación tiende a requerir
muchos pasos que apliquen una operación a un conjunto grande de datos.

La mayoría de las primeras CPU vectoriales, como el Cray-1, se asociaron


casi exclusivamente a aplicaciones de investigación científica y
criptografía. Sin embargo, a medida que la multimedia se desplazó en gran
parte a medios digitales, ha llegado a ser significativa la necesidad de una
cierta forma de SIMD en CPUs de propósito general. Poco después de que
comenzara a ser común incluir unidades de coma flotante en
procesadores de uso general, también comenzaron a aparecer
especificaciones e implementaciones de unidades de ejecución SIMD para
las CPU de uso general. Algunas de estas primeras especificaciones SIMD,
como el MMX de Intel, fueron solamente para números enteros. Esto
demostró ser un impedimento significativo para algunos desarrolladores
de software, ya que muchas de las aplicaciones que se beneficiaban del
SIMD trataban sobre todo con números de coma flotante.
Progresivamente, estos primeros diseños fueron refinados y rehechos en
alguna de las comunes, modernas especificaciones SIMD, que
generalmente están asociadas a un ISA. Algunos ejemplos modernos
notables son el SSE de Intel y el AltiVec relacionado con el PowerPC
(también conocido como VMX).nota 13

Desempeño[editar]

Véase también: Benchmark (informática)

El "desempeño" (performance) o la velocidad de un procesador depende


de, entre muchos otros factores, la velocidad del reloj (generalmente dada
en múltiplos de hertz) y las instrucciones por ciclo de reloj (IPC), que
juntos son los factores para las instrucciones por segundo (IPS) que el CPU
puede rendir.10 Muchos reportes de valores IPS han representado tasas
de ejecución "pico" en secuencias de instrucciones artificiales con pocas
ramas, mientras que las cargas de trabajo realistas consisten en una
combinación de instrucciones y de aplicaciones, algunas de las cuales
requieren más tiempo para ejecutar que otras. El rendimiento de la
jerarquía de memoria también afecta en gran medida al rendimiento del
procesador, un tema muy poco tenido en cuenta en los cálculos de MIPS.
Debido a estos problemas, para este fin, se han desarrollado varios
exámenes estandarizados, tales como SPECint muchas veces llamados
"puntos de referencia" - para tratar de medir el rendimiento real efectivo
en aplicaciones de uso cotidiano.

El desempeño de procesamiento de las computadoras se incrementa


utilizando procesadores multinúcleo, que en esencia es conectar dos o
más procesadores individuales (llamados núcleos en este sentido) en un
solo circuito integrado.11 Idealmente, un procesador de doble núcleo
sería casi dos veces tan potente como un procesador de núcleo único. En
la práctica, la ganancia de desempeño es mucho menor, solo alrededor del
50%, [cita requerida] debido a la implementación de algoritmos
imperfectos de software.12 El aumento del número de núcleos en un
procesador (es decir, dual-core, quad-core, etc) aumenta la carga de
trabajo que se puede manejar. Esto significa que el procesador ahora
puede manejar numerosos eventos asíncronos, interrupciones, etc que
pueden tomar un "peaje" en la CPU (Central ProcessingUnit) cuando se
abruma. Estos núcleos pueden considerarse como diferentes plantas en
una planta de procesamiento, con el manejo de cada piso una tarea
diferente. En ocasiones, estos núcleos se manejan las mismas tareas que
los núcleos adyacentes a ellos si un solo núcleo no es suficiente para
manejar la información.

Debido a las capacidades específicas de las CPU modernas, como Hyper-


Threading y Uncore, que implican el intercambio de recursos reales de la
CPU mientras que el objetivo de una mayor utilización, supervisar los
niveles de rendimiento y la utilización del hardware se fue convirtiendo
gradualmente en una tarea más compleja. Como respuesta, algunas CPUs
implementan lógica de hardware adicional que controla la utilización real
de las diversas partes de una CPU y proporciona varios contadores
accesibles a software; un ejemplo es la tecnología Performance Counter
Monitor ("Monitor de contador de rendimiento") de Intel.13

Unidad aritmética lógica

Este artículo o sección necesita referencias que aparezcan en una


publicación acreditada.

Este aviso fue puesto el 15 de noviembre de 2013.

Para otros usos de este término, véase Alu (desambiguación).


Un típico símbolo esquemático para una ALU: A y B son operandos; R es la
salida; F es la entrada de la unidad de control; D es un estado de la salida.

En computación, la unidad aritmética lógica o unidad aritmético-lógica,


también conocida como ALU (siglas en inglés de arithmeticlogicunit), es un
circuito digital que calcula operaciones aritméticas (como suma, resta,
multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre valores
(generalmente uno o dos) de los argumentos.

Por mucho, los circuitos electrónicos más complejos son los que están
construidos dentro de los chips de microprocesadoresmodernos. Por lo
tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y
potente. De hecho, un microprocesador moderno (y los mainframes)
puede tener múltiples núcleos, cada núcleo con múltiples unidades de
ejecución, cada una de ellas con múltiples ALU.

Muchos otros circuitos pueden contener en el interior una unidad


aritmético lógica: unidades de procesamiento gráfico como las que están
en las GPU modernas, FPU como el viejo coprocesador matemático 80387,
y procesadores digitales de señalescomo los que se encuentran en tarjetas
de sonido, lectoras de CD y los televisores de alta definición. Todos éstos
tienen en su interior varias ALU potentes y complejas.

Índice

[ocultar]

• 1Historia: Propuesta de Von Neumann

• 2Sistemas numéricos

• 3Introducción práctica

o 3.1Detalle

• 4Operaciones simples

• 5Operaciones complejas

• 6Entradas y salidas

• 7ALU vs. FPU


• 8Véase también

• 9Referencias

• 10Enlaces externos

Historia: Propuesta de Von Neumann[editar]

El matemático John von Neumann propuso el concepto de la ALU en 1945,


cuando escribió un informe sobre las fundaciones para un nuevo
computador llamado EDVAC(ElectronicDiscrete Variable
AutomaticComputer) (Computador Automático Variable Discreto
Electrónico). Más adelante, en 1946, trabajó con sus colegas diseñando un
computador para el Princeton Institute of AdvancedStudies (IAS) (Instituto
de Princeton de Estudios Avanzados). El IAS computer se convirtió en el
prototipo para muchos computadores posteriores. En esta propuesta, von
Neumann esbozó lo que él creyó sería necesario en su máquina,
incluyendo una ALU.

Von Neumann explicó que una ALU es un requisito fundamental para una
computadora porque necesita efectuar operaciones matemáticas básicas:
adición, sustracción, multiplicación, y división.1 Por lo tanto, creyó que era
"razonable que una computadora debería contener los órganos
especializados para estas operaciones".1

Sistemas numéricos[editar]

Una ALU debe procesar números usando el mismo formato que el resto
del circuito digital. Para los procesadores modernos, este formato casi
siempre es la representación del número binario de complemento a dos.
Las primeras computadoras usaron una amplia variedad de sistemas de
numeración, incluyendo complemento a uno, formato signo-magnitud, e
incluso verdaderos sistemas decimales, con diez tubos por dígito.

Las ALU para cada uno de estos sistemas numéricos mostraban diferentes
diseños, y esto influenció la preferencia actual por el complemento a dos,
debido a que ésta es la representación más simple, para el circuito
electrónico de la ALU, para calcular adiciones, sustracciones, etc.

Introducción práctica[editar]
Una ALU simple de 2 bits que hace operaciones de AND, OR, XORy adición
(ver explicación en el texto).

La ALU se compone básicamente de: Circuito Operacional, Registros de


Entradas, Registro Acumulador y un Registro de Estados, conjunto de
registros que hacen posible la realización de cada una de las operaciones.

La mayoría de las acciones de la computadora son realizadas por la ALU.


La ALU toma datos de los registros del procesador. Estos datos son
procesados y los resultados de esta operación se almacenan en los
registros de salida de la ALU. Otros mecanismos mueven datos entre estos
registros y la memoria.2

Una unidad de control controla a la ALU, al ajustar los circuitos que le


señala a la ALU qué operaciones realizar.

Detalle[editar]

En la imagen se detalla una ALU de 2 bits con dos entradas (operandos)


llamadas A y B: A[0] y B[0] corresponden al bit menos significativo y A[1] y
B[1] corresponden al bit más significativo.

Cada bit de la ALU se procesa de manera idéntica, con la excepción del


direccionamiento del bit del acarreo. El manejo de este bit es explicado
más adelante.

Las entradas A y B van hacia las cuatro puertas de la derecha, de arriba a


abajo, XOR, AND, OR. Las tres primeras puertas realizan las operaciones
XOR, AND, y OR sobre los datos A y B. La última puerta XOR es la puerta
inicial de un sumador completo.

El paso final de las operaciones sobre cada bit es la multiplexación de los


datos. La entrada OP de 3 bits, OP[0], OP[1] y OP[2] (desde la unidad de
control) determina cual de las funciones se van a realizar:

• OP = 000 → XOR

• OP = 001 → AND
• OP = 010 → OR

• OP = 011 → Adición

Claramente se ve que las otras cuatro entradas del multiplexor están


libres para otras operaciones (sustracción, multiplicación, división, NOT A,
NOT B, etc). Aunque OP[2] actualmente no es usada en este montaje (a
pesar de estar incluida y conectada), ésta sería usada en el momento de
realizar otras operaciones además de las 4 operaciones listadas arriba.

Los datos de acarreo de entrada y acarreo de salida, llamados flags


(banderas), son típicamente conectados a algún tipo de registro de
estado.

Operaciones simples[editar]

La mayoría de las ALU pueden realizar las siguientes operaciones:

• Operaciones aritméticas de números enteros (adición, sustracción, y


a veces multiplicación y división, aunque esto es más complejo)

• Operaciones lógicas de bits (AND, NOT, OR, XOR, XNOR)

• Operaciones de desplazamiento de bits (Desplazan o rotan una


palabra en un número específico de bits hacia la izquierda o la derecha,
con o sin extensión de signo). Los desplazamientos pueden ser
interpretados como multiplicaciones o divisiones por 2.

Operaciones complejas[editar]

Un ingeniero puede diseñar una ALU para calcular cualquier operación, sin
importar lo compleja que sea; el problema es que cuanto más compleja
sea la operación, tanto más costosa será la ALU, más espacio usará en el
procesador, y más energía disipará, etc.

Por lo tanto, los ingenieros siempre calculan un compromiso, para


proporcionar al procesador (u otros circuitos) una ALU suficientemente
potente para calcular rápido, pero no de una complejidad de tal calibre
que haga una ALU económicamente prohibitiva. Imagina que necesitas
calcular, digamos, la raíz cuadrada de un número; el ingeniero digital
examinará las opciones siguientes para implementar esta operación:
1. Diseñar una ALU muy compleja que calcule la raíz cuadrada de
cualquier número en un solo paso. Esto es llamado cálculo en un solo ciclo
de reloj.

2. Diseñar una ALU compleja que calcule la raíz cuadrada con varios
pasos (como el algoritmo que aprendimos en la escuela). Esto es llamado
cálculo iterativo, y generalmente confía en el control de una unidad de
control compleja con microcódigo incorporado.

3. Diseñar una ALU simple en el procesador, y vender un procesador


separado, especializado y costoso, que el cliente pueda instalar adicional
al procesador, y que implementa una de las opciones de arriba. Esto es
llamado coprocesador o unidad de coma flotante.

4. Emular la existencia del coprocesador, es decir, siempre que un


programa intente realizar el cálculo de la raíz cuadrada, hacer que el
procesador compruebe si hay presente un coprocesador y usarlo si lo hay;
si no hay uno, interrumpir el proceso del programa e invocar al sistema
operativo para realizar el cálculo de la raíz cuadrada por medio de un
cierto algoritmo de software. Esto es llamado emulación por software.

5. Decir a los programadores que no existe el coprocesador y no hay


emulación, así que tendrán que escribir sus propios algoritmos para
calcular raíces cuadradas por software. Esto es realizado por bibliotecas de
software.

Las opciones superiores van de la más rápida y más costosa a la más lenta
y económica. Por lo tanto, mientras que incluso la computadora más
simple puede calcular la fórmula más complicada, las computadoras más
simples generalmente tomarán un tiempo largo porque varios de los
pasos para calcular la fórmula implicarán las opciones #3, #4 y #5 de
arriba.

Los procesadores complejos como el Pentium IV y el AMD Athlon 64


implementan la opción #1 para las operaciones más complejas y la más
lenta #2 para las operaciones extremadamente complejas. Eso es posible
por la capacidad de construir ALU muy complejas en estos procesadores.

Entradas y salidas[editar]
Las entradas a la ALU son los datos en los que se harán las operaciones
(llamados operandos) y un código desde la unidad de control indicando
qué operación realizar. Su salida es el resultado del cómputo de la
operación.

En muchos diseños la ALU también toma o genera como entradas o salidas


un conjunto de códigos de condición desde o hacia un registro de estado.
Estos códigos son usados para indicar casos como acarreo entrante o
saliente, overflow, división por cero, etc.2

ALU vs. FPU[editar]

Una unidad de coma flotante, Floating Point Unit (FPU), también realiza
operaciones aritméticas entre dos valores, pero lo hace para números en
representación de coma flotante, que es mucho más complicada que la
representación de complemento a dos usada comúnmente en una ALU.
Para hacer estos cálculos, una FPU tiene incorporados varios circuitos
complejos, incluyendo algunas ALU internas.

Generalmente los ingenieros llaman ALU al circuito que realiza


operaciones aritméticas en formatos de número entero (como
complemento a dos y BCD), mientras que los circuitos que calculan en
formatos más complejos como coma flotante, números complejos, etc.,
reciben generalmente un nombre más específico, como FPU.

Microprocesador

Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base.

El microprocesador (o simplemente procesador) es el circuito integrado


central más complejo de un sistema informático; a modo de ilustración, se
le suele llamar por analogía el «cerebro» de un ordenador.

Es el encargado de ejecutar los programas, desde el sistema operativo


hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas
en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas
simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y
accesos a memoria.

Puede contener una o más unidades centrales de procesamiento (CPU)


constituidas, esencialmente, por registros, una unidad de control, una
unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante
(conocida antiguamente como «coprocesador matemático»).

El microprocesador está conectado generalmente mediante un zócalo


específico de la placa base de la computadora; normalmente para su
correcto y estable funcionamiento, se le incorpora un sistema de
refrigeración que consta de un disipador de calor fabricado en algún
material de alta conductividad térmica, como cobre o aluminio, y de uno o
más ventiladores que eliminan el exceso del calor absorbido por el
disipador. Entre el disipador y la cápsula del microprocesador usualmente
se coloca pasta térmica para mejorar la conductividad del calor. Existen
otros métodos más eficaces, como la refrigeración líquida o el uso de
células peltier para refrigeración extrema, aunque estas técnicas se
utilizan casi exclusivamente para aplicaciones especiales, tales como en las
prácticas de overclocking.

La medición del rendimiento de un microprocesador es una tarea


compleja, dado que existen diferentes tipos de "cargas" que pueden ser
procesadas con diferente efectividad por procesadores de la misma gama.
Una métrica del rendimiento es la frecuencia de reloj que permite
comparar procesadores con núcleos de la misma familia, siendo este un
indicador muy limitado dada la gran variedad de diseños con los cuales se
comercializan los procesadores de una misma marca y referencia. Un
sistema informático de alto rendimiento puede estar equipado con varios
microprocesadores trabajando en paralelo, y un microprocesador puede,
a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo
físico se refiere a una porción interna del microprocesador casi-
independiente que realiza todas las actividades de una CPU solitaria, un
núcleo lógico es la simulación de un núcleo físico a fin de repartir de
manera más eficiente el procesamiento. Existe una tendencia de integrar
el mayor número de elementos dentro del propio procesador,
aumentando así la eficiencia energética y la miniaturización. Entre los
elementos integrados están las unidades de punto flotante, controladores
de la memoria RAM, controladores de buses y procesadores dedicados de
vídeo.

Índice

[ocultar]

• 1Historia de los microprocesadores

o 1.1La evolución del microprocesador

o 1.2Historia

• 2Funcionamiento

• 3Rendimiento

• 4Arquitectura

• 5Fabricación

o 5.1Procesadores de silicio

o 5.2Otros materiales

• 6Empaquetado

o 6.1Disipación de calor

• 7Conexión con el exterior

o 7.1Buses del procesador

• 8Arquitecturas

• 9Véase también

• 10Referencias

• 11Enlaces externos

Historia de los microprocesadores[editar]


La evolución del microprocesador[editar]

El microprocesador surgió de la evolución de distintas tecnologías


predecesoras, básicamente de la computación y de la tecnología de
semiconductores. El inicio de esta última data de mitad de la década de
1950; estas tecnologías se fusionaron a principios de los años 1970,
produciendo el primer microprocesador. Dichas tecnologías iniciaron su
desarrollo a partir de la segunda guerra mundial; en este tiempo los
científicos desarrollaron computadoras específicas para aplicaciones
militares. En la posguerra, a mediados de la década de 1940, la
computación digital emprendió un fuerte crecimiento también para
propósitos científicos y civiles. La tecnología electrónica avanzó y los
científicos hicieron grandes progresos en el diseño de componentes de
estado sólido (semiconductores). En 1948 en los laboratorios Bell crearon
el transistor.

En los años 1950, aparecieron las primeras computadoras digitales de


propósito general. Se fabricaron utilizando tubos al vacío o bulbos como
componentes electrónicos activos. Módulos de tubos al vacío componían
circuitos lógicos básicos, tales como compuertas y flip-flops.
Ensamblándolos en módulos se construyó la computadora electrónica (la
lógica de control, circuitos de memoria, etc.). Los tubos de vacío también
formaron parte de la construcción de máquinas para la comunicación con
las computadoras.

Para la construcción de un circuito sumador simple se requiere de algunas


compuertas lógicas. La construcción de una computadora digital precisa
numerosos circuitos o dispositivos electrónicos. Un paso trascendental en
el diseño de la computadora fue hacer que el dato fuera almacenado en
memoria. Y la idea de almacenar programas en memoria para luego
ejecutarlo fue también de fundamental importancia (Arquitectura de von
Neumann).

La tecnología de los circuitos de estado sólido evolucionó en la década de


1950. El empleo del silicio (Si), de bajo costo y con métodos de producción
masiva, hicieron del transistor el componente más usado para el diseño de
circuitos electrónicos. Por lo tanto el diseño de la computadora digital se
reemplazó del tubo al vacío por el transistor, a finales de la década de
1950.

A principios de la década de 1960, el estado de arte en la construcción de


computadoras de estado sólido sufrió un notable avance; surgieron las
tecnologías en circuitos digitalescomo: RTL (Lógica Transistor Resistor),
DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL
(Lógica Complementada Emisor).

A mediados de los años 1960 se producen las familias de circuitos de


lógica digital, dispositivos integrados en escala SSI y MSI que
corresponden a baja y mediana escala de integración de componentes. A
finales de los años 1960 y principios de los 70 surgieron los sistemas a alta
escala de integración o LSI. La tecnología LSI fue haciendo posible
incrementar la cantidad de componentes en los circuitos integrados. Sin
embargo, pocos circuitos LSI fueron producidos, los dispositivos de
memoria eran un buen ejemplo.

Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos


integrados. Después se dio un paso importante en la reducción de la
arquitectura de la computadora a un circuito integrado simple, resultando
uno que fue llamado microprocesador, unión de las palabras «Micro» del
griego μικρο-, «pequeño», y procesador. Sin embargo, es totalmente
válido usar el término genérico procesador, dado que con el paso de los
años, la escala de integración se ha visto reducida de micro métrica a
nanométrica; y además, es, sin duda, un procesador.

• El primer microprocesador fue el Intel 4004,1 producido en 1971. Se


desarrolló originalmente para una calculadora y resultó revolucionario
para su época. Contenía 2300 transistores, era un microprocesador de
arquitectura de 4 bits que podía realizar hasta 60000 operaciones por
segundo trabajando a una frecuencia de reloj de alrededor de 700 kHz.

• El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a


mediados de 1972 para su uso en terminales informáticos. El Intel 8008
integraba 3300 transistores y podía procesar a frecuencias máximas de
800 kHz.
• El primer microprocesador realmente diseñado para uso general,
desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500
transistores y podía ejecutar 200 000 instrucciones por segundo
trabajando a alrededor de 2 MHz.

• El primer microprocesador de 16 bits fue el 8086, seguido del 8088.


El 8086 fue el inicio y el primer miembro de la popular arquitectura x86,
actualmente usada en la mayoría de los computadores. El chip 8086 fue
introducido al mercado en el verano de 1978, pero debido a que no había
aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al
mercado el 8088, que fue lanzado en 1979. Llegaron a operar a
frecuencias mayores de 4 MHz.

• El microprocesador elegido para equipar al IBM Personal


Computer/AT, que causó que fuera el más empleado en los PC-AT
compatibles entre mediados y finales de los años 1980 fue el Intel 80286
(también conocido simplemente como 286); es un microprocesador de 16
bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con
134 000 transistores. Las versiones finales alcanzaron velocidades de hasta
25 MHz.

• Uno de los primeros procesadores de arquitectura de 32 bits fue el


80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus
diferentes versiones llegó a trabajar a frecuencias del orden de los 40
MHz.

• El microprocesador DEC Alpha se lanzó al mercado en 1992,


corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium
surgió en 1993 con una frecuencia de trabajo de 66 MHz. El procesador
Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito,
declarándose como el más rápido del mundo, en su época. Llegó a 1 GHz
de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003,
cuando se pensaba quitarlo de circulación, el Alpha aún encabezaba la
lista de los microprocesadores más rápidos de Estados Unidos.2

• Los microprocesadores modernos tienen una capacidad y velocidad


mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700
millones de transistores, como es en el caso de las serie Core i7, y pueden
operar a frecuencias normales algo superiores a los 3 GHz (3000 MHz).

Historia[editar]

Este artículo o sección se encuentra desactualizado.

La información suministrada ha quedado obsoleta o es insuficiente.

El pionero de los actuales microprocesadores: el 4004 de Intel.

Motorola 6800.

Zilog Z80 A.

Intel 80286, más conocido como 286.

Intel 80486, conocido también como 486SX de 33 MHz.

IBM PowerPC 601.

Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz,


con 256 Kb de caché L2.

AMD K6 original.

Intel Pentium II; se puede observar su estilo de zócalo diferente.

Intel Celeron "Coppermine 128" de 600 MHz.


Intel Pentium III.

Hasta los primeros años de la década de 1970 los diferentes componentes


electrónicos que formaban un procesador no podían ser un único circuito
integrado, era necesario utilizar dos o tres "chips" para hacer una CPU
(uno era el "ALU" - ArithmeticalLogicUnit, el otro la " control Unit", el otro
el " Register Bank", etc.). En 1971 la compañía Intel consiguió por primera
vez poner todos los transistores que constituían un procesador sobre un
único circuito integrado, el"4004 "', nacía el microprocesador.

Seguidamente se expone una lista ordenada cronológicamente de los


microprocesadores más populares que fueron surgiendo. En la URSS se
realizaron otros sistemas que dieron lugar a la serie microprocesador
Elbrus.

• 1971: El Intel 4004

El 4004 fue el primer microprocesador del mundo, creado en un simple


chip y desarrollado por Intel. Era un CPU de 4 bits y también fue el
primero disponible comercialmente. Este desarrollo impulsó la calculadora
de Busicom[1] e inició el camino para dotar de «inteligencia» a objetos
inanimados y asimismo, a la computadora personal.

• 1972: El Intel 8008

Codificado inicialmente como 1201, fue pedido a Intel por Computer


Terminal Corporation para usarlo en su terminal programable Datapoint
2200, pero debido a que Intel terminó el proyecto tarde y a que no
cumplía con la expectativas de Computer Terminal Corporation,
finalmente no fue usado en el Datapoint. Posteriormente Computer
Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a
otros clientes.

• 1974: El SC/MP

El SC/MP desarrollado por National Semiconductor, fue uno de los


primeros microprocesadores, y estuvo disponible desde principio de 1974.
El nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo
de Simple Cost-effective Micro Processor (Microprocesador simple y
rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de
8 bits. Una característica, avanzada para su tiempo, es la capacidad de
liberar los buses a fin de que puedan ser compartidos por varios
procesadores. Este microprocesador fue muy utilizado, por su bajo costo,
y provisto en kits, para propósitos educativos, de investigación y para el
desarrollo de controladores industriales diversos.

• 1974: El Intel 8080

EL 8080 se convirtió en la CPU de la primera computadora personal, la


Altair 8800 de MITS, según se alega, nombrada así por un destino de la
Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y
el IMSAI 8080, formando la base para las máquinas que ejecutaban el
sistema operativo CP/M-80. Los fanáticos de las computadoras podían
comprar un equipo Altair por un precio (en aquel momento) de 395 USD.
En un periodo de pocos meses, se vendieron decenas de miles de estos
PC.

• 1975: Motorola 6800

Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido


como 6800. Fue lanzado al mercado poco después del Intel 8080. Su
nombre proviene de que contenía aproximadamente 6800 transistores.
Varios de los primeras microcomputadoras de los años 1970 usaron el
6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue
la primera en usarlo, y la muy conocida Altair 680. Este microprocesador
se utilizó profusamente como parte de un kit para el desarrollo de
sistemas controladores en la industria. Partiendo del 6800 se crearon
varios procesadores derivados, siendo uno de los más potentes el
Motorola 6809

• 1976: El Z80

La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits


construido en tecnología NMOS, y fue basado en el Intel 8080.
Básicamente es una ampliación de éste, con lo que admite todas sus
instrucciones. Un año después sale al mercado el primer computador que
hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz
y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del
cual se han producido numerosas versiones clónicas, y sigue siendo usado
de forma extensiva en la actualidad en multitud de sistemas embebidos.
La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue
diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel
8080.

• 1978: Los Intel 8086 y 8088

Una venta realizada por Intel a la nueva división de computadoras


personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial
con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088
propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa
revista Fortune, y la misma nombró la empresa como uno de Los triunfos
comerciales de los sesenta.

• 1982: El Intel 80286

El 80286, popularmente conocido como 286, fue el primer procesador de


Intel que podría ejecutar todo el software escrito para su predecesor. Esta
compatibilidad del software sigue siendo un sello de la familia de
microprocesadores de Intel. Luego de seis años de su introducción, había
un estimado de 15 millones de PC basadas en el 286, instaladas alrededor
del mundo.

• 1985: El Intel 80386

Este procesador Intel, popularmente llamado 386, se integró con 275 000
transistores, más de 100 veces tantos como en el original 4004. El 386
añadió una arquitectura de 32 bits, con capacidad para multitarea y una
unidad de traslación de páginas, lo que hizo mucho más sencillo
implementar sistemas operativos que usaran memoria virtual.

• 1985: El VAX 78032

El microprocesador VAX 78032 (también conocido como DC333), es de


único chip y de 32 bits, y fue desarrollado y fabricado por Digital
EquipmentCorporation (DEC); instalado en los equipos MicroVAX II, en
conjunto con su chip coprocesador de coma flotante separado, el 78132,
tenían una potencia cercana al 90 % de la que podía entregar el
minicomputador VAX 11/780 que fuera presentado en 1977. Este
microprocesador contenía 125 000 transistores, fue fabricado con la
tecnología ZMOS de DEC. Los sistemas VAX y los basados en este
procesador fueron los preferidos por la comunidad científica y de
ingeniería durante la década de 1980.

• 1989: El Intel 80486

La generación 486 realmente significó contar con una computadora


personal de prestaciones avanzadas, entre ellas, un conjunto de
instrucciones optimizado, una unidad de coma flotante o FPU, una unidad
de interfaz de bus mejorada y una memoria caché unificada, todo ello
integrado en el propio chip del microprocesador. Estas mejoras hicieron
que los i486 fueran el doble de rápidos que el par i386 - i387 operando a
la misma frecuencia de reloj. El procesador Intel 486 fue el primero en
ofrecer un coprocesador matemático o FPU integrado; con él que se
aceleraron notablemente las operaciones de cálculo. Usando una unidad
FPU las operaciones matemáticas más complejas son realizadas por el
coprocesador de manera prácticamente independiente a la función del
procesador principal.

• 1991: El AMD AMx86

Procesadores fabricados por AMD 100 % compatible con los códigos de


Intel de ese momento. Llamados «clones» de Intel, llegaron incluso a
superar la frecuencia de reloj de los procesadores de Intel y a precios
significativamente menores. Aquí se incluyen las series Am286, Am386,
Am486 y Am586.

• 1993: PowerPC 601

Es un procesador de tecnología RISC de 32 bits, en 50 y 66 MHz. En su


diseño utilizaron la interfaz de bus del Motorola 88110. En 1991,
IBMbusca una alianza con Apple y Motorola para impulsar la creación de
este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo
objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas
basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el
nombre original de la familia de procesadores de arquitectura de tipo
RISC, que fue desarrollada por la alianza AIM. Los procesadores de esta
familia son utilizados principalmente en computadores Macintosh de
Apple Computer y su alto rendimiento se debe fuertemente a su
arquitectura tipo RISC.

• 1993: El Intel Pentium

El microprocesador de Pentium poseía una arquitectura capaz de ejecutar


dos operaciones a la vez, gracias a sus dos tuberías de datos de 32 bits
cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u).
Además, estaba dotado de un bus de datos de 64 bits, y permitía un
acceso a memoria de 64 bits (aunque el procesador seguía manteniendo
compatibilidad de 32 bits para las operaciones internas, y los registros
también eran de 32 bits). Las versiones que incluían instrucciones MMX no
sólo brindaban al usuario un más eficiente manejo de aplicaciones
multimedia, sino que también se ofrecían en velocidades de hasta 233
MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a
alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se
mencionó en las historietas y en charlas de la televisión a diario, en
realidad se volvió una palabra muy popular poco después de su
introducción.

• 1994: EL PowerPC 620

En este año IBM y Motorola desarrollan el primer prototipo del


procesador PowerPC de 64 bit,3 la implementación más avanzada de la
arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue
diseñado para su utilización en servidores, y especialmente optimizado
para usarlo en configuraciones de cuatro y hasta ocho procesadores en
servidores de aplicaciones de base de datos y vídeo. Este procesador
incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido
como un puente de migración para aquellos usuarios que quieren utilizar
aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de
32 bits.

• 1995: EL Intel Pentium Pro


Lanzado al mercado en otoño de 1995, el procesador Pentium Pro
(profesional) se diseñó con una arquitectura de 32 bits. Se usó en
servidores y los programas y aplicaciones para estaciones de trabajo (de
redes) impulsaron rápidamente su integración en las computadoras. El
rendimiento del código de 32 bits era excelente, pero el Pentium Pro a
menudo era más lento que un Pentium cuando ejecutaba código o
sistemas operativos de 16 bits. El procesador Pentium Pro estaba
compuesto por alrededor de 5'5 millones de transistores.

• 1996: El AMD K5

Habiendo abandonado los clones, AMD fabricada con tecnologías


análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5,
rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a
la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es
internamente un procesador RISC con una Unidad x86- decodificadora,
transforma todos los comandos x86 (de la aplicación en curso) en
comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la
mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior
precio, sin embargo AMD tenía poca experiencia en el desarrollo de
microprocesadores y los diferentes hitos de producción marcados se
fueron superando con poco éxito, se retrasó 1 año de su salida al
mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de
la competencia, y por tanto, los fabricantes de PC dieron por sentado que
era inferior.

• 1996: Los AMD K6 y AMD K6-2

Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los


Pentium MMX de Intel, sino que además amargó lo que de otra forma
hubiese sido un plácido dominio del mercado, ofreciendo un procesador
casi a la altura del Pentium II pero por un precio muy inferior. En cálculos
en coma flotante, el K6 también quedó por debajo del Pentium II, pero por
encima del Pentium MMX y del Pro. El K6 contó con una gama que va
desde los 166 hasta los más de 500 MHz y con el juego de instrucciones
MMX, que ya se han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros,
para seguir compitiendo con los Pentium II, siendo este último superior en
tareas de coma flotante, pero inferior en tareas de uso general. Se
introduce un juego de instrucciones SIMD denominado 3DNow!

• 1997: El Intel Pentium II

Un procesador de 7'5 millones de transistores, se busca entre los cambios


fundamentales con respecto a su predecesor, mejorar el rendimiento en la
ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y
eliminar la memoria caché de segundo nivel del núcleo del procesador,
colocándola en una tarjeta de circuito impreso junto a éste. Gracias al
nuevo diseño de este procesador, los usuarios de PC pueden capturar,
revisar y compartir fotografías digitales con amigos y familia vía Internet;
revisar y agregar texto, música y otros; con una línea telefónica; el enviar
vídeo a través de las líneas normales del teléfono mediante Internet se
convierte en algo cotidiano.

• 1998: El Intel Pentium II Xeon

Los procesadores Pentium II Xeon se diseñan para cumplir con los


requisitos de rendimiento en computadoras de medio-rango, servidores
más potentes y estaciones de trabajo (workstations). Consistente con la
estrategia de Intel para diseñar productos de procesadores con el objetivo
de llenar segmentos de los mercados específicos, el procesador Pentium II
Xeon ofrece innovaciones técnicas diseñadas para las estaciones de
trabajo y servidores que utilizan aplicaciones comerciales exigentes, como
servicios de Internet, almacenamiento de datos corporativos, creaciones
digitales y otros. Pueden configurarse sistemas basados en este
procesador para integrar de cuatro u ocho procesadores trabajando en
paralelo, también más allá de esa cantidad.

• 1999: El Intel Celeron

Continuando la estrategia, Intel, en el desarrollo de procesadores para el


segmento de mercados específicos, el procesador Celeron es el nombre
que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante
ésta segunda marca, penetrar en los mercados impedidos a los Pentium,
de mayor rendimiento y precio. Se diseña para añadir valor al segmento
del mercado de los PC. Proporcionó a los consumidores una gran
actuación a un bajo coste, y entregó un rendimiento destacado para usos
como juegos y el software educativo.

• 1999: El AMD Athlon K7 (Classic y Thunderbird)

Procesador totalmente compatible con la arquitectura x86. Internamente


el Athlon es un rediseño de su antecesor, pero se le mejoró
substancialmente el sistema de coma flotante(ahora con 3 unidades de
coma flotante que pueden trabajar simultáneamente) y se le incrementó
la memoria caché de primer nivel (L1) a 128 KB (64 Kb para datos y 64 Kb
para instrucciones). Además incluye 512 Kb de caché de segundo nivel
(L2). El resultado fue el procesador x86 más potente del momento.

El procesador Athlon con núcleo Thunderbird apareció como la evolución


del Athlon Classic. Al igual que su predecesor, también se basa en la
arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para
todos estos microprocesadores es de 180 nanómetros. El Athlon
Thunderbird consolidó a AMD como la segunda mayor compañía de
fabricación de microprocesadores, ya que gracias a su excelente
rendimiento (superando siempre al Pentium III y a los primeros Pentium IV
de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy
popular tanto entre los entendidos como en los iniciados en la
informática.

• 1999: El Intel Pentium III

El procesador Pentium III ofrece 70 nuevas instrucciones Internet


Streaming, las extensiones de SIMD que refuerzan dramáticamente el
rendimiento con imágenes avanzadas, 3D, añadiendo una mejor calidad
de audio, video y rendimiento en aplicaciones de reconocimiento de voz.
Fue diseñado para reforzar el área del rendimiento en el Internet, le
permite a los usuarios hacer cosas, tales como, navegar a través de
páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir
archivos video de alta calidad. El procesador se integra con 9,5 millones de
transistores, y se introdujo usando en él tecnología 250 nanómetros.
• 1999: El Intel Pentium III Xeon

El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a


las estaciones de trabajo (workstation) y segmentos de mercado de
servidores, y añade una actuación mejorada en las aplicaciones del
comercio electrónico e informática comercial avanzada. Los procesadores
incorporan mejoras que refuerzan el procesamiento multimedia,
particularmente las aplicaciones de vídeo. La tecnología del procesador III
Xeon acelera la transmisión de información a través del bus del sistema al
procesador, mejorando el rendimiento significativamente. Se diseña
pensando principalmente en los sistemas con configuraciones de
multiprocesador.

• 2000: EL Intel Pentium 4

Este es un microprocesador de séptima generación basado en la


arquitectura x86 y fabricado por Intel. Es el primero con un diseño
completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura
NetBurst, la cual no daba mejoras considerables respecto a la anterior P6.
Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor
cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

• 2001: El AMD Athlon XP

Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el
Athlon Thunderbird no estaba a su nivel. Además no era práctico para el
overclocking, entonces para seguir estando a la cabeza en cuanto a
rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo
núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las
3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la
prerrecuperación de datos por hardware, conocida en inglés como
prefetch, y el aumento de las entradas TLB, de 24 a 32.

• 2004: El Intel Pentium 4 (Prescott)

A principios de febrero de 2004, Intel introdujo una nueva versión de


Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un
proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia
con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 Kb
de caché L1 (el doble que los Northwood), prevención de ejecución,
SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3,
manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero
denominadas EM64T por Intel, sin embargo por graves problemas de
temperatura y consumo, resultaron un fracaso frente a los Athlon 64.

• 2004: El AMD Athlon 64

El AMD Athlon 64 es un microprocesador x86 de octava generación que


implementa el conjunto de instrucciones AMD64, que fueron introducidas
con el procesador Opteron. El Athlon 64 presenta un controlador de
memoria en el propio circuito integrado del microprocesador y otras
mejoras de arquitectura que le dan un mejor rendimiento que los
anteriores Athlon y que el Athlon XP funcionando a la misma velocidad,
incluso ejecutando código heredado de 32 bits. El Athlon 64 también
presenta una tecnología de reducción de la velocidad del procesador
llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que
requieren poco uso del procesador, baja la velocidad del mismo y su
tensión se reduce.

• 2006: El Intel Core Duo

Intel lanzó esta gama de procesadores de doble núcleo y CPUs 2x2 MCM
(módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones
x86-64, basado en la nueva arquitectura Core de Intel. La
microarquitectura Core regresó a velocidades de CPU bajas y mejoró el
uso del procesador de ambos ciclos de velocidad y energía comparados
con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura
Core provee etapas de decodificación, unidades de ejecución, caché y
buses más eficientes, reduciendo el consumo de energía de CPU Core 2,
mientras se incrementa la capacidad de procesamiento. Los CPU de Intel
han variado muy bruscamente en consumo de energía de acuerdo a
velocidad de procesador, arquitectura y procesos de semiconductor,
mostrado en las tablas de disipación de energía del CPU. Esta gama de
procesadores fueron fabricados de 65 a 45 nanómetros.

• 2007: El AMD Phenom


Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la
primera generación de procesadores de tres y cuatro núcleos basados en
la microarquitectura K10. Como característica común todos los Phenom
tienen tecnología de 65 nm lograda a través de tecnología de fabricación
Silicononinsulator (SOI). No obstante, Intel, ya se encontraba fabricando
mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los
procesadores Phenom están diseñados para facilitar el uso inteligente de
energía y recursos del sistema, listos para la virtualización, generando un
óptimo rendimiento por vatio. Todas las CPU Phenom poseen
características tales como controlador de memoria DDR2 integrado,
tecnología HyperTransport y unidades de coma flotante de 128 bits, para
incrementar la velocidad y el rendimiento de los cálculos de coma
flotante. La arquitectura DirectConnect asegura que los cuatro núcleos
tengan un óptimo acceso al controlador integrado de memoria, logrando
un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del
microprocesador y la tecnología HyperTransport, de manera que las
escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3
compartida para un acceso más rápido a los datos (y así no depende tanto
del tiempo de latencia de la RAM), además de compatibilidad de
infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino
de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el
rendimiento de la serie Core 2 Duo.

• 2008: El Intel Core i7 Nehalem

Intel Core i7 es una familia de procesadores de cuatro núcleos de la


arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que
usan la microarquitecturaNehalem de Intel y es el sucesor de la familia
Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5
(zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI
eliminado el northBrige e implementando puertos PCI Express
directamente. Memoria de tres canales (ancho de datos de 192 bits): cada
canal puede soportar una o dos memorias DIMM DDR3. Las placa base
compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar
de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no
dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está
fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de
transistores su versión más potente. Se volvió a usar frecuencias altas,
aunque a contrapartida los consumos se dispararon.

• 2008: Los AMD Phenom II y Athlon II

Phenom II es el nombre dado por AMD a una familia de


microprocesadores o CPUsmultinúcleo (multicore) fabricados en 45 nm, la
cual sucede al Phenom original y dieron soporte a DDR3. Una de las
ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la
cantidad de caché L3. De hecho, ésta se incrementó de una manera
generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

Entre ellos, el AmdPhenom II X2 BE 555 de doble núcleo surge como el


procesador binúcleo del mercado. También se lanzan tres Athlon II con
sólo Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon
II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.

AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como
un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de
cuatro núcleos, que corre a más de 3,2 GHz. También AMD lanza la familia
Thurban con 6 núcleos físicos dentro del encapsulado

• 2011: El Intel Core Sandy Bridge

Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e
Intel Core i7 serie 2000 y Pentium G.

Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy
Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios
en arquitectura respecto a nehalem, pero si los necesarios para hacerlos
más eficientes y rápidos que los modelos anteriores. Es la segunda
generación de los Intel Core con nuevas instrucciones de 256 bits,
duplicando el rendimiento, mejorando el rendimiento en 3D y todo lo que
se relacione con operación en multimedia. Llegaron la primera semana de
enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX
y una GPU integrada de hasta 12 unidades de ejecución

• 2011: El AMD Fusion


AMD Fusion es el nombre clave para un diseño futuro de
microprocesadores Turion, producto de la fusión entre AMD y ATI,
combinando con la ejecución general del procesador, el proceso de la
geometría 3D y otras funciones de GPUs actuales. La GPU (procesador
gráfico) estará integrada en el propio microprocesador. Se espera la salida
progresiva de esta tecnología a lo largo del 2011; estando disponibles los
primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo
entre últimos meses de 2010 y primeros de 2011, dejando el legado de las
gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales
del 2011)

• 2012: El Intel Core Ivy Bridge

Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel


Core de tercera generación. Son por tanto sucesores de los micros que
aparecieron a principios de 2011, cuyo nombre en clave es Sandy Bridge.
Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a
los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma
área. Un mayor número de transistores significa que puedes poner más
bloques funcionales dentro del chip. Es decir, este será capaz de hacer un
mayor número de tareas al mismo tiempo.

• 2013: El Intel Core Haswell

Haswell es el nombre clave de los procesadores de cuarta generación de


Intel Core. Son la corrección de errores de la tercera generación e
implementan nuevas tecnologías gráficas para el gamming y el diseño
gráfico, funcionando con un menor consumo y teniendo un mejor
rendimiento a un buen precio. Continua como su predecesor en 22
nanómetros pero funciona con un nuevo socket con clave 1150. Tienen un
costo elevado a comparación con los APU's y FX de AMD pero tienen un
mayor rendimiento.

• 2017: El Intel Core i7-7920HQ

Este procesador está en la línea de la séptima generación, incorporando


una potencia y una capacidad de respuesta nunca antes vistas.
Especialmente fabricado para usuarios exigentes que quieren aumentar su
productividad, sin dejar de lado a aquellos que pretenden pensar también
en el entretenimiento y juegos sensacionales, con alta transferencia de
datos y mucho más, ya está disponible en el mercado.

• 2017: AMD Ryzen

Es una marca de procesadores desarrollados por AMD lanzada en febrero


de 2017, usa la microarquitectura Zen en proceso de fabricación de 14 nm
y cuentan con 4800 millones de transistores, ofrecen un gran rendimiento
multi-hilo pero uno menor usando un solo hilo que los de su competencia
Intel. Estos requieren del zócalo AM4 y todas las tarjetas madre para este
tipo de procesadores incorporan multiplicadores desbloqueados para
overclocking, además que todos los productos soportan overclocking
automático, aunque esto procesadores no cuentan con GPU integrada,
por lo que dependen de una solución dedicada. Los procesadores Ryzen
devolvieron a AMD a la gama alta de CPUs de escritorio, capaces de
competir en rendimiento contra los procesadores Core i7 de Intel con
precios menores y competitivos; desde su lanzamiento la cuota de
mercado de AMD ha aumentado.

Funcionamiento[editar]

Desde el punto de vista lógico, singular y funcional, el microprocesador


está compuesto básicamente por: varios registros, una unidad de control,
una unidad aritmético lógica, y dependiendo del procesador, puede
contener una unidad de coma flotante.

El microprocesador ejecuta instrucciones almacenadas como números


binarios organizados secuencialmente en la memoria principal. La
ejecución de las instrucciones se puede realizar en varias fases:

• Prefetch, prelectura de la instrucción desde la memoria principal.

• Fetch, envío de la instrucción al decodificador

• Decodificación de la instrucción, es decir, determinar qué


instrucción es y por tanto qué se debe hacer.

• Lectura de operandos (si los hay).


• Ejecución, lanzamiento de las máquinas de estado que llevan a cabo
el procesamiento.

• Escritura de los resultados en la memoria principal o en los


registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU,


dependiendo de la estructura del procesador, y concretamente de su
grado de segmentación. La duración de estos ciclos viene determinada por
la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para
realizar la tarea individual (realizada en un solo ciclo) de mayor coste
temporal. El microprocesador se conecta a un circuito PLL, normalmente
basado en un cristal de cuarzo capaz de generar pulsos a un ritmo
constante, de modo que genera varios ciclos (o pulsos) en un segundo.
Este reloj, en la actualidad, genera miles de megahercios.

Rendimiento[editar]

El rendimiento del procesador puede ser medido de distintas maneras,


hasta hace pocos años se creía que la frecuencia de reloj era una medida
precisa, pero ese mito, conocido como «mito de los megahertzios» se ha
visto desvirtuado por el hecho de que los procesadores no han requerido
frecuencias más altas para aumentar su potencia de cómputo.

Durante los últimos años esa frecuencia se ha mantenido en el rango de


los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades
de proceso mayores comparados con los primeros que alcanzaron esos
valores. Además la tendencia es a incorporar más núcleos dentro de un
mismo encapsulado para aumentar el rendimiento por medio de una
computación paralela, de manera que la velocidad de reloj es un indicador
menos fiable aún. De todas maneras, una forma fiable de medir la
potencia de un procesador es mediante la obtención de las Instrucciones
por ciclo.

Medir el rendimiento con la frecuencia es válido únicamente entre


procesadores con arquitecturas muy similares o iguales, de manera que su
funcionamiento interno sea el mismo: en ese caso la frecuencia es un
índice de comparación válido. Dentro de una familia de procesadores es
común encontrar distintas opciones en cuanto a frecuencias de reloj,
debido a que no todos los chips de silicio tienen los mismos límites de
funcionamiento: son probados a distintas frecuencias, hasta que muestran
signos de inestabilidad, entonces se clasifican de acuerdo al resultado de
las pruebas.

Esto se podría reducir en que los procesadores son fabricados por lotes
con diferentes estructuras internas atendiendo a gamas y extras como
podría ser una memoria caché de diferente tamaño, aunque no siempre
es así y las gamas altas difieren muchísimo más de las bajas que
simplemente de su memoria caché. Después de obtener los lotes según su
gama, se someten a procesos en un banco de pruebas, y según su soporte
a las temperaturas o que vaya mostrando signos de inestabilidad, se le
adjudica una frecuencia, con la que vendrá programado de serie, pero con
prácticas de overclock se le puede incrementar

La capacidad de un procesador depende fuertemente de los componentes


restantes del sistema, sobre todo del chipset, de la memoria RAM y del
software. Pero obviando esas características puede tenerse una medida
aproximada del rendimiento de un procesador por medio de indicadores
como la cantidad de operaciones de coma flotante por unidad de tiempo
FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una
medida exacta del rendimiento de un procesador o de un sistema, es muy
complicada debido a los múltiples factores involucrados en la
computación de un problema, por lo general las pruebas no son
concluyentes entre sistemas de la misma generación.

Arquitectura[editar]

El microprocesador tiene una arquitectura parecida a la computadora


digital. En otras palabras, el microprocesador es como la computadora
digital porque ambos realizan cálculos bajo un programa de control.
Consiguientemente, la historia de la computadora digital ayuda a
entender el microprocesador. Hizo posible la fabricación de potentes
calculadoras y de muchos otros productos. El microprocesador utiliza el
mismo tipo de lógica que es usado en la unidad procesadora central (CPU)
de una computadora digital. El microprocesador es algunas veces llamado
unidad microprocesadora (MPU). En otras palabras, el microprocesador es
una unidad procesadora de datos. En un microprocesador se puede
diferenciar diversas partes:

• Encapsulado: es lo que rodea a la oblea de silicio en si, para darle


consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire)
y permitir el enlace con los conectores externos que lo acoplaran a su
zócalo de la placa base.

• Memoria caché: es una memoria ultrarrápida que emplea el


procesador para tener alcance directo a ciertos datos que
«predeciblemente» serán utilizados en las siguientes operaciones, sin
tener que acudir a la memoria RAM, reduciendo así el tiempo de espera
para adquisición de datos. Todos los micros compatibles con PC poseen la
llamada caché interna de primer nivel o L1; es decir, la que está dentro del
micro, encapsulada junto a él. Los micros más modernos (Core i3, Core i5,
Core i7, etc.) incluyen también en su interior otro nivel de caché, más
grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e
incluso los hay con memoria caché de nivel 3, o L3.

• Coprocesador matemático: unidad de coma flotante. Es la parte del


micro especializada en esa clase de cálculos matemáticos, antiguamente
estaba en el exterior del procesador en otro chip. Esta parte está
considerada como una parte «lógica» junto con los registros, la unidad de
control, memoria y bus de datos.

• Registros: son básicamente un tipo de memoria pequeña con fines


especiales que el micro tiene disponible para algunos usos particulares.
Hay varios grupos de registros en cada procesador. Un grupo de registros
está diseñado para control del programador y hay otros que no son
diseñados para ser controlados por el procesador pero que la CPU los
utiliza en algunas operaciones, en total son treinta y dos registros.

• Memoria: es el lugar donde el procesador encuentra las


instrucciones de los programas y sus datos. Tanto los datos como las
instrucciones están almacenados en memoria, y el procesador las accede
desde allí. La memoria es una parte interna de la computadora y su
función esencial es proporcionar un espacio de almacenamiento para el
trabajo en curso.

• Puertos: es la manera en que el procesador se comunica con el


mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier
parte de la circuitería de la computadora con la cual el procesador
necesita comunicarse, tiene asignado un «número de puerto» que el
procesador utiliza como si fuera un número de teléfono para llamar
circuitos o a partes especiales.

Fabricación[editar]

Procesadores de silicio[editar]

El proceso de fabricación de un microprocesador es muy complejo.

Todo comienza con un buen puñado de arena (compuesta básicamente de


silicio), con la que se fabrica un mono cristal de unos 20 x 150 centímetros.
Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y
muy lentamente (10 a 40 mm por hora) se va formando el cristal.

De este cristal, de cientos de kilos de peso, se cortan los extremos y la


superficie exterior, de forma de obtener un cilindro perfecto. Luego, el
cilindro se corta en obleas de 10 micras de espesor, la décima parte del
espesor de un cabello humano, utilizando una sierra de diamante. De cada
cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios
cientos de microprocesadores.

Silicio.

Estas obleas son pulidas hasta obtener una superficie perfectamente


plana, pasan por un proceso llamado “annealing”, que consiste en
someterlas a un calentamiento extremo para eliminar cualquier defecto o
impureza que pueda haber llegado a esta instancia. Después de una
supervisión mediante láseres capaz de detectar imperfecciones menores a
una milésima de micra, se recubren con una capa aislante formada por
óxido de silicio transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del «dibujado» de los
transistores que conformarán a cada microprocesador. A pesar de ser muy
complejo y preciso, básicamente consiste en la “impresión” de sucesivas
máscaras sobre la oblea, sucediéndose la deposición y eliminación de
capas finísimas de materiales conductores, aislantes y semiconductores,
endurecidas mediante luz ultravioleta y atacada por ácidos encargados de
eliminar las zonas no cubiertas por la impresión. Salvando las escalas, se
trata de un proceso comparable al visto para la fabricación de circuitos
impresos. Después de cientos de pasos, entre los que se hallan la creación
de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y
la deposición de capas; se llega a un complejo «bocadillo» que contiene
todos los circuitos interconectados del microprocesador.

Un transistor construido en tecnología de 45 nanómetros tiene un ancho


equivalente a unos 200 electrones. Eso da una idea de la precisión
absoluta que se necesita al momento de aplicar cada una de las máscaras
utilizadas durante la fabricación.

Una oblea de silicio grabada.

Los detalles de un microprocesador son tan pequeños y precisos que una


única mota de polvo puede destruir todo un grupo de circuitos. Las salas
empleadas para la fabricación de microprocesadores se denominan salas
limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y
está prácticamente libre de polvo. Las salas limpias más puras de la
actualidad se denominan de clase 1. La cifra indica el número máximo de
partículas mayores de 0,12 micras que puede haber en un pie cúbico
(0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1
millón. Los trabajadores de estas plantas emplean trajes estériles para
evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.

Una vez que la oblea ha pasado por todo el proceso litográfico, tiene
“grabados” en su superficie varios cientos de microprocesadores, cuya
integridad es comprobada antes de cortarlos. Se trata de un proceso
obviamente automatizado, y que termina con una oblea que tiene
grabados algunas marcas en el lugar que se encuentra algún
microprocesador defectuoso.

La mayoría de los errores se dan en los bordes de la oblea, dando como


resultados chips capaces de funcionar a velocidades menores que los del
centro de la oblea o simplemente con características desactivadas, tales
como núcleos. Luego la oblea es cortada y cada chip individualizado. En
esta etapa del proceso el microprocesador es una pequeña placa de unos
pocos milímetros cuadrados, sin pines ni cápsula protectora.

Cada una de estas plaquitas será dotada de una cápsula protectora


plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos
de pines metálicos que le permitirán interactuar con el mundo exterior.
Estas conexiones se realizan utilizando delgadísimos alambres,
generalmente de oro. De ser necesario, la cápsula es provista de un
pequeño disipador térmico de metal, que servirá para mejorar la
transferencia de calor desde el interior del chip hacia el disipador
principal. El resultado final es un microprocesador como los que equipan a
los computadores.

También se están desarrollando alternativas al silicio puro, tales como el


carburo de silicio que mejora la conductividad del material, permitiendo
mayores frecuencias de reloj interno; aunque aún se encuentra en
investigación.

Otros materiales[editar]

Aunque la gran mayoría de la producción de circuitos integrados se basa


en el silicio, no se puede omitir la utilización de otros materiales que son
una alternativa tales como el germanio; tampoco las investigaciones
actuales para conseguir hacer operativo un procesador desarrollado con
materiales de características especiales como el grafeno o la molibdenita.4

Empaquetado[editar]

Empaquetado de un procesador Intel 80486 en un empaque de cerámica.


Los microprocesadores son circuitos integrados y como tal están formados
por un chip de silicio y un empaque con conexiones eléctricas. En los
primeros procesadores el empaque se fabricaba con plásticos epoxicos o
con cerámicas en formatos como el DIP entre otros. El chip se pegaba con
un material térmicamente conductor a una base y se conectaba por medio
de pequeños alambres a unas pistas terminadas en pines. Posteriormente
se sellaba todo con una placa metálica u otra pieza del mismo material de
la base de manera que los alambres y el silicio quedaran encapsulados.

Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de


silicio.

En la actualidad los microprocesadores de diversos tipos (incluyendo


procesadores gráficos) se ensamblan por medio de la tecnología Flip chip.
El chip semiconductor es soldado directamente a una colección de pistas
conductoras (en el sustrato laminado) con la ayuda de unas microesferas
que se depositan sobre las obleas de semiconductor en las etapas finales
de su fabricación. El sustrato laminado es una especie de circuito impreso
que posee pistas conductoras hacia pines o contactos, que a su vez
servirán de conexión entre el chip semiconductor y un zócalo de CPU o
una placa base.<4>

Antiguamente las conexión del chip con los pines se realizaba por medio
de microalambres de manera que quedaba boca arriba, con el método Flip
Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de
este método esta la simplicidad del ensamble y en una mejor disipación
de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de
silicio de manera que puede ser enfriado directamente por medio de
elementos conductores de calor. Esta superficie se aprovecha también
para etiquetar el integrado. En los procesadores para computadores de
escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por
colocar una placa de metal, por ejemplo en los procesadores Athlon como
el de la primera imagen. En los procesadores de Intel también se incluye
desde el Pentium III de más de 1 GHz.

Disipación de calor[editar]
Artículo principal: Disipador

Con el aumento de la cantidad de transistores integrados en un


procesador, el consumo de energía se ha elevado a niveles en los cuales la
disipación calórica natural del mismo no es suficiente para mantener
temperaturas aceptables y que no se dañe el material semiconductor, de
manera que se hizo necesario el uso de mecanismos de enfriamiento
forzado, esto es, la utilización de disipadores de calor.

Entre ellos se encuentran los sistemas sencillos, tales como disipadores


metálicos, que aumentan el área de radiación, permitiendo que la energía
salga rápidamente del sistema. También los hay con refrigeración líquida,
por medio de circuitos cerrados.

En los procesadores más modernos se aplica en la parte superior del


procesador, una lámina metálica denominada IHS que va a ser la
superficie de contacto del disipador para mejorar la refrigeración
uniforme del die y proteger las resistencias internas de posibles tomas de
contacto al aplicar pasta térmica. Varios modelos de procesadores, en
especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta
aplicación de la pasta térmica.

Para las prácticas de overclock extremo, se llegan a utilizar elementos


químicos tales como hielo seco, y en casos más extremos, nitrógeno
líquido, capaces de rondar temperaturas por debajo de los -190 grados
Celsius y el helio líquido capaz de rondar temperaturas muy próximas al
cero absoluto. De esta manera se puede prácticamente hasta triplicar la
frecuencia de reloj de referencia de un procesador de silicio. El límite físico
del silicio es de 10 GHz, mientras que el de otros materiales como el
grafeno puede llegar a 1 THz5

Conexión con el exterior[editar]

Artículo principal: Zócalo de CPU

Superficies de contacto en un procesador Intel para zócalo LGA 775.


El microprocesador posee un arreglo de elementos metálicos que
permiten la conexión eléctrica entre el circuito integrado que conforma el
microprocesador y los circuitos de la placa base. Dependiendo de la
complejidad y de la potencia, un procesador puede tener desde 8 hasta
más de 2000 elementos metálicos en la superficie de su empaque. El
montaje del procesador se realiza con la ayuda de un zócalo de
CPUsoldado sobre la placa base. Generalmente distinguimos tres tipos de
conexión:

• PGA: Pin GridArray: La conexión se realiza mediante pequeños


alambres metálicos repartidos a lo largo de la base del procesador
introduciéndose en la placa base mediante unos pequeños agujeros, al
introducir el procesador, una palanca anclará los pines para que haga
buen contacto y no se suelten.

• BGA: BallGridArray: La conexión se realiza mediante bolas soldadas


al procesador que hacen contacto con el zócalo

• LGA: LandGridArray: La conexión se realiza mediante superficies de


contacto lisas con pequeños pines que incluye la placa base.

Entre las conexiones eléctricas están las de alimentación eléctrica de los


circuitos dentro del empaque, las señales de reloj, señales relacionadas
con datos, direcciones y control; estas funciones están distribuidas en un
esquema asociado al zócalo, de manera que varias referencias de
procesador y placas base son compatibles entre ellos, permitiendo
distintas configuraciones.

Buses del procesador[editar]

Todos los procesadores poseen un bus principal o de sistema por el cual se


envían y reciben todos los datos, instrucciones y direcciones desde los
integrados del chipset o desde el resto de dispositivos. Como puente de
conexión entre el procesador y el resto del sistema, define mucho del
rendimiento del sistema, su velocidad se mide en bits por segundo.

Ese bus puede ser implementado de distintas maneras, con el uso de


buses seriales o paralelos y con distintos tipos de señales eléctricas. La
forma más antigua es el bus paralelo en el cual se definen líneas
especializadas en datos, direcciones y para control.

En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese


bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32
de direcciones además de múltiples líneas de control que permiten la
transmisión de datos entre el procesador y el resto del sistema. Este
esquema se ha utilizado desde el primer procesador de la historia, con
mejoras en la señalización que le permite funcionar con relojes de 333
MHz haciendo 4 transferencias por ciclo.6

En algunos procesadores de AMD y en el Intel Core i7 se han usado otros


tipos para el bus principal de tipo serial. Entre estos se encuentra el bus
HyperTransport de AMD, que maneja los datos en forma de paquetes
usando una cantidad menor de líneas de comunicación, permitiendo
frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath

Los microprocesadores de Intel y de AMD (desde antes) poseen además


un controlador de memoria de acceso aleatorio en el interior del
encapsulado lo que hace necesario la implementación de buses de
memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los
estándares DDR de JEDEC y consisten en líneas de bus paralelo, para
datos, direcciones y control. Dependiendo de la cantidad de canales
pueden existir de 1 a 4 buses de memoria.

Bus (informática)

Buses de comunicación en un circuito impreso.

En arquitectura de computadores, el bus (o canal) es un sistema digital


que transfiere datos entre los componentes de una computadora o entre
varias computadoras. Está formado por cables o pistas en un circuito
impreso, dispositivos como resistores y condensadores además de
circuitos integrados.1

Existen dos tipos de transferencia en los buses:


1. Serie: El bus solamente es capaz de transferir los datos bit a bit. Es
decir, el bus tiene un único cable que transmite la información.

2. Paralelo: El bus permite transferir varios bits simultáneamente, por


ejemplo 8 bits.

Aunque en primera instancia parece mucho más eficiente la transferencia


en paralelo, esta presenta inconvenientes:

1. La frecuencia de reloj en el bus paralelo tiene que ser más reducida.

2. La longitud de los cables que forman el bus está limitada, ya que a


partir de determinada longitud la probabilidad de que los bits lleguen
desordenados es elevada.

Además, los modernos buses serie están formados por varios canales: En
este caso se transmite por varios buses serie simultáneamente.

En los primeros computadores electrónicos, era muy habitual encontrar


buses paralelos, quedando los buses serie dedicados para funciones de
menor entidad y dispositivos lentos, como el teclado.

La tendencia en los últimos años es reemplazar los buses paralelos por


buses serie (que suelen ser multicanal). Estos son más difíciles de
implementar, pero están dejando velocidades de transferencia más
elevadas, y permitiendo longitudes de cable mayores.

• 1Funcionamiento

o 1.1Primera generación

o 1.2Segunda generación

o 1.3Tercera generación

• 2Tipos de bus

o 2.1Bus paralelo

o 2.2Bus serie

• 3Buses: de control, de direcciones y de datos


o 3.1Bus de control

o 3.2Bus de direcciones

o 3.3Bus de datos

• 4Buses multiplexados

• 5Véase también

• 6Referencias

• 7Enlaces externos

Funcionamiento[editar]

La función del bus es la de permitir la conexión lógica entre distintos


subsistemas de un sistema digital, enviando datos entre dispositivos de
distintos órdenes: desde dentro de los mismos circuitos integrados, hasta
equipos digitales completos que forman parte de supercomputadoras.

La mayoría de los buses están basados en conductores metálicos por los


cuales se trasmiten señales eléctricas que son enviadas y recibidas con la
ayuda de integrados que poseen una interfaz del bus dado y se encargan
de manejar las señales y entregarlas como datos útiles. Las señales
digitales que se trasmiten son de datos, de direcciones o señales de
control.

Los buses definen su capacidad de acuerdo a la frecuencia máxima de


envío y al ancho de los datos. Por lo general estos valores son
inversamente proporcionales: si se tiene una alta frecuencia, el ancho de
datos debe ser pequeño. Esto se debe a que la interferencia entre las
señales (crosstalk) y la dificultad de sincronizarlas, crecen con la
frecuencia, de manera que un bus con pocas señales es menos susceptible
a esos problemas y puede funcionar a alta velocidad.

Todos los buses de computador tienen funciones especiales como las


interrupciones y las DMA que permiten que un dispositivo periférico
acceda a una CPU o a la memoria usando el mínimo de recursos.

Primera generación[editar]
Bus Backplane del PDP-11 junto con algunas tarjetas.

Los primeros computadores tenían dos sistemas de buses, uno para la


memoria y otro para los demás dispositivos. La CPU tenía que acceder a
dos sistemas con instrucciones para cada uno, protocolos y
sincronizaciones diferentes.

La empresa DEC notó que el uso de dos buses no era necesario si se


combinaban las direcciones de memoria con las de los periféricos en un
solo espacio de memoria (mapeo), de manera que la arquitectura se
simplificaba ahorrando costos de fabricación en equipos fabricados en
masa, como eran los primeros minicomputadores.

Los primeros microcomputadores se basaban en la conexión de varias


tarjetas de circuito impreso a un bus Backplane pasivo que servía de eje al
sistema. En ese bus se conectaba la tarjeta de CPU que realiza las
funciones de árbitro de las comunicaciones con las demás tarjetas de
dispositivo conectadas; las tarjetas incluían la memoria, controladoras de
disquete y disco, adaptadores de vídeo. La CPU escribía o leía los datos
apuntando a la dirección que tuviera el dispositivo buscado en el espacio
único de direcciones haciendo que la información fluyera a través del bus
principal.

Entre las implementaciones más conocidas, están los buses Bus S-100 y el
Bus ISA usados en varios microcomputadores de las décadas de 1970 y
1980. En ambos, el bus era simplemente una extensión del bus del
procesador de manera que funcionaba a la misma frecuencia. Por ejemplo
en los sistemas con procesador Intel 80286 el bus ISA tenía 6 u 8
megahercios de frecuencia dependiendo del procesador.2

Segunda generación[editar]

Jerarquía de diversos buses en un equipo relativamente moderno: SATA,


FSB, AGP, USB entre otros.
El hecho de que el bus fuera pasivo y que usara la CPU como control,
representaba varios problemas para la ampliación y modernización de
cualquier sistema con esa arquitectura. Además que la CPU utilizaba una
parte considerable de su potencia en controlar el bus.

Desde que los procesadores empezaron a funcionar con frecuencias más


altas, se hizo necesario jerarquizar los buses de acuerdo a su frecuencia:
se creó el concepto de bus de sistema (conexión entre el procesador y la
RAM) y de buses de expansión, haciendo necesario el uso de un chipset.

El bus ISA utilizado como backplane en el PC IBM original pasó de ser un


bus de sistema a uno de expansión, dejando su arbitraje a un integrado
del chipset e implementando un bus a una frecuencia más alta para
conectar la memoria con el procesador.

En cambio, el bus Nubus era independiente desde su creación, tenía un


controlador propio y presentaba una interfaz estándar al resto del
sistema, permitiendo su inclusión en diferentes arquitecturas. Fue usado
en diversos equipos, incluyendo algunos de Apple y se caracterizaba por
tener un ancho de 32 bits y algunas capacidades Plug and Play
(autoconfiguración), que lo hacían muy versátil y adelantado a su tiempo.
Entre otros ejemplos de estos buses autónomos, están el AGP y el bus PCI.

Tercera generación[editar]

Los buses de tercera generación se caracterizan por tener conexiones


punto a punto, a diferencia de los buses arriba nombrados en los que se
comparten señales de reloj. Esto se logra reduciendo fuertemente el
número de conexiones que presenta cada dispositivo usando interfaces
seriales. Entonces cada dispositivo puede negociar las características de
enlace al inicio de la conexión y en algunos casos de manera dinámica, al
igual que sucede en las redes de comunicaciones. Entre los ejemplos más
notables, están los buses PCI-Express, el Infiniband y el HyperTransport.

Tipos de bus[editar]

Existen dos tipos que están clasificados por el método de envío de la


información: bus paralelo o bus serial.
Hay diferencias en el rendimiento y hasta hace unos años se consideraba
que el uso apropiado dependía de la longitud física de la conexión: para
cortas distancias el bus paralelo, para largas el serial.

Bus paralelo[editar]

Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con
la ayuda de varias líneas que tienen funciones fijas. La cantidad de datos
enviada es bastante grande con una frecuencia moderada y es igual al
ancho de los datos por la frecuencia de funcionamiento. En los
computadores ha sido usado de manera intensiva, desde el bus del
procesador, los buses de discos duros, tarjetas de expansión y de vídeo,
hasta las impresoras.

El front-side bus de los procesadores Intel es un bus de este tipo y como


cualquier bus presenta unas funciones en líneas dedicadas:

• Las líneas de dirección son las encargadas de indicar la posición de


memoria o el dispositivo con el que se desea establecer comunicación.

• Las líneas de control son las encargadas de enviar señales de


arbitraje entre los dispositivos. Entre las más importantes están las líneas
de interrupción, DMA y los indicadores de estado.

• Las líneas de datos transmiten los bits de forma aleatoria de manera


que por lo general un bus tiene un ancho que es potencia de 2.

Un bus paralelo tiene conexiones físicas complejas, pero la lógica es


sencilla, que lo hace útil en sistemas con poco poder de cómputo. En los
primeros microcomputadores, el bus era simplemente la extensión del
bus del procesador y los demás integrados "escuchan" las línea de
direcciones, en espera de recibir instrucciones. En el PC IBM original, el
diseño del bus fue determinante a la hora de elegir un procesador con I/O
de 8 bits (Intel 8088), sobre uno de 16 (el 8086), porque era posible usar
hardware diseñado para otros procesadores, abaratando el producto.

Bus serie[editar]

En este los datos son enviados, bit a bit y se reconstruyen por medio de
registros o rutinas. Está formado por pocos conductores y su ancho de
banda depende de la frecuencia. Aunque originalmente fueron usados
para conectar dispositivos lentos (como el teclado o un ratón),
actualmente se están usando para conectar dispositivos mucho más
rápidos como discos duros, unidades de estado sólido, tarjetas de
expansión e incluso para el bus del procesador.

Buses: de control, de direcciones y de datos[editar]

Diagrama de bus backplane como extensión del bus del microprocesador


donde se grafican los buses de direcciones, de datos, y de control, que van
desde la CPU a la RAM, ROM, E/S y otros.

Bus de control[editar]

El bus de control gobierna el uso y acceso a las líneas de datos y de


direcciones. Como éstas líneas están compartidas por todos los
componentes, tiene que proveerse de determinados mecanismos que
controlen su utilización. Las señales de control transmiten tanto órdenes
como información de temporización entre los módulos. Mejor dicho, es el
que permite que no haya colisión de información en el sistema.

Bus de direcciones[editar]

La memoria RAM es direccionable, de forma que cada celda de memoria


tiene su propia dirección. Las direcciones son un número que selecciona
una celda de memoria dentro de la memoria principal o en el espacio de
direcciones de la unidad de entrada/salida.

El bus de direcciones es un canal del microprocesador totalmente


independiente del bus de datos donde se establece la dirección de
memoria del dato en tránsito.

El bus de dirección consiste en el conjunto de líneas eléctricas necesarias


para establecer una dirección. La capacidad de la memoria que se puede
direccionar depende de la cantidad de bits que conforman el bus de
direcciones, siendo 2n el tamaño máximo en bits del banco de memoria
que se podrá direccionar con n líneas. Por ejemplo, para direccionar una
memoria de 256 bits, son necesarias al menos 8 líneas, pues 28 = 256.
Adicionalmente pueden ser necesarias líneas de control para señalar
cuándo la dirección está disponible en el bus. Esto depende del diseño del
propio bus.

Bus de datos[editar]

El bus de datos permite el intercambio de datos entre la CPU y el resto de


unidades.

Buses multiplexados[editar]

Algunos diseños utilizan líneas eléctricas multiplexadas para el bus de


direcciones y el bus de datos. Esto significa que un mismo conjunto de
líneas eléctricas se comportan unas veces como bus de direcciones y otras
veces como bus de datos, pero nunca al mismo tiempo. Una línea de
control permite discernir cuál de las dos funciones está activa.

Reloj interno

Para otros usos de este término, véase ritmo circadiano.

El reloj interno es un componente del microprocesador que emite una


serie de pulsos eléctricos a intervalos constantes llamados ciclos, estos
ciclos marcan el ritmo que ha de seguirse para la realización de cada paso
de que consta la instrucción.

Se basa en la teoría binaria para marcar el ritmo (también denominado


pulso), el cual se considera como 1 al estado de encendido y 0 como al
estado de apagado. La velocidad de cambio se denomina en hercios (Hz)
que son los ciclos de cambio por segundo.

Memoria de acceso aleatorio


a memoria de acceso aleatorio (Random Access Memory, RAM) se utiliza
como memoria de trabajo de computadoras y otros dispositivos para el
sistema operativo, los programas y la mayor parte del software. En la RAM
se cargan todas las instrucciones que ejecuta la unidad central de
procesamiento (procesador) y otras unidades del computador, además de
contener los datos que manipulan los distintos programas.

Se denominan «de acceso aleatorio» porque se puede leer o escribir en


una posición de memoria con un tiempo de espera igual para cualquier
posición, no siendo necesario seguir un orden para acceder (acceso
secuencial) a la información de la manera más rápida posible.

Durante el encendido de la computadora, la rutina POST verifica que los


módulos de RAM estén conectados de manera correcta. En el caso que no
existan o no se detecten los módulos, la mayoría de tarjetas madres
emiten una serie de sonidos que indican la ausencia de memoria principal.
Terminado ese proceso, la memoria BIOS puede realizar un test básico
sobre la memoria RAM indicando fallos mayores en la misma.

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo


magnético, desarrollada entre 1949 y 1952 y usada en muchos
computadores hasta el desarrollo de circuitos integrados a finales de los
años 60 y principios de los 70. Esa memoria requería que cada bit
estuviera almacenado en un toroide de material ferromagnético de
algunos milímetros de diámetro, lo que resultaba en dispositivos con una
capacidad de memoria muy pequeña. Antes que eso, las computadoras
usaban relés y líneas de retardo de varios tipos construidas para
implementar las funciones de memoria principal con o sin acceso
aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en


semiconductores de silicio por parte de Intel con el integrado 3101 de 64
bits de memoria y para el siguiente año se presentó una memoria DRAM
de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la
primera en ser comercializada con éxito, lo que significó el principio del fin
para las memorias de núcleo magnético. En comparación con los
integrados de memoria DRAM actuales, la 1103 es primitiva en varios
aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

En 1973 se presentó una innovación que permitió otra miniaturización y


se convirtió en estándar para las memorias DRAM: la multiplexación en
tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096
de 4096 bytes en un empaque de 16 pines,1 mientras sus competidores
las fabricaban en el empaque DIP de 22 pines. El esquema de
direccionamiento2 se convirtió en un estándar de facto debido a la gran
popularidad que logró esta referencia de DRAM. Para finales de los 70 los
integrados eran usados en la mayoría de computadores nuevos, se
soldaban directamente a las placas base o se instalaban en zócalos, de
manera que ocupaban un área extensa de circuito impreso. Con el tiempo
se hizo obvio que la instalación de RAM sobre el impreso principal,
impedía la miniaturización , entonces se idearon los primeros módulos de
memoria como el SIPP, aprovechando las ventajas de la construcción
modular. El formato SIMM fue una mejora al anterior, eliminando los
pines metálicos y dejando unas áreas de cobre en uno de los bordes del
impreso, muy similares a los de las tarjetas de expansión, de hecho los
módulos SIPP y los primeros SIMM tienen la misma distribución de pines.

A finales de los 80 el aumento en la velocidad de los procesadores y el


aumento en el ancho de banda requerido, dejaron rezagadas a las
memorias DRAM con el esquema original MOSTEK, de manera que se
realizaron una serie de mejoras en el direccionamiento como las
siguientes:

Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con


integrados tipo EDO-RAM.

FPM RAM[editar]

Fast Page Mode RAM (FPM-RAM) fue inspirado en técnicas como el


BurstMode usado en procesadores como el Intel 486.3 Se implantó un
modo direccionamiento en el que el controlador de memoria envía una
sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de
generar todas las direcciones. Esto supone un ahorro de tiempos ya que
ciertas operaciones son repetitivas cuando se desea acceder a muchas
posiciones consecutivas. Funciona como si deseáramos visitar todas las
casas en una calle: después de la primera vez no sería necesario decir el
número de la calle únicamente seguir la misma. Se fabricaban con tiempos
de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el
486 y los primeros Pentium.

EDO RAM[editar]

Extended Data Output RAM (EDO-RAM) fue lanzada al mercado en 1994 y


con tiempos de accesos de 40 o 30 ns suponía una mejora sobre FPM, su
antecesora. La EDO, también es capaz de enviar direcciones contiguas
pero direcciona la columna que va a utilizar mientras que se lee la
información de la columna anterior, dando como resultado una
eliminación de estados de espera, manteniendo activo el búfer de salida
hasta que comienza el próximo ciclo de lectura.

BEDO RAM[editar]

Burst Extended Data Output RAM (BEDO-RAM) fue la evolución de la EDO-


RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de
memoria que usaba generadores internos de direcciones y accedía a más
de una posición de memoria en cada ciclo de reloj, de manera que lograba
un 50 % de beneficios, mejor que la EDO. Nunca salió al mercado, dado
que Intel y otros fabricantes se decidieron por esquemas de memoria
sincrónicos que si bien tenían mucho del direccionamiento MOSTEK,
agregan funcionalidades distintas como señales de reloj.

Tipos de RAM[editar]

Las dos formas principales de RAM moderna son:

1. SRAM (StaticRandom Access Memory), RAM estática, memoria


estática de acceso aleatorio.

• volátiles.

• no volátiles:
• NVRAM (non-volatilerandomaccessmemory), memoria de acceso
aleatorio no volátil

• MRAM (magnetoresistiverandom-accessmemory), memoria de


acceso aleatorio magnetorresistiva o magnética

2. DRAM (DynamicRandom Access Memory), RAM dinámica, memoria


dinámica de acceso aleatorio.

1. DRAM Asincrónica (AsynchronousDynamicRandom Access Memory,


memoria de acceso aleatorio dinámica asincrónica)

• FPM RAM (Fast Page Mode RAM)

• EDO RAM (Extended Data Output RAM)

2. SDRAM (SynchronousDynamicRandom-Access Memory, memoria


de acceso aleatorio dinámica sincrónica)

• Rambus:

• RDRAM (Rambus Dynamic Random Access Memory)

• XDR DRAM (eXtreme Data Rate Dynamic Random Access Memory)

• XDR2 DRAM (eXtreme Data Rate two Dynamic Random Access


Memory)

• SDR SDRAM (Single Data Rate Synchronous Dynamic Random-


Access Memory, SDRAM de tasa de datos simple)

• DDR SDRAM (Double Data Rate Synchronous Dynamic Random-


Access Memory, SDRAM de tasa de datosdoble)

• DDR2 SDRAM (Double Data Ratetypetwo SDRAM, SDRAM de tasa de


datos doble de tipo dos)

• DDR3 SDRAM (Double Data Ratetypethree SDRAM, SDRAM de tasa


de datos doble de tipo tres)

• DDR4 SDRAM (Double Data Ratetypefour SDRAM, SDRAM de tasa


de datos doble de tipo cuatro)
Nomenclatura[editar]

La expresión memoria RAM se utiliza frecuentemente para describir a los


módulos de memoria utilizados en las computadoras personales y
servidores.

La RAM es solo una variedad de la memoria de acceso aleatorio: las ROM,


memorias Flash, caché (SRAM), los registros en procesadores y otras
unidades de procesamiento también poseen la cualidad de presentar
retardos de acceso iguales para cualquier posición.

Los módulos de RAM son la presentación comercial de este tipo de


memoria, que se compone de circuitos integrados soldados sobre un
circuito impreso independiente, en otros dispositivos como las consolas
de videojuegos, la RAM va soldada directamente sobre la placa principal.

Módulos de RAM[editar]

Formato SO-DIMM.

Los módulos de RAM son tarjetas o placas de circuito impreso que tienen
soldados chips de memoria DRAM, por una o ambas caras.

La implementación DRAM se basa en una topología de circuito eléctrico


que permite alcanzar densidades altas de memoria por cantidad de
transistores, logrando integrados de cientos o miles de megabits. Además
de DRAM, los módulos poseen un integrado que permiten la identificación
de los mismos ante la computadora por medio del protocolo de
comunicación Serial PresenceDetect (SPD).

La conexión con los demás componentes se realiza por medio de un área


de pines en uno de los filos del circuito impreso, que permiten que el
módulo al ser instalado en un zócalo o ranura apropiada de la placa base,
tenga buen contacto eléctrico con los controladores de memoria y las
fuentes de alimentación.
La necesidad de hacer intercambiable los módulos, y de utilizar integrados
de distintos fabricantes, condujo al establecimiento de estándares de la
industria como los JointElectronDeviceEngineering Council (JEDEC).

1. Paquete DIP (Dual In-line Package, paquete de pines en-línea doble).

2. Paquete SIPP (Single In-line Pin Package, paquete de pines en-línea


simple): fueron los primeros módulos comerciales de memoria, de
formato propietario, es decir, no había un estándar entre distintas marcas.

3. Módulos RIMM (Rambus In-line Memory Module, módulo de


memoria en-línea rambus): Fueron otros módulos propietarios bastante
conocidos, ideados por la empresa RAMBUS.

4. Módulos SIMM (Single In-line Memory Module, módulo de memoria


en-línea simple): formato usado en computadoras antiguas. Tenían un bus
de datos de 16 ó 32 bits.

5. Módulos DIMM (Dual In-line Memory Module, módulo de memoria


en-línea dual): usado en computadoras de escritorio. Se caracterizan por
tener un bus de datos de 64 bits.

6. Módulos SO-DIMM (Small Outline DIMM): usado en computadoras


portátiles. Formato miniaturizado de DIMM.

7. Módulos FB-DIMM (Fully-Buffered Dual InlineMemory Module):


usado en servidores.

Tecnologías de memoria[editar]

La tecnología de memoria actual usa una señal de sincronización para


realizar las funciones de lectura/escritura de manera que siempre está
sincronizada con un reloj del bus de memoria, a diferencia de las antiguas
memorias FPM y EDO que eran asíncronas.

Toda la industria se decantó por las tecnologías síncronas, porque


permiten construir integrados que funcionen a una frecuencia superior a
66 MHz.

Tipos de DIMM según su cantidad de contactos o pines:


Cantidad de pines Tipos de DIMM Usados por: Observaciones

072 SO-DIMM FPM-DRAM y EDO-DRAM (no el mismo que un 72-


pin SIMM)

100 DIMM printer SDRAM

144 SO-DIMM SDR SDRAM

168 DIMM SDR SDRAM (menos frecuente para FPM/EDO DRAM en


áreas de trabajo y/o servidores)

172 Micro-DIMM DDR SDRAM

184 DIMM DDR SDRAM

200 SO-DIMM DDR SDRAM y DDR2 SDRAM

204 SO-DIMM DDR3 SDRAM

240 DIMM DDR2 SDRAM, DDR3 SDRAM y Fully Buffered DIMM (FB-
DIMM) DRAM

244 Mini-DIMM DDR2 SDRAM

Memorias RAM con tecnologías usadas en la actualidad.

SDR SDRAM[editar]

Artículo principal: SDR SDRAM

Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se


presentan en módulos DIMM de 168 contactos. Fue utilizada en los
Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y
Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y
que la denominación SDR SDRAM es para diferenciarla de la memoria
DDR, pero no es así, simplemente se extendió muy rápido la
denominación incorrecta. El nombre correcto es SDR SDRAM ya que
ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los
tipos disponibles son:

• PC66: SDR SDRAM, funciona a un máx de 66,6 MHz.

• PC100: SDR SDRAM, funciona a un máx de 100 MHz.

• PC133: SDR SDRAM, funciona a un máx de 133,3 MHz.

RDRAM[editar]

Artículo principal: RDRAM

Se presentan en módulos RIMM de 184 contactos. Fue utilizada en los


Pentium 4 . Era la memoria más rápida en su tiempo, pero por su elevado
costo fue rápidamente cambiada por la económica DDR. Los tipos
disponibles son:

• PC600: RIMM RDRAM, funciona a un máximo de 300 MHz.

• PC700: RIMM RDRAM, funciona a un máximo de 350 MHz.

• PC800: RIMM RDRAM, funciona a un máximo de 400 MHz.

• PC1066: RIMM RDRAM, funciona a un máximo de 533 MHz.

• PC1200: RIMN RDRAM, funciona a un máximo de 600 MHz.

DDR SDRAM[editar]

Artículo principal: DDR SDRAM

Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De
este modo trabaja al doble de velocidad del bus del sistema, sin necesidad
de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184
contactos en el caso de ordenador de escritorio y en módulos de 144
contactos para los ordenadores portátiles.
La nomenclatura utilizada para definir a los módulos de memoria de tipo
DDR (esto incluye a los formatos DDR2, DDR3 y DDR4) es la siguiente:
DDRx-yyyyPCx-zzzz; donde x representa a la generación DDR en cuestión;
yyyy la frecuencia aparente o efectiva, en Megaciclos por segundo (MHz);
y zzzz la máxima tasa de transferencia de datos por segundo, en
Megabytes, que se puede lograr entre el módulo de memoria y el
controlador de memoria. La tasa de transferencia depende de dos
factores, el ancho de bus de datos (por lo general 64 bits) y la frecuencia
aparente o efectiva de trabajo. La fórmula que se utiliza para calcular la
máxima tasa de transferencia por segundo entre el módulo de memoria y
su controlador, es la siguiente:

Tasa de transferencia en MB/s = (Frecuencia DDR efectiva) × (64 bits / 8


bits por cada byte)4

Por ejemplo:

1 GB DDR-400 PC-3200: Representa un módulo de 1 GB (Gigabyte) de tipo


DDR; con frecuencia aparente o efectiva de trabajo de 400 MHz; y una
tasa de transferencia de datos máxima de 3200 MB/s.

4 GB DDR3-2133 PC3-17000: Representa un módulo de 4 GB de tipo


DDR3; frecuencia aparente o efectiva de trabajo de 2133 MHz; y una tasa
de transferencia de datos máxima de 17000 MB/s.

Los tipos disponibles son:

• PC1600 o DDR 200: funciona a un máx de 200 MHz.

• PC2100 o DDR 266: funciona a un máx de 266,6 MHz.

• PC2700 o DDR 333: funciona a un máx de 333,3 MHz.

• PC3200 o DDR 400: funciona a un máx de 400 MHz.

• PC3500 o DDR 433 funciona a un máx de 433 MHz.

• PC4500 o DDR 500: funciona a una máx de 500 MHz.

DDR2 SDRAM[editar]

Artículo principal: DDR2 SDRAM


Módulos de memoria instalados de 256 MiB cada uno en un sistema con
doble canal.

Las memorias DDR 2 son una mejora de las memorias DDR (Double Data
Rate), que permiten que los búferes de entrada/salida trabajen al doble
de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se
realicen cuatro transferencias. Se presentan en módulos DIMM de 240
contactos. Los tipos disponibles son:

• PC2-3200 o DDR2-400: funciona a un máx de 400 MHz.

• PC2-4200 o DDR2-533: funciona a un máx de 533,3 MHz.

• PC2-5300 o DDR2-667: funciona a un máx de 666,6 MHz.

• PC2-6400 o DDR2-800: funciona a un máx de 800 MHz.

• PC2-8600 o DDR2-1066: funciona a un máx de 1066,6 MHz.

• PC2-9000 o DDR2-1200: funciona a un máx de 1200 MHz.

DDR3 SDRAM[editar]

Artículo principal: DDR3 SDRAM

Las memorias DDR 3 son una mejora de las memorias DDR 2,


proporcionan significantes mejoras en el rendimiento en niveles de bajo
voltaje, lo que lleva consigo una disminución del gasto global de consumo.
Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2;
sin embargo, los DIMMs son físicamente incompatibles, debido a una
ubicación diferente de la muesca. Los tipos disponibles son:

• PC3-6400 o DDR3-800: funciona a un máx de 800 MHz.

• PC3-8500 o DDR3-1066: funciona a un máx de 1066,6 MHz.

• PC3-10600 o DDR3-1333: funciona a un máx de 1333,3 MHz.

• PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

• PC3-14900 o DDR3-1866: funciona a un máx de 1866,6 MHz.


• PC3-17000 o DDR3-2133: funciona a un máx de 2133,3 MHz.

• PC3-19200 o DDR3-2400: funciona a un máx de 2400 MHz.

• PC3-21300 o DDR3-2666: funciona a un máx de 2666,6 MHz.

DDR4 SDRAM[editar]

Artículo principal: DDR4 SDRAM

• PC4-1600 o DDR4-1600: funciona a un máx de 1600 MHz.

• PC4-1866 o DDR4-1866: funciona a un máx de 1866,6 MHz.

• PC4-17000 o DDR4-2133: funciona a un máx de 2133,3 MHz.

• PC4-19200 o DDR4-2400: funciona a un máx de 2400 MHz.

• PC4-25600 o DDR4-2666: funciona a un máx de 2666,6 MHz.

Relación con el resto del sistema[editar]

Diagrama de la arquitectura de un ordenador.

Dentro de la jerarquía de memoria, la RAM se encuentra en un nivel


después de los registros del procesador y de las cachés en cuanto a
velocidad.

Los módulos de RAM se conectan eléctricamente a un controlador de


memoria que gestiona las señales entrantes y salientes de los integrados
DRAM. Las señales son de tres tipos: direccionamiento, datos y señales de
control. En el módulo de memoria esas señales están divididas en dos
buses y un conjunto misceláneo de líneas de control y alimentación. Entre
todas forman el bus de memoria que conecta la RAM con su controlador:

• Bus de datos: son las líneas que llevan información entre los
integrados y el controlador. Por lo general, están agrupados en octetos
siendo de 8, 16, 32 y 64 bits, cantidad que debe igualar el ancho del bus de
datos del procesador. En el pasado, algunos formatos de módulo, no
tenían un ancho de bus igual al del procesador. En ese caso había que
montar módulos en pares o en situaciones extremas, de a 4 módulos, para
completar lo que se denominaba banco de memoria, de otro modo el
sistema no funciona. Esa fue la principal razón para aumentar el número
de pines en los módulos, igualando al ancho de bus de procesadores como
el Pentium a 64 bits, a principios de los años 1990.

• Bus de direcciones: es un bus en el cual se colocan las direcciones


de memoria a las que se requiere acceder. No es igual al bus de
direcciones del resto del sistema, ya que está multiplexado de manera que
la dirección se envía en dos etapas. Para ello, el controlador realiza
temporizaciones y usa las líneas de control. En cada estándar de módulo
se establece un tamaño máximo en bits de este bus, estableciendo un
límite teórico de la capacidad máxima por módulo.

• Señales misceláneas: entre las que están las de la alimentación


(Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las
líneas de comunicación para el integrado de presencia (Serial
PresenceDetect) que sirve para identificar cada módulo. Están las líneas de
control entre las que se encuentran las llamadas RAS (RowAddressStrobe)
y CAS (ColumnAddressStrobe) que controlan el bus de direcciones, por
último están las señales de reloj en las memorias sincrónicas SDRAM.

Algunos controladores de memoria en sistemas como PC y servidores se


encuentran embebidos en el llamado puente norte (North Bridge) de la
placa base. Otros sistemas incluyen el controlador dentro del mismo
procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel
Core i7 y posteriores). En la mayoría de los casos el tipo de memoria que
puede manejar el sistema está limitado por los sockets para RAM
instalados en la placa base, a pesar que los controladores de memoria en
muchos casos son capaces de conectarse con tecnologías de memoria
distintas.

Una característica especial de algunos controladores de memoria, es el


manejo de la tecnología canal doble o doble canal (Dual Channel), donde
el controlador maneja bancos de memoria de 128 bits, siendo capaz de
entregar los datos de manera intercalada, optando por uno u otro canal,
reduciendo las latencias vistas por el procesador. La mejora en el
desempeño es variable y depende de la configuración y uso del equipo.
Esta característica ha promovido la modificación de los controladores de
memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875
de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal
doble , reemplazo el 754 de canal sencillo). Los equipos de gamas media y
alta por lo general se fabrican basados en chipsets o zócalos que soportan
doble canal o superior, como en el caso del zócalo (socket) 1366 de Intel,
que usaba un triple canal de memoria, o su nuevo LGA 2011 que usa
cuádruple canal.

Detección y corrección de errores[editar]

Existen dos clases de errores en los sistemas de memoria, las fallas


(Hardfails) que son daños en el hardware y los errores (softerrors)
provocados por causas fortuitas. Los primeros son relativamente fáciles de
detectar (en algunas condiciones el diagnóstico es equivocado), los
segundos al ser resultado de eventos aleatorios, son más difíciles de
hallar. En la actualidad la confiabilidad de las memorias RAM frente a los
errores, es suficientemente alta como para no realizar verificación sobre
los datos almacenados, por lo menos para aplicaciones de oficina y
caseras. En los usos más críticos, se aplican técnicas de corrección y
detección de errores basadas en diferentes estrategias:

• La técnica del bit de paridad consiste en guardar un bit adicional por


cada byte de datos y en la lectura se comprueba si el número de unos es
par (“paridad par”) o impar (“paridad impar”), detectándose así el error.

• Una técnica mejor es la que usa “código de autochequeo y


autocorrector” (error-correctingcode, ECC), que permite detectar errores
de 1 a 4 bits y corregir errores que afecten a un solo bit. Esta técnica se
usa sólo en sistemas que requieren alta fiabilidad.

Por lo general, los sistemas con cualquier tipo de protección contra


errores tiene un coste más alto, y sufren de pequeñas penalizaciones en
desempeño, con respecto a los sistemas sin protección. Para tener un
sistema con ECC o paridad, el chipset y las memorias deben tener soporte
para esas tecnologías. La mayoría de placas base no poseen dicho soporte.
Para los fallos de memoria se pueden utilizar herramientas de software
especializadas que realizan pruebas sobre los módulos de memoria RAM.
Entre estos programas uno de los más conocidos es la aplicación
Memtest86+ que detecta fallos de memoria.

RAM registrada[editar]

Es un tipo de módulo usado frecuentemente en servidores, posee


circuitos integrados que se encargan de repetir las señales de control y
direcciones: las señales de reloj son reconstruidas con ayuda del PLL que
está ubicado en el módulo mismo. Las señales de datos se conectan de la
misma forma que en los módulos no registrados: de manera directa entre
los integrados de memoria y el controlador. Los sistemas con memoria
registrada permiten conectar más módulos de memoria y de una
capacidad más alta, sin que haya perturbaciones en las señales del
controlador de memoria, permitiendo el manejo de grandes cantidades de
memoria RAM. Entre las desventajas de los sistemas de memoria
registrada están el hecho de que se agrega un ciclo de retardo para cada
solicitud de acceso a una posición no consecutiva y un precio más alto que
los módulos no registrados. La memoria registrada es incompatible con los
controladores de memoria que no soportan el modo registrado, a pesar
de que se pueden instalar físicamente en el zócalo. Se pueden reconocer
visualmente porque tienen un integrado mediano, cerca del centro
geométrico del circuito impreso, además de que estos módulos suelen ser
algo más altos.5

Durante el año 2006 varias marcas lanzaron al mercado sistemas con


memoria FB-DIMM que en su momento se pensaron como los sucesores
de la memoria registrada, pero se abandonó esa tecnología en 2007 dado
que ofrecía pocas ventajas sobre el diseño tradicional de memoria
registrada y los nuevos modelos con memoria DDR3.6
Bibliografía

Notas y referencias[editar]

1. Volverarriba↑ Mitzner, Kraig (2009). Complete PCB design using


OrCAD Capture and PCB editor. Elsevier.

2. Volverarriba↑ Coombs, Clyde (2001). Coombs Printed Circuits


Handbook. McGraw-Hill.

2. Fitchen, Franklin C. (1975). Circuitos integrados y sistemas. Reverte.


ISBN 9788429134254. Consultado el 19 de febrero de 2018.

3. ↑ Saltar a:a b «Circuito integrado». Ingeniatic. 2011.

4. Marcombo. ISBN 8426711707. Consultado el 19 de febrero de 2018.

5. Volver arriba↑ Santamaría, Eduardo (1993). Electrónica digital y


microprocesadores. Univ Pontifica Comillas. ISBN 9788487840333.
Consultado el 19 de febrero de 2018.

6. Volver arriba↑ Nieves, Antonio Aguilera (26 de abril de 2011).


Montaje y mantenimiento de los sistemas de control y regulación de
parque eólico. Editorial Vértice. ISBN 9788499312934. Consultado el 19 de
febrero de 2018.

1.

2. Stallings page 19

3. ↑ Saltar a:a b Stallings page 290-291

7. Stallings, William (2006). Computer Organization & Architecture:


Designing for Performance 7th ed. Pearson Prentice Hall. ISBN 0-13-
185644-8.

8. «The Intel 4004: A testimonial from Federico Faggin, its designer,


on the first microprocessor's thirtieth birthday». Faggin'sown 4004
website.

9. Volver arriba↑ «Lista Top500 de noviembre de 2002». Top500.

10. Volver arriba↑ PowerPC 620

11. Volver arriba↑ «Molibdenita,». MuyComputer.com. Archivado


desde el original el 2 de febrero de 2011.

12. Volver arriba↑ http://www.profesorbot.com/curiosidad/nobel-de-


fisica-grafeno/

13. Volverarriba↑ «Core 2 Extreme: 3,66 GHz And FSB 1333 - Review
Tom's Hardware : THG Tuning Test: Core 2 Extreme vs. Athlon 64 FX-62».
Consultado el 2009.

1. Montaje de componentes y periféricos microinformáticos.


IFCT0108, en Google libros

2. Volverarriba↑ «PC Architecture. Chapter 17. The CPU’s immediate


surroundings. A book by Michael B. Karbo». Consultado el 2009.
1. «MostekFirsts». Archivado desde el original el 12 de enero de 2012.
Consultado el 2009.

2. Volver arriba↑ «Datasheet & Application Note Database, PDF,


Circuits, Datasheets / Datasheet Archive».

3. Volver arriba↑ «The HP Vectra 486 memory controller / Hewlett-


Packard Journal /Find Articles at BNET». Consultado el 2009.

También podría gustarte