Está en la página 1de 7

Examen del Tercer Bimestre

La unidad central de procesamiento CPU (conocida por las siglas CPU, del inglés
Central Processing Unit) o procesador es un componente del hardware dentro de
un computador, teléfonos inteligentes y otros dispositivos programables.
Su trabajo es interpretar las instrucciones de un programa informático mediante la
realización de las operaciones básicas aritméticas, lógicas y externas
(provenientes de la unidad de entrada/salida). Su diseño y avance ha variado
notablemente desde su creación, aumentando su eficiencia y potencia, y
reduciendo aspectos como el consumo de energía y el costo.
Una computadora puede contener más de una CPU (multiprocesamiento). En la
actualidad, los microprocesadores están constituidos por un único circuito
integrado (chip) aunque existen los procesadores multinúcleo (varias CPU en un
solo circuito integrado). Un circuito integrado que contiene una CPU también
puede contener los dispositivos periféricos, y otros componentes de un sistema
informático; similar a un microcontrolador (menos potente en RAM) se le denomina
sistema en un chip (SoC).
Los componentes de la CPU son:
Unidad aritmético lógica (ALU): realiza operaciones aritméticas y lógicas.
Unidad de control (CU): dirige el tráfico de información entre los registros de la
CPU y conecta con la ALU las instrucciones extraídas de la memoria.
Registros internos: no accesibles (de instrucción, de bus de datos y bus de
dirección) y accesibles de uso específico (contador programa, puntero pila,
acumulador, flags, etc.) o de uso general.
Las primeras computadoras, como el ENIAC, tenían que ser físicamente
recableados para realizar diferentes tareas, lo que hizo que estas máquinas se
denominaran "computadoras de programa fijo". Dado que el término "CPU"
generalmente se define como un dispositivo para la ejecución de software
(programa informático), los primeros dispositivos que con razón podríamos llamar
CPU vinieron con el advenimiento de la computadora de programa almacenado.

La idea de una computadora con programa almacenado ya estaba presente en el


diseño de John Presper Eckert y en el ENIAC de John William Mauchly, pero esta
característica se omitió inicialmente para que el aparato pudiera estar listo antes.
El 30 de junio de 1945, antes de que se construyera la ENIAC, el matemático John
von Neumann distribuyó el trabajo titulado First Draft of a Report on the EDVAC
(Primer Borrador de un Reporte sobre el EDVAC). Fue el esbozo de una
computadora de programa almacenado, que se terminó en agosto de 1949.1
EDVAC fue diseñado para realizar un cierto número de instrucciones (u
operaciones) de varios tipos. Significativamente, los programas escritos para el
EDVAC se crearon para ser almacenados en la memoria de alta velocidad de la
computadora y no para que los especificara el cableado físico de la computadora.
Esto superó una severa limitación del ENIAC, que era el importante tiempo y
esfuerzo requerido para volver a configurar el equipo para realizar una nueva
tarea. Con el diseño de von Neumann, el programa o software que corría EDVAC
podría ser cambiado simplemente cambiando el contenido de la memoria. Sin
embargo, EDVAC no fue la primera computadora de programa almacenado, la
Máquina Experimental de Pequeña Escala de Mánchester, un pequeño prototipo
de computadora de programa almacenado, ejecutó su primer programa el 21 de
junio de 1948.2 Su sucesora, la Manchester Mark I, ejecutó su primer programa en
la noche del 16 al 17 de junio de 1949.

Las primeras CPU fueron diseñadas a medida como parte de una computadora
más grande, generalmente una computadora única en su especie. Sin embargo,
este método de diseñar las CPU a medida, para una aplicación particular, ha
desaparecido en gran parte y se ha sustituido por el desarrollo de clases de
procesadores baratos y estandarizados adaptados para uno o varios propósitos.
Esta tendencia de estandarización comenzó generalmente en la era de los
transistores discretos, computadoras centrales y microcomputadoras y fue
acelerada rápidamente con la popularización del circuito integrado (IC), este ha
permitido que sean diseñados y fabricados CPU más complejas en espacios
pequeños en la orden de nanómetros. Tanto la miniaturización como la
estandarización de las CPU han aumentado la presencia de estos dispositivos
digitales en la vida moderna mucho más allá de las aplicaciones limitadas de
máquinas de computación dedicadas. Los microprocesadores modernos aparecen
en todo, desde automóviles hasta teléfonos móviles o celulares y juguetes de
niños.
Si bien von Neumann muchas veces acreditado por el diseño de la computadora
con programa almacenado debido a su diseño del EDVAC, otros antes que él,
como Konrad Zuse, habían sugerido y aplicado ideas similares. La denominada
arquitectura Harvard del Harvard Mark I, que se completó antes de EDVAC,
también utilizó un diseño de programa almacenado usando cinta de papel
perforada en vez de memoria electrónica. La diferencia clave entre las
arquitecturas de von Neumann y la de Harvard es que la última separa dentro del
almacenamiento el tratamiento de instrucciones de la CPU y los datos, mientras
que el primero utiliza el mismo espacio de memoria para ambos. La mayoría de
los CPU modernos son de diseño von Neumann, pero los CPU con arquitectura
Harvard se ven, sobre todo en aplicaciones embebidas; por ejemplo, los
microcontroladores Atmel AVR son procesadores de arquitectura Harvard.

Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados
comúnmente como elementos de conmutación; una computadora útil requiere
miles o decenas de miles de dispositivos de conmutación. La velocidad global de
un sistema depende de la velocidad de los conmutadores. Las computadoras de
tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallos,
mientras que las computadoras de relés, (anteriores y más lentos), como el
Harvard Mark I, fallaban muy raramente.3 Al final, los CPU basados en tubo
llegaron a ser dominantes porque las significativas ventajas de velocidad
producidas generalmente pesaban más que los problemas de confiabilidad. La
mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj
bajas comparadas con los modernos diseños microelectrónicos. Eran muy
comunes en este tiempo las frecuencias de la señal del reloj con un rango desde
100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos
de conmutación con los que fueron construidos.
La complejidad del diseño de las CPU aumentó junto con la facilidad de la construcción de
dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras
vino con el advenimiento del transistor. Las CPU transistorizadas durante los años
1950 y los años 1960 no tuvieron que ser construidos con elementos de
conmutación abultados, no fiables y frágiles, como los tubos de vacío y los relés
eléctricos. Con esta mejora, fueron construidas CPU más complejas y más
confiables sobre una o varias tarjetas de circuito impreso que contenían
componentes discretos (individuales).

Durante este período, ganó popularidad un método de fabricar muchos


transistores en un espacio compacto. El circuito integrado (IC) permitió que una
gran cantidad de transistores fueran fabricados en una simple oblea basada en
semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no
especializados, como las puertas NOR fueron miniaturizados en IC. Las CPU
basadas en estos IC de "bloques de construcción" generalmente son referidos
como dispositivos de pequeña escala de integración "small-scale integration"
(SSI). Los circuitos integrados SSI, como los usados en el computador guía del
Apoyo (Apollo Guidance Computer), usualmente contenían transistores que se
contaban en números de múltiplos de diez. Construir un CPU completo usando IC
SSI requería miles de chips individuales, pero todavía consumía mucho menos
espacio y energía que diseños anteriores de transistores discretos. A medida que
la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente
de transistores, disminuyendo así la cantidad de IC individuales necesarios para
una CPU completa. Los circuitos integrados MSI y el LSI (de mediana y gran
escala de integración) aumentaron el número de transistores a cientos y luego a
miles.
En la década de 1970 los inventos El tamaño más pequeño del CPU,
fundamentales de Federico como resultado de estar
Faggin (ICs Silicon Gate MOS En la implementado en una simple pastilla,
década de 1970 los inventos significa tiempos de conmutación más
fundamentales de Federico Faggin rápidos debido a factores físicos
(ICs Silicon Gate MOS con puertas como el decrecimiento de la
autoalineadas junto con su nueva capacitancia parásita de las puertas.
metodología de diseño de lógica Esto ha permitido que los
aleatoria) cambió el diseño e microprocesadores síncronos tengan
implementación de las CPU para tiempos de reloj con un rango de
siempre. Desde la introducción del decenas de megahercios a varios
primer microprocesador gigahercios. Adicionalmente, como ha
comercialmente disponible, el Intel aumentado la capacidad de construir
4004, en 1970 y del primer transistores excesivamente pequeños
microprocesador ampliamente usado, en un IC, la complejidad y el número
el Intel 8080, en 1974, esta clase de de transistores en un simple CPU
CPU ha desplazado casi totalmente también se ha incrementado
el resto de los métodos de dramáticamente. Esta tendencia
implementación de la Unidad Central ampliamente observada es descrita
de procesamiento. Los fabricantes de por la ley de Moore, que ha
mainframes y minicomputadoras de demostrado hasta la fecha, ser una
ese tiempo lanzaron programas de predicción bastante exacta del
desarrollo de IC propietarios para crecimiento de la complejidad de los
actualizar sus arquitecturas de CPUs y otros IC.6Mientras que, en
computadoras más viejas y los pasados sesenta años han
eventualmente producir cambiado drásticamente, la
microprocesadores con conjuntos de complejidad, el tamaño, la
instrucciones que eran construcción y la forma general de la
retrocompatibles con sus hardwares y CPU, es notable que el diseño y el
softwares más viejos. Combinado con funcionamiento básico no ha
el advenimiento y el eventual vasto cambiado demasiado. Casi todos los
éxito de la ahora ubicua computadora CPU comunes de hoy se pueden
personal, el término "CPU" es describir con precisión como
aplicado ahora casi exclusivamente a máquinas de programa almacenado
los microprocesadores. de von Neumann. A medida que la ya
mencionada ley del Moore continúa
manteniéndose verdadera,6 se han
Las generaciones previas de CPU presentado preocupaciones sobre los
fueron implementadas como límites de la tecnología de transistor
componentes discretos y numerosos del circuito integrado. La
circuitos integrados de pequeña miniaturización extrema de puertas
escala de integración en una o más electrónicas está causando los
tarjetas de circuitos. Por otro lado, los efectos de fenómenos que se vuelven
microprocesadores son CPU mucho más significativos, como la
fabricados con un número muy electromigración y el subumbral de
pequeño de IC; usualmente solo uno. pérdida. Estas nuevas
preocupaciones están entre los reescribible de tal manera que puede
muchos factores que hacen a ser modificado para cambiar la
investigadores estudiar nuevos manera en que el CPU decodifica
métodos de computación como la instrucciones
computación cuántica, así como incluso después de que haya sido
ampliar el uso de paralelismo y otros fabricado
métodos que extienden la utilidad del
modelo clásico de von Neumann
En el paso de decodificación, la
instrucción es dividida en partes que tienen
significado para otras unidades de la CPU.
La manera en que el valor de la instrucción
numérica es interpretado está definida por
la arquitectura del conjunto de
instrucciones (el ISA) de la CPU. En el
paso de decodificación, la instrucción
es dividida en partes que tienen
significado para otras unidades de la
CPU. La manera en que el valor de la
instrucción numérica es interpretado
está definida por la arquitectura del
conjunto de instrucciones (el ISA) de
la CPU. A menudo, un grupo de
números en la instrucción, llamados
opcode, indica qué operación realizar.
Las partes restantes del número
usualmente proporcionan información
requerida para esa instrucción, como
por ejemplo, operandos para una
operación de adición. Tales
operandos se pueden dar como un
valor constante (llamado valor
inmediato), o como un lugar para
localizar un valor, que según lo
determinado por algún modo de
dirección, puede ser un registro o una
dirección de memoria. En diseños
más viejos las unidades del CPU
responsables de decodificar la
instrucción eran dispositivos de
hardware fijos. Sin embargo, en
CPUs e ISAs más abstractos y
complicados, es frecuentemente
usado un microprograma para ayudar
a traducir instrucciones en varias
señales de configuración para el
CPU. Este microprograma es a veces

También podría gustarte