Está en la página 1de 6

LA EVOLUCIÓN DE LA POTENCIA DE PROCESAMIENTO DE LA

CPU PARTE 1: LA MECÁNICA DE UNA CPU

En esta parte se hablará sobre la primera CPU comercial, la Intel 4004 y el


funcionamiento de ellas y de otras CPU similares del nivel fundamental.

En la década de 1960 a mediados se inicia una revolución en la miniaturización. El


cual la idea de empaquetar docenas de transistores que se basan en
semiconductores en un solo chip de silicio el cual se generó el circuito integrado.
El cual la base de eso fue generar un cambio de paradigma completo sobre como
evolucionaria la sociedad moderna. En marzo de 1971 se lanza al mercado un
nuevo producto semiconductor el cual dio inicio a la nueva era, en ese entonces
estaba compuesto por 2,300 transistores, en donde se lanzo la unidad de
procesamiento central Intel 4004 o CPU.

Comparada con la primera computadora ENIAC construida 25 antes, donde se


podían ejecutar solo 5,000 instrucciones por segundos, pero lo que hizo que la
4004 fuera tan poderosa no fue por el aumento del 1800% en la potencia de
procesamiento, solo consumía 1 vatio de electricidad, contaba con un ¾ "de largo
y su producción costó $ 5 en el dinero actual. Esto fue superior a ENIAC que costo
$ 5.5 millones en dinero de hoy, consumo de energía de 180kW y peso de 27
toneladas.

Para poder comprender como la CPU obtiene su potencia de procesamiento, se


debe de examinar que hace realmente la CPU y como interactúa con los datos, se
puede pensar que una CPU es una maquina el cual se encargar del
procesamiento de instrucciones, las cuales operan dentro de tres pasos básicos
(buscar, decodificar y ejecutar). Pero a medida que los diseños de las CPU vayan
evolucionando, esos tres pasos se ponen cada vez más difíciles y es hay donde
se implementan tecnologías que amplían el modelo central de operación, que son:

 IR A BUSCAR: En esta fase la CPU carga las instrucciones que se


ejecutaran entre ella misma. Se puede llegar a pensar que existe en una
burbuja de información, en donde se extraen instrucciones y datos de fuera
de ella misma, para realizar operaciones dentro de su propio entorno
interno y luego serán devueltos los datos. Los cuales los datos son
almacenados en una memoria externa de la CPU llama RAM (memoria de
acceso aleatorio), después que las instrucciones y datos se carguen en la
RAM mediante diferentes fuentes permanentes como lo son, los discos
duros y memoria flash, pero años atrás se cargaban en cintas magnéticas,
tarjetas perforadas e incluso interruptores.

 AUTOBÚS: Es el mecanismo por donde se mueven los datos hacia


adelante y hacia atrás a la RAM el cual recibe el nombre de bus. En la cual
tanto la CPU y la RAM tienen su propio carril, pero como también se debe
de trasmitir la ubicación de los datos que se solicitan, por lo que debe de
cargar otra autopista para acomodar el tamaño de la palabra datos como la
palabra dirección en donde esto se denomina bus de datos y bus de
direcciones respectivamente, en el ámbito de la practica las líneas de datos
y direcciones son conexiones eléctricas físicas entre la CPU y la RAM, esto
se ve a menudo en una superautopista en una placa de circuito .

 REGISTRARSE: Es una palabra de memoria interna de alta velocidad que


las operaciones de la CPU las cuales se utilizan como un bloc de notas. Ya
que casi siempre se utiliza como un almacenamiento temporal para las
instrucciones, pero también se le pueden asignar funciones vitales de la
CPU, como lo son realizar el seguimiento de la dirección actual en donde se
accede a la RAM.

 DESCODIFICADOR: Una vez que se obtiene una instrucción, esta fase


comienza hacer su trabajo el cual es hacer decodificación. En la
arquitectura RISC clásica, una palabra de memoria forma una instrucción
completa. Pero cuando surgió la CPU cambio a un método mas elaborado
el cual evolucionan a una arquitectura de con conjuntos de instrucciones
mas compleja.

 DERIVACION: Esta ocurre cuando una instrucción causa un cambio de


dirección del contador del programa, ya que esto ocasiona una nueva
búsqueda buscando una nueva ubicación en la memoria para asignar la
siguiente dirección secuencial.

 OPERANDO: En esta fase los códigos de operación requieren de datos


para realizar una operación, los cuales son bits superpuestos a una
instrucción que se utilizan como datos.

 EJECUCIÓN: En esta fase la ejecución, se disparan las CPU ahora


configuradas. Esto puede ocurrir en un solo paso o diferentes pasos
dependiendo el código de operación.
 RELOJES: La CPU usa estas 3 fases de operación en la cual se repiten
constantemente, avanzando a través de las instrucciones del programa de
la computadora que se encuentran cargados en la memoria, en eso la
maquina de bucle de reloj, el cual un reloj es el pulso repetitivo que se
están utilizando para sincronizar la mecánica interna de una CPU y la
interfaz con componentes externos. La frecuencia de reloj de la CPU se
mide mediante el numero de pulso por segundos o Hertz.

LA EVOLUCION DE LA POTENCIA DE PROCESAMIENTO DE LA


CPU, PARTE 2: EL AUGE DEL X86

En esta segunda parte se hablará sobre como la arquitectura x86 llego a dominar
el mundo de las PC a través de la trifecta de Intel, IBM y Microsoft.
A medida que en la década del 1970 avanzaba, los diseños de la CPU se
volvieron mas robustos, en donde se aprovecharon velocidades de reloj más
rápidas, con mayores capacidades de direcciones y conjuntos de instrucciones
mucho mas elaboradas. La siguiente oferta de Intel fue el 8008 y este contaba con
adicciones mas destacadas como lo fue la inclusión del direccionamiento indirecto,
con esto se proporciona una ubicación de memoria a una instrucción, donde
después es obtenido el contenido de datos de la ubicación de direcciones.
El 8008 también implemento un mecanismo que es conocido como interrupciones,
son los que permitieron que las señales de hardware y los eventos internos de la
CPU se hicieran pausa al momento de hacer la ejecución del programa y se
saltaran una pequeña región de código de alta prioridad. Como ejemplo de esto se
tiene una señal de reloj en tiempo reloj.
El otro producto creado por Intel fue el 8080 la cual fue la primera línea de
productos en utilizar un controlador de bus externo, el cual era un chip de soporte
que se hacia responsable de la interfaz con la RAM y diferentes componentes del
hardware del sistema. Las cuales estas comunicaciones reciben el nombre de
entrada y salida (IO). Esto permitió que la CPU interactuara con una memoria y IO
sea un poco mas lentas, que operaban a la velocidad del reloj, pero también
mejoro la inmunidad general al ruido eléctrico. El 8080 fue considerado por mucho
tiempo el primer microprocesador, pero al mismo tiempo estaban surgiendo
arquitecturas de procesadores para hacerle la competencia. Durante varios años,
el auge de la informática de escritorio estuvo denominado por la CPU Zilog Z80 el
cual fue una extensión mejorada del 8080 de Intel creada por el ex ingeniero de
Intel Federico Faggin.
Intel en vista de eso lanzo el 8086, manteniéndose en línea con el espíritu en el
software de soporte de CPU de lenguajes de programación de nivel superior, en
donde se mejoro mediante la adición de instrucciones de pilas mas solidad. En el
ámbito del diseño del software, los fragmentos de códigos de uso común se iban
estructurando mediante bloques llamados subrutina (subprogramas). Para ilustrar
esto se hizo un programa el cual iba a buscar un promedio de miles de pares de
números. Para que funcionará de una manera más eficiente se escribió un bloque
de código que toma dos números, calcula su promedio y lo devuelve, donde la pila
se utiliza para almacenar y transportar los datos y direcciones de retorno para
llamarlos subrutinas.
8086 tuvo una notable complejidad y su gran éxito habían cimentado el
compromiso de Intel, con una característica clave de su arquitectura: CISC
(computadora con conjunto de instrucciones complejas), aunque esta fue utilizada
en el 8080 y su sucesor ligeramente mejorando el 8086, el 8086 marco la
transición de Intel hacia la adopción completa de la arquitectura CISC. Esta es una
opción rara de diseño con comparación con el RISC dominante o la arquitectura
de computadora que cuenta con un conjunto de instrucciones reducidas.
La diferencia que existe entre CPU RISC y CPU CISC se basa en su respectivo
conjunto de instrucciones y en la forma en como se ejecutan. RISC utiliza simples
y primitivas, en cambio que CISC emplea instrucciones solidas y complejas. El
éxito de los procesadores 8086 esta vinculado a otro gran éxito que paso a finales
de las décadas de 1970, la nueva industria de las computadoras personales
estaba dominada por empresas como Commodore, Atari, Apple y Tandy
Corporation. Con eso logrando que a principio de 1980 aumentaran los proyectos
un 40% más, el mercado de las computadoras personales atrajo la atención del
gigante de mainframe IBM, que lanzo sus primeras computadoras IBM PC, donde
también allano el cambio para el dominio con Microsoft en la industria del
software, IBM PC como la computadora personal dominante, y la x86 y la
arquitectura principal de las PC de hoy.

LA EVOLUCION DE LA POTENCIA DE PROCESAMIENTO DE LA


CPU PARTE 3: EL ORIGEN DE LOS SISTEMAS OPERATIVOS
MODERNOS.

Durante la década de 1960 hasta la de 1970, el paradigma de la multitarea estaba


ganando un gran terreno en el mundo del mainframe. El cual se implemento en
una forma más cruda y más conocida como multiprogramación, la cual se logro en
procesar programas en diferentes lotes, saltando entre ellos mismo durante las
regiones de códigos que estaban esperando la entrada del hardware. A finales de
la década de 1960, la multitarea comenzó a seguir en sistemas operativos como
PDP-6 de DEC, OA / 360 MFT de IBM y MULTICS, el cual influirá en el desarrollo
de UNIX.
En la multitarea, el enfoque de la CPU se baraja entre los procesadores que se
ejecutan simultáneamente, en donde la multitarea cooperativa se utilizaba por
mucho tiempo en los sistemas operativos de multitareas, siempre y cuando el
sistema operativo le un enfoque de CPU a un proceso, después la multitarea
preventiva resolvió los problemas que se estaban presentando en la estabilidad de
la multitarea cooperativa, el cual garantizo una manera confiable de cada proceso
en un periodo regular (intervalo de tiempo) enfocado en la CPU.
También se requiere de evitar que un proceso utilice la memoria asignada de otros
procesos, pero permitiéndoles la comunicación entre ellas misma de forma segura,
para darle solución es esto es que una capa del hardware se dedique a la tarea
entre CPU y RAM, donde recibe el nombre de MMU (unidad de administración de
memoria, en donde se van dar privilegios de acceso a la memoria que se
incorpore a la gestión de la memoria, al momento de asignar niveles de privilegios
a las regiones de memorias es imposible que un proceso pueda acceder a los
códigos o datos por encima de su propio nivel de privilegio.
Apple lanza a Lisa en enero de 1983, donde se vera eclipsado por el lanzamiento
de Apple Mancltosh un año después, el cual funcionaba con la CPU Motorola 86K,
lo que hizo que el 68K fuera tan poderoso fue la adopción temprana a una
arquitectura de 32 bits. Sin embargo, no es considerado el verdadero procesador
de 32 bits, si no un procesador hibrido de 32/16.
IBM dio su siguiente paso a fines de 1984 donde lanzo la segunda generación de
computadoras personales, la IBM PC AT. Donde at se encontraba en proyecto de
Microsoft llamado Windows, con el que se desarrolló inicial a partir de 1981,
Windows 1.0 y su primer debut fue el 10 de noviembre de 1983,
El 80286 fue pionero en ese momento, ya que fue el primer procesador producido
en masa que emitió directamente sistemas multiusuario con multitareas, en los
cuales surgieron unos grandes que son:
 Lo primero fue la eliminación de la multiplexación en buses de datos y
direcciones.
 Lo segundo fue el traslado del control de direccionamiento de memoria a un
bloque del hardware dedicado.
 La tercera mejora fue una unidad de captación previa mejorada. Llamada
como unidad de instrucciones, el 80286 comenzaría a decodificar hasta 3
instrucciones de la cola de captación previa de 8 bytes,
La MMU del 80286 rastreo cada uno de los segmentos en dos tablas, la tabla de
descripción (GDT) y la tabla de descriptores locales (LDT), los cuales combinados
podrían abordar hasta 1 GB de memoria virtual.
Las fallas que se presentaban en 80286 se darían solución con un modo protegido
mas refinado que se abrirá en las próximas generaciones de CPU de Intel.

También podría gustarte