Está en la página 1de 8

PROCESAMIENTO EN

“PIPELINE”
(SEGMENTACIÓN)

Profesor(a): Mayerling Valecillo


Corina Contreras C.I: 28.460.714
Arquitectura del Computador Carmen Gutiérrez
C.I: 24.789.613
1. Conceptos básicos: cálculo de la mejora que
introduce, aceleración, rendimiento y productividad.

a. Cálculo de la Mejora que Introduce: Las arquitecturas con


múltiples procesadores suelen utilizarse en máquinas de muy
altas prestaciones (y muy alto precio). Sin embargo, con
arquitecturas segmentadas se consigue una muy buena mejora
del rendimiento y a un coste asequible.

b. Aceleración: La aceleración de ejecución de los programas


depende de muchos factores. Una forma de aumentar las
prestaciones es utilizar una tecnología de circuitos más rápida para
construir el procesador y la memoria principal. Otra posibilidad es
reorganizar el hardware para que se pueda realizar más de una
operación al mismo tiempo.
c. Rendimiento y Productividad: La Segmentación (pipelining) Es un
método por el cual se consigue aumentar el rendimiento de algunos
sistemas electrónicos digitales. Es aplicado, sobre todo, en
microprocesadores. El paralelo con la programación existe en que
los cálculos deben ser registrados o sincronizados con el reloj cada
cierto tiempo para que la ruta crítica (tramo con más carga o
retardo computacional entre dos registros de reloj) se reduzca.

2. Clasificación de Sistemas en “pipeline”


Sistemas en pipeline

Aritméticos Escalares/Vectoriales

De Instrucción Estáticos/dinámicos

De procesador Uni/multifuncionales
3. Ejemplos de “pipelines” operativos y de instrucciones
Pipelines operativos
Pipelines de software o tuberías, consiste en múltiples procesos
ordenados de tal forma que el flujo de salida de un proceso alimenta
la entrada del siguiente proceso. Por ejemplo, los pipelines de Unix
(permite conectar procesos, permitiendo que la salida estándar de un
proceso de alimentación sea la entrada estándar de otro proceso).

Pipelines de instrucciones
La ejecución de una instrucción podría descomponerse en las siguientes
5 etapas:
1. Alimentación de la instrucción. (fetch)
2. Decodificación de la instrucción.
3. Extracción y cálculo de los operandos.
4. Ejecución. (en la ALU)
5. Escritura del resultado. (write)
4) limitaciones del “pipeline” real: riesgos y sus distintos
tipos: por dependencia de datos, por dependencia de
control, por colisiones.
Los riesgos de salto o de control ocurren cuando el procesador se ve
obligado a saltar a una instrucción que no tiene por qué ser
necesariamente la inmediatamente siguiente en el código.

La detección y resolución de las dependencias entre instrucciones


puede ser estática (durante la compilación) o dinámica, es decir, a
medida que se ejecuta un programa, generalmente durante las etapas
de codificación y lanzamiento de las instrucciones.
Dependencia
estructural

Dependencia entre Dependencia


instrucciones de datos

Dependencia
de escritura o
falsa
dependencia
Algoritmo de Tomasulo

Emisión

Ejecución

Escritura de
resultados

También podría gustarte