Está en la página 1de 22

Ley de Amdahl

Avances en las Arquitecturas de


Computadores
Arquitectura de von Neumann
ALU - Unidad
aritmetica logica

Problema: cuello de botella por compartir espacio


para datos e instrucciones de programas
Arquitectura Harvard

Tomado de: Nessa Ios, Harvard architecture scheme translated into Spanish, Wikipedia, Mayo 2010
Usos Actuales de Arquitectura Harvard
• Microcontroladores

• DSP (Digital Signal Processors)

Tomado de Cburnett, A typical digital processing system, Wikipedia, 2007


Tomado de Yaka2671, S-DSP A chip for
SFC(on board No.SNES-CPU-RGB-01),
Wikipedia, 2007
Algunas Fechas Importantes
• 1939.- Atanasoff: primer computador
electrónico (ABC)
• 1941.- Howard Aiken: primer computador con
Arquitectura Harvard (ENIAC)
• 1945.- John von Neumann: arquitectura von
Neumann (EDVAC)
• 1949.- Maurice Wilkes: primer programa
almacenado (EDSAC)
La Arquitectura Actual
Aplicación
Algoritmos
Lenguaje de Programación Computación
paralela,
Dominio Sistema Operativo / Virtualización seguridad, …
original de la
arquitectura Conjunto de Instrucciones (ISA) Dominio más
de reciente de la
Microarquitectura arquitectura
computador
(‘50s-’80s) Puetas/Registros- (RTL) (‘90s)
Circuitos Confiabilidad
Dispositivos , poder, …

Capa Física
Temas de interés de
arquitectura a partir de los
Traducido de Krste Asanovic, Abstraction Layers in Modern 2000.
Systems, University of California at Berkeley, 2007
Lo Importante Evoluciona: Las 3
Barreras
Antes Actualmente
• Energía no cuesta, • Transistores son baratos,
transistores son costosos energía es una barrera
(power wall)

• Paralelismo existente es • Barrera de paralelismo (ILP


suficiente wall): necesitamos más,
¿cómo lograrlo?

• Operaciones son lentas, • Operaciones son rápidas,


accesos a memorias rápidos barrera en acceso a
memoria (memory wall)
Rendimiento Monoprocesador

Tomado de John L. Hennessy, Memory Hierarchy Design - Part 1. Basics of Memory


Hierarchies, EDN Network, www.edn.com, 2012
La Necesidad de Multiprocesamiento

Tomado de Garrison Prinslow, Overview of Performance Measurement and Analytical


Modeling Techniques for Multi-core Processors, Washington University in St. Louis, 2011
La Idea no Es Nueva
• Computador Illiac IV, 1971
Los Primeros Pasos: Ciclo de una
Instrucción

1. Búsqueda de la instrucción (Fetch)


2. Decodificación de la instrucción
3. Lectura de los datos
4. Ejecutar (ALU)
5. Grabar los resultados
El Problema

Tomado de Poil, Instruction scheduling without pipeline, Wikipedia, 2005


Opción: Segmentación (Pipelining)

Tomado de Poil, Instruction scheduling using a 5 stages pipeline, Wikipedia, 2005


¿Cuánto Puedo Mejorar?
• Gene Amdahl en 1967 presenta una propuesta

• Estudia capacidad de arquitecturas


multiprocesadores (Illiac IV) vs.
monoprocesadores

• Más tarde se convertiría en Ley de Amdahl


Conceptos Detrás de la Ley
• Un trabajo (W) puede incluir
– Parte procesable paralelamente (Wp)
– Parte únicamente procesable de forma serial (Ws)
• La aceleración (S) es una medida de
rendimiento relativo
𝑇𝑜
• En general: 𝑆 =
𝑇𝑚
To: tiempo de ejecución original
Tm: tiempo de ejecución mejorado
Más Conceptos Previos
• Un procesador tiene una tasa de ejecución R

• Por lo tanto, el tiempo de ejecución es:


T= W / R
Derivando La Ley de Amdahl
• Si W = Ws + Wp
• Si solo hay 1 procesador con tasa R:
𝑊 𝑊𝑠 + 𝑊𝑝
𝑇𝑜 = =
𝑅 𝑅
• Si mejoramos el sistema con:
N procesadores, cada uno con tasa R
• Entonces:
𝑊𝑠 𝑊𝑝
𝑇𝑚 = +
𝑅 𝑁∗𝑅
Ley de Amdahl
• La mejora introducida por los N procesadores
es:
𝑊𝑠 + 𝑊𝑝
𝑇𝑜 𝑅 𝑊𝑠 + 𝑊𝑝
𝑆= = =
𝑇𝑚 𝑊 𝑠 𝑊 𝑝 𝑊𝑝
+ 𝑊𝑠 +
𝑅 𝑁∗𝑅 𝑁
Límite de Amdahl
• ¿Puedo continuar mejorando infinitamente el
sistema?

𝑊𝑠+𝑊𝑝
• Sabemos que: 𝑆 = 𝑊𝑝
𝑊𝑠+
𝑁

𝑊𝑠+𝑊𝑝 𝑊
• Entonces: lim 𝑆 = =
𝑁→∞ 𝑊𝑠 𝑊𝑠
Problemas con Paralelismo
• Ws no puede hacerse cero

• Normalmente Ws crece en función de:


– Número de procesadores N
– Tamaño del trabajo W
Superando el Problema
• Aceleración escalada:
– Se logra mantener Ws pequeño en relación a Wp

• N impacta en la parte procesable


paralelamente:
𝑊 = 𝑊𝑠 + 𝑊𝑝 ∗ 𝑁

• Lectura: N tareas pequeñas Wp


Ley de Gustafson - Barsis
𝑊𝑠+𝑊𝑝∗𝑁 𝑊𝑠+𝑊𝑝
• 𝑇𝑜 = y 𝑇𝑚 =
𝑅 𝑅

• Entonces:
𝑊𝑠+𝑊𝑝∗𝑁 Ws+ 1−Ws ∗N
𝑆= =
𝑊𝑠+𝑊𝑝 Ws+Wp

Ws+N−N∗Ws Ws 1−N +N
= =
Ws+Wp Ws+Wp

También podría gustarte