Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PARALELA
ORGANIZACIN Y ARQUITECTURA
DEL COMPUTADOR II
Ing. Luis Alberto Sota Orellana
Introduccin
Tradicionalmente, los programas han sido escritos para cmputo secuencial (serial):
Ser particionado en partes discretas de trabajo que pueden ser resueltas simultneamente
Ejecutar mltiples instrucciones del programa en cualquier instante de tiempo
Ser resuelto en un menor tiempo con mltiples recursos computacionales que con un nico
recurso computacional.
Ahorro en tiempo
Resolver problemas grandes
Otras razones:
Tomar ventaja de recursos no locales usar recursos computacionales
disponibles en una red.
Ahorro en costos el uso de mltiples recursos computacionales ms
econmicos en vez de pasar tiempo en un supercomputador.
Limitacin en memoria un solo computador tiene recursos de memoria
finita. Para problemas grandes, usar la memoria de mltiples computadores
puede corregir este obstculo.
El futuro sugiere que el paralelismo es el futuro del cmputo.
Conceptos y Terminologas
Arquitectura de Von Neumann
Un computador de Von Neumann usa el concepto de programaalmacenamiento. El CPU ejecuta un programa que especfica una
secuencia de operaciones de lectura y escritura en la memoria.
Conceptos y Terminologas
Arquitectura de Von Neumann
Diseo Bsico:
Memoria es usada para almacenar el programa y las
instrucciones sobre los datos
Instrucciones del Programa son datos codificados
que le dice al computador que hacer
Los datos es simplemente informacin a ser usada
por el programa
La unidad de procesamiento central (CPU) obtiene
instrucciones y/o datos de la memoria, decodifica las
instrucciones y secuencialmente ejecuta stas.
Conceptos y Terminologas
Taxonoma de Flynn
Conceptos y Terminologas
Taxonoma de Flynn Single Instruction, Single Data (SISD)
Conceptos y Terminologas
Taxonoma de Flynn Single Instruction, Multiple Data
(SIMD)
Conceptos y Terminologas
Taxonoma de Flynn Single Instruction, Multiple Data
(SIMD)
Conceptos y Terminologas
Taxonoma de Flynn Multiple Instruction, Single Data
(MISD)
Conceptos y Terminologas
Taxonoma de Flynn Multiple Instruction, Multiple Data
(MIMD)
Conceptos y Terminologas
Taxonoma de Flynn Multiple Instruction, Multiple Data
(MIMD)
Conceptos y Terminologas
Taxonoma de Flynn
Conceptos y Terminologas
Clasificaciones mas actuales
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Compartida (Shared Memory)
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Compartida (Shared Memory)
Arquitectura de la Memoria en
Computadores Paralelos
Acceso Uniforme a Memoria (UMA)
Procesadores idnticos
Tiempos de acceso igual a la memoria
Algunas veces llamadas CC-UMA - Cache Coherent UMA.
Coherencia de cache significa que si un procesador actualiza
una posicin en la memoria compartida, todos los otros
procesadores conocen acerca de la actualizacin. La
coherencia de cache es a nivel de hardware.
Arquitectura de la Memoria en
Computadores Paralelos
Acceso No Uniforme a Memoria (NUMA)
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Distribuida (Distributed Memory)
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Distribuida (Distributed Memory)
Desventajas
Ejemplos:
nCUBE Hypercube, Intel Hypercube, TMC CM-5, IBM SP1, SP2, Intel Paragon
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Compartida-Distribuida
Arquitectura de la Memoria en
Computadores Paralelos
Memoria Compartida-Distribuida
Memoria Distribuida
Memoria Compartida
Procesadores idnticos
Acceso igual a la memoria
Algunas veces llamado UMA - Uniform Memory Access o CC-UMA Coherencia de Cache UMA
Coherencia de Cache significa que si un procesador actualiza una posicin en la memoria compartida, todos los otros
procesadores conocen acerca de la actualizacin
Algunas veces llamado CC-NUMA - Coherencia de Cache NUMA
A menudo hecho enlazando dos o ms SMPs
Un SMP puede directamente acceder la memoria de otro SMP
No todos los procesadores tienen igual tiempo de acceso a toda la memoria
El acceso de memoria a travs del enlace es lento
Combinaciones