Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
Por:
INGENIERÍA EN SISTEMAS
Eduardo Augusto COMPUTACIONALES
Huitzitl Torres -
E15020563 Cómputo de alto de desempeño
David E. Rivera Presentación de Síntesis
Muñoz - E15020517 unidad 1
Veracruz, Ver.
Profesor: Marco Alberto Romo Medina
¿Qué es un clúster?
Introducción a HPC: ¿qué es un clúster?
● nodos
● almacenamiento
● sistemas operativos
● conexiones de red
● middleware
● aplicaciones
Un sistema operativo debe ser multiproceso y Los nodos de un clúster pueden conectarse
multiusuario, para encajar perfectamente en las tareas
mediante una simple red Ethernet con placas
de demanda del clúster.
comunes (adaptadores de red o NICs), o
Otras características deseables son la facilidad de uso y utilizarse tecnologías especiales de alta
acceso. velocidad como Fast Ethernet, Gigabit Ethernet,
Myrinet, InfiniBand, SCI, etc.
● Un sistema operativo es un programa o conjunto
de programas de computadora destinado a
permitir una gestión eficaz y segura de sus
recursos.
● Comienza a trabajar cuando el gestor de
arranque carga en memoria su núcleo y gestiona
el hardware de la máquina desde los niveles más
básicos, permitiendo también la interacción con el
usuario.
Componentes de un clúster
MIDDLEWARE:
Ambientes de Programación Paralela
Estos sistemas son una creación híbrida. Ellos proveen la abstracción de memoria compartida en sistemas con memorias
distribuidas físicamente y consecuentemente combinan las mejores características de ambos enfoques. Debido a esto, el
concepto de memoria compartida distribuida es reconocido como uno de los enfoques más atractivos para la creación de
sistemas escalables, de alto rendimiento de sistemas multiprocesador.
La memoria compartida distribuida (DSM) es una abstracción utilizada para compartir datos entre computadores que no
comparten memoria física. Los procesos acceden a DSM para leer y actualizar, dentro de sus espacios de direcciones,
sobre lo que aparenta ser la memoria interna normal asignada a un proceso. Sin embargo, existe un sistema subyacente
en tiempo de ejecución que asegura de forma transparente qué procesos diferentes ejecutándose en computadores
diferentes observen las actualizaciones realizadas entre ellas. Es como si los procesos accedieran a una única memoria
compartida, pero de hecho la memoria física está distribuida.
DSM es fundamentalmente una herramienta para aplicaciones paralelas o para aplicaciones o grupos de aplicaciones
distribuidas en las que se puede acceder directamente a datos individuales que ellas comparten. En general, DSM es
menos apropiado para sistemas cliente-servidor, ya que los clientes ven al servidor como un gestor de recursos en forma
de datos abstractos que se acceden a través de peticiones (por razones de modularidad y protección).
Tipos de paralelismo.
El paralelismo
Aplicaciones El paralelismo es una forma de computación en la cual varios cálculos
pueden realizarse simultáneamente, basado en el principio de dividir los
Considerados anteriormente muy largos y problemas grandes para obtener varios problemas pequeños, que son
costosos se han podido solucionar.
posteriormente solucionados en paralelo. Hay varios tipos diferentes de
● Simulación de Montecarlo paralelismo:
● nivel de bit Se basa en el tamaño de la palabra que es capaz de manejar el
● Lógica combinacional (como las procesador. Mientras más grande el tamaño de la palabra menos instrucciones
técnicas de fuerza bruta) ejecuta el procesador para realizar una operación determinada.
● nivel de instrucción, Mecanismos de la arquitectura son utilizados entonces
● Graph traversal para ejecutar este tipo de paralelismo:
Pipelining
● Programación dinámica Superscalar
● Métodos de ramificación y poda ● de datos y de tarea. se enfoca en la distribución de los datos entre varios
procesadores.Se conoce también como paralelismo a nivel de lazos
● Modelo en grafo ● En este caso un programa paralelo que ejecuta cálculos distintos sobre el mismo
conjunto de datos o sobre datos diferentes.
● Simulación de autómata finito
Pipeline
Pipeline
Pipeline aplicable a casi cualquier tipo de proyecto que
requiera un mínimo de trabajo grupal. Su significado,
‘’cañería’’, hace referencia a la forma en que se
estructura dicho proceso organizativo para trabajar.
● Un programa, múltiples datos (SPMD) - múltiples procesadores autónomos que trabajan simultáneamente
sobre el mismo conjunto de instrucciones (aunque en puntos independientes) sobre datos diferentes.
También se le llama 'un proceso, múltiples datos'.
● Múltiples programas, múltiples datos (MPMD) - múltiples procesadores autónomos que trabajan
simultáneamente sobre al menos dos programas independientes. Normalmente este sistema elige a un
nodo para ser el host o administrador, que corre el programa y otorga los datos a todos los demás nodos
que ejecutan un segundo programa. Esos demás nodos devuelven sus resultados directamente al
administrador. Un ejemplo podría ser la consola de Sony PlayStation 3, que tiene la arquitectura de
procesador SPU/PPU.
La ley de Amdahl
Ley de Amdahl
Según dice la ley de Amdahl:
-La mejora en el rendimiento de un sistema debido a la alteración de uno de sus componentes está limitada por la
cantidad de tiempo que se utiliza dicho componente.-
Ésta ley fue enunciada en 1967 por el arquitecto de computadores Gene Myron Amdahl.
Gene M. Amdahl nació en el año 1922 en Flandreau, Dakota del Sur. Trabajó para IBM, pero posteriormente abandonó la
compañía al no estar contento con el sistema burocrático mediante el cual funcionaba la misma. A partir de 1970 creó la
Amdahl Corporation para competir con IBM. Sus desarrollos en ésta compañía obligaron a IBM a emplear un mayor
presupuesto en investigación para poder ser competitivos. Sin embargo, en 1980, abandonó su propia compañía para
fundar Trilogy Systems, especializada en el diseño de ordenadores de alta capacidad con un alcance de procesamiento
mucho mayor que el ofrecido por cualquier producto de IBM o Amdahl Corp. hasta ése momento. Después fundó otras dos
compañías especializadas en la fabricación de microchips, pero no consiguió que ninguna de las dos funcionase.
Ley de Amdahl
La ley de Amdahl no solo es un enunciado
teórico. La mejora implicada de un componente
se puede cuantificar mediante la siguiente
ecuación:
La tasa de transferencia efectiva (en inglés throughput) En informática, sobrecoste es el exceso de tiempo de
es el volumen de trabajo o de información neto que fluye computación, memoria, ancho de bando u otros
a través de un sistema, como puede ser una red de recursos, que son necesarios para realizar una tarea
computadoras. específica.
La tasa de transferencia también se define como la Algunos ejemplos del sobrecoste en computación
velocidad real de transporte de datos a través de una incluyen la llamada a una función, la transferencia de
red telemática, la cual normalmente se mide en información o el procesamiento de las estructuras de
megabits por segundo y siempre será inferior al ancho datos.
de banda.
SpeedUp, Eficiencia y
Escalabilidad
SpeedUp, Eficiencia y Escalabilidad
Speedup es un proceso realizado La eficiencia es una comparación del Escalabilidad.
para mejorar el rendimiento de un grado de speed-up conseguido frente
sistema que procesa un problema al valor máximo del tiempo de Un sistema se dice que es escalable para
determinado. Más técnicamente, es la ejecución. un determinado rango de procesadores
[1... n], si la eficiencia E(n) del sistema se
mejora en la velocidad de ejecución de
mantiene constante y en todo momento
una tarea ejecutada en dos Dado que 1 ≤ S(n) ≤ n, tenemos 1/n ≤
por encima de un factor 0.5. Normalmente
arquitecturas similares con diferentes E(n) ≤ 1. La eficiencia más baja E(n)
todos los sistemas tienen un determinado
recursos. La noción de speedup fue 0 corresponde al caso en que todo el número de procesadores a partir del cual
establecida por la ley de Amdahl, que programa se ejecuta en un único la eficiencia empieza a disminuir de forma
estaba dirigida particularmente a la procesador de forma serie. La más o menos brusca.
computación paralela. Sin embargo, la eficiencia máxima E(n) = 1, se obtiene
speedup se puede usar más cuando todos los procesadores están Un sistema es más escalable que otro si
generalmente para mostrar el efecto siendo completamente utilizados este número de procesadores, a partir del
en el rendimiento después de durante todo el periodo de ejecución cual la eficiencia disminuye, es menor que
cualquier mejora en los recursos. el otro.
Speed-up Sp = T1 / Tp T1 :
Sp = p Eficiencia Ep = Sp / p = T1 / pTp
Ejemplifique
aplicando las técnicas de Algoritmia Concurrente
en la elaboración de un producto, ilustre el
diagrama de
estados, el diagrama de actividades en función
del tiempo,
etc...
Equipo 06
Eduardo Augusto Huitzitl Torres
https://es.wikipedia.org/wiki/Clúster_(informática)#Componentes_de_un_clúster
https://sites.google.com/site/sistemasoperativospaty/unidad-4/unidad-4-memoria-compartida-distribuida
http://sistemasod.blogspot.com/2012/10/unidad-3-paralelismo.html
https://definicion.de/pipeline/
https://idus.us.es/xmlui/bitstream/handle/11441/80809/WAOTFG_177.pdf?sequence=1&isAllowed=y
https://es.wikipedia.org/wiki/Taxonomía_de_Flynn
https://instintobinario.com/la-ley-de-amdahl/
https://es.wikipedia.org/wiki/Sobrecoste_(informática)
https://www.uv.es/varnau/OC_T4.pdf