Está en la página 1de 3

Consulta Benckmarks

Clusters:

Es un conjunto de varias servidores que se instalan para trabajar como si fuese uno. Es decir
es un grupo de ordenadores que se unen mediante una red de alta velocidad de tal forma
que puede ejecutar procesos como si fuesen una sola máquina.

Ventajas:
 Alta disponibilidad.
 Alto rendimiento.
 Balanceo o carga.
 Escalabilidad.

Componentes de los Clusters:


 Nodos.
 Sistema Operativo.
 Conexión de Red.
 Middleware.
 Sistema de Almacenamiento.

Clúster Linux -----

Altas Prestaciones ----

Paradigmas de la Programación Paralela:

Existen varias formas de programar en paralelo:


Paso de mensajes:
Características:
 Un conjunto de procesos que disponen de memoria local.
 Los procesos intercambian datos mediante mensajes.
 El emisor y receptor de la mensa tienen que colaborar.
La libreriıa Message Passing Interface (MPI)
El programador es responsable del envió y la recepción de mensajes, que típicamente se
hacen mediante llamadas a una librería
Tareas:
Características:
 Un programa serial define el conjunto de tareas.
 Cada tarea dispone de su memoria local.
 Cada tarea tiene acceso a una memoria conjunta.
 Las tareas son realizadas simultáneamente.

El programador es responsable de la sincronización.

El estándar OpenMP

¿Por qué hacer Programas Paralelos?

 Se pueden solucionar problemas muy grandes que no es posible resolver mediante


programación secuencial.
 Se mejora la eficiencia al dividir el problema en tareas más pequeñas.
 Velocidad de procesamiento.
 Reduce los tiempos de ejecución.

¿Qué se puede hacer con tantos cores?

Cada núcleo es una unidad central de proceso separada e independiente. Por lo tanto entre
más núcleos posea un procesador nos permitirá realizar mayor cantidad de tareas
simultaneas. Es decir cada núcleo realiza una tarea específica.

High Throughput Computing:

Describe el uso de muchos recursos informáticos durante largos períodos de tiempo para
realizar una tarea computacional.

High Performance Computing:

La tecnología HPC se centra en el desarrollo de algoritmos y sistemas de procesamiento


paralelo mediante la incorporación de técnicas de administración y computación paralela.
Para lograr este objetivo, la computación de alto rendimiento se apoya en tecnologías
computacionales como los clusters, los supercomputadores o la computación paralela. La
mayoría de las ideas actuales de la computación distribuida se han basado en la
computación de alto rendimiento.

¿Es lo mismo core que procesador?

No, un procesador está constituido por varios bloques y uno de esos bloques
son los núcleos que son los encargados de ejecutar instrucciones. Es decir el
procesador es una estructura compuesta por varios segmentos y los núcleos
son un componente del procesador.

¿Que son los programas paralelos?

Es un programa que puede ser ejecutado por partes en el mismo instante de


tiempo por varias unidades de procesamiento, para finalmente unir todas las
partes y obtener el resultado correcto.

Modelo de Programación OpenMP

Computación de Alto Rendimiento


Métricas de Prestaciones – medir el rendimiento
Benchmark (Comparador de rendimiento/Medición de rendimiento)
Threads
Diferencias entre hilos y procesos

También podría gustarte