Está en la página 1de 5

SISTEMAS DE PARALELISMOS

INTRODUCCION

Bueno, antes de entrar en el tema, vamos


a explicarles lo que es el sistema de
Paralelismos, y es que como vamos a
decir que son los sistemas de paralelismo,
si no explicamos lo que estos son.

Bien, el Paralelismos es una función que


realiza el procesador para poder ejecutar
varias tareas al mismo tiempo.

La idea es en que varios procesadores se estén ejecutando tareas al mismo


tiempo, dando en ello el paralelismo, en caso de que solo haya un procesador
para realizar todas las tareas, se habla de un pseudoparalelismo.

OBJETIVO

El objetivo de este es aumentar el rendimiento del procesador y con ello aumentar


la capacidad para resolver problemas computacionales grandes.

Y esto lo podemos lograr, por medio de:

• La división del trabajo en tareas más pequeñas e independientes

• Asignación de las tareas a distintas unidades de proceso

• Resolución de las tareas en simultaneo.

Pero como todo lo bueno, también viene lo malo, y estos son los problemas, que
pueden ocurrir al usar el paralelismo, tal como son;

• Sincronización de las tareas.

• control de ejecución simultanea

• conflictos debidos a dependencias

SISTEMAS DE PARALELISMO

Explicado lo anterior, podemos ver al sistema de paralelismo como un conjunto de


elementos de proceso que, operando juntos, permiten resolver problemas
computacionales complejos de forma eficiente al dividir los problemas grandes
para obtener varios problemas pequeños, los cuales son, posteriormente,
solucionados en paralelo.
Características de un sistema paralelo:

• Cantidad y potencia de los elementos de proceso

• Tipo y Tamaño de la memoria

• Forma de comunicación entre los elementos de proceso

• Rendimiento

• Escalabilidad del sistema

• Recursos de potencia requeridos

Niveles de Paralelismo

El paralelismo puede estudiarse en distintos niveles, los cuales serían:

o Trabajo: Dos programas distintos pueden ejecutarse en paralelo


o Tarea: Se consideran varias tareas independientes entre sí formando parte
de un programa determinado. Es posible la interacción de las tareas
o Proceso: Varios procesos componen una tarea. Son bloques con
funcionalidad bien definida.
o Variable: El paralelismo puede darse a nivel de variables ya que varias
instrucciones pueden ser ejecutadas en paralelo siendo el punto de
conflicto las variables en común
o Bit: Todos los computadores usan paralelismo a nivel de bit
 Instrucción: Este nivel trabaja, bajo la idea de que un programa no es más
que una corriente de instrucciones ejecutadas por un procesador, por tanto
las instrucciones, pueden ser reordenadas y se combinan en grupos que
luego se ejecutan en paralelo sin ningún problema.

Clasificación de los sistemas paralelos en la informática

Flujo de control; las instrucciones se van ejecutando según el orden en el que se


encuentran en memoria.
Flujo de datos; el flujo de ejecución es conducido por los datos; una instrucción
será ejecutada cuando los operandos estén disponibles.
Reducción; la ejecución se realiza por demanda, una instrucción será ejecutada
cuando otra necesite sus resultados. Son una clase de las de flujo de datos.
SISD; arquitectura de simple construcción sobre simple dato. Serie en datos e
instrucciones, arquitectura Von Neumann.
SIMD; un solo flujo de instrucciones y múltiples en datos. Computadores
matriciales. Una unidad de control que gobierna varias unidades aritmético-
lógicas.
MISD; varios flujos de instrucciones y uno solo de datos. Arquitectura no
implementada, consecuencia teórica de la clasificación. Superestructura Pipeline,
varios conjuntos de unidad de control más unidad aritmético lógica realizan partes
de una operación sobre un flujo de datos.
MIMD; arquitectura multiprocesador con varios flujos tanto de instrucciones como
de datos. Varios procesadores serie convencionales que manejan cada uno un
flujo de instrucciones sobre un flujo de datos.

Arquitectura característica y estructura de cada procesador del sistema.


Íntimamente ligado con la funcionalidad
(variedad de operaciones y cantidad de instrucciones)

Arreglos sistólicos Homogéneos complejidad


baja
MIMD alta Heterogéneos complejidad

Clasificación de las Arquitecturas de Computadoras

Como se puede apreciar en la imagen, hay distintas formas de paralelismo, las


cuales son:

 Pipeline. – Se divide el proceso de ejecución de una instrucción en etapas


de similar duración, con el objetivo de procesar instrucciones
simultáneamente.
 PLP (Process Level Paralelism). – Distintos procesos se ejecutan en
diferentes procesadores paralelos o en diferentes cores de un mismo
procesador.
 TLP (Thread Level Paralelism). - Las unidades de ejecución se comparten
entre los hilos independientes de un proceso. Esta forma se puede dividir
en otras 3, que son Coarse Grain (los hilos casi no se desalojan), Fine
Grain(el hilo en ejecución se cambia a cada ciclo del reloj) y SMT
(Simultaneous Multithreading)(ejecuta varios hilos en cada ciclo de reloj).

 DLP (Data Level Paralelism). – La operación se aplica a varios ítems de


dato en lugar de uno solo, esto se puede implementando rutas de datos
divisibles.
 ILP (Instruction Level Paralelism). - Los procesadores leen varias
instrucciones a la vez en su cola de instrucciones y dinámicamente emiten
cierto número de ellas en cada ciclo de reloj.

Ámbitos de Uso

o Simulación de modelos complejos


o Diseño y automatización de proyectos de ingeniería
o Exploración petrolera y minera
o Medicina
o Área militar
o Cine: efectos visuales, animación 3D
o Realidad Virtual
o Comercio electrónico
o Mega bases de datos (Google, YouTube)
BIBLIOGRAFIAS

 http://www.exa.unicen.edu.ar/catedras/arqui2/arqui2/filminas/Introduccion%
20a%20las%20arquitecturas%20Paralelas.pdf
 https://www.ecured.cu/Paralelismo_(_inform%C3%A1tica)
 http://sites.google.com/site/arquitecturadecomputadoresis/paralelismo-de-
procesadores

También podría gustarte