Está en la página 1de 21

COMPUTACIÓN Y

PROCESAMIENTO
EN PARALELO
Grupo 1:
• Cordova Camacho Kenshin Jason
• Mendoza Choquehuillca Ulises Valenti
• Vargas Amanca Pepe Lucho
01
GENERALIDADES
¿Qué es el Paralelismo?
El paralelismo es una forma de computación basada en un principio aparentemente
simple:
»División de problemas»
Esto permite ejecutar más instrucciones en menos tiempo. Pero llevado a la
práctica es una cuestión altamente compleja en la que se encuentran investigando
grupos científicos de todo el mundo.
SISTEMA PARALELO
Tiene la capacidad de realizar operaciones de manera
simultánea, suele manejar grandes cantidades de
información que puede procesar cientos de peticiones por En pocas
palabras
segundo.
Este se basa en un principio simple

“DIVIDIR LOS
PROBLEMAS GRANDES
EN VARIOS PEQUEÑOS
Y SOLUCIONARLOS
SIMULTÁNEAMENTE”
02
COMPUTACIÓN
PARALELA
COMPUTACIÓN
PARALELA
Es una técnica de programación en el que muchas
instrucciones para que se ejecuten simultáneamente.
Este se basa en el principio de los grandes problemas que se
pueden dividir en partes más pequeñas y estas se puedan
resolver de forma concurrente

Las computadoras paralelas se han convertido en un paradigma


dominante en la arquitectura de computadoras, principalmente
en lo que es los procesadores multi núcleos.
Pues recientemente el consumo de los ordenadores paralelos se
ha convertido en una preocupación.
Los ordenadores paralelos se pueden clasificar según el nivel de
paralelismo que admite su hardware:

● Los ordenadores multi núcleos y multiproceso tienen varios


elementos de procesamiento

● Los Clusters Sirven para incrementar la competencia, colaboración y


vínculo informal entre las empresas y las institucione

● Los MPP Los archivos de datos de Microsoft Project que almacena


información relacionada con la gestión de proyectos de manera
integrada.

Es una cuadrícula con varios elementos que comparten una


● Los Grids categoría y/ o un sentido
TIPOS DE COMPUTACIÓN
PARALELA
Paralelismo a nivel de
Paralelismo a nivel de bit
Instruccion
Este se realiza en las cadenas de bits, toda
En instrucciones sin dependencias se puede
instrucción está formada por palabras, que
decir eso de “el orden de los factores no altera el
en definitiva son estas cadenas de bits que
producto”. Las instrucciones se combinan en
transportan la información. El contar con
grupos para ser procesadas de forma paralela en
palabras más largas, permite añadir más
distintas etapas o “pipeline”.
contenido a la instrucción, y en consecuencia
hacer más trabajo de una sola vez
¿Qué es PIPELINE?
Este tiene la capacidad de procesador de trabajar con varias instrucciones a la vez,
cada una de ellas en situaciones distintas
cuando nos referimos a las etapas son las típicas de la arquitectura RISC:

pedir instrucción -> decodificar -> ejecutar -> acceso a memoria -> escritura
Paralelismo de
Paralelismo de Datos
Tareas

Consiste en asignar un subconjunto de En este método, un programa


datos a cada procesador o núcleo para que es capaz de entregar tareas al
ejecuten la misma secuencia de procesador que son
operaciones totalmente distintas unas de
otras para que se realicen en
paralelo.
Clases de Computadoras Paralelas
Se pueden clasificar de acuerdo con el nivel en el que el hardware soporta paralelismo.

01 02 03
Computación Multiprocesamiento Computación
Multinúcleo Simétrico Distributiva

04 05 06
Computación en Procesamiento Computación
Cluster Paralelo Masivo Distributiva
Computación
Multinúcleo
Es un procesador que incluye múltiples unidades de ejecución
en el mismo chip (núcleos). Los procesadores superescalares
pueden ejecutar múltiples instrucciones por ciclo de un flujo de
instrucciones que son como hilos, a diferencia de este, un
procesador multi núcleo puede ejecutar múltiples instrucciones
por ciclo de secuencias de instrucciones múltiples

Multiprocesamiento
Simétrico

Es un sistema computacional con múltiples


procesadores idénticos que comparten
memoria y se conectan a través de un bus. La
contención del bus previene el escalado de
esta arquitectura. Como resultado, los SMPs
generalmente no comprenden más de 32
procesadores.
Computación
Distributiva
Es conocido como un multiprocesador de memoria
distribuida es un sistema computacional de
memoria distribuida en el que los elementos de
procesamiento están conectados por una red.

Computación en
Cluster

Este es un grupo de ordenadores débilmente acoplados


que trabajan en estrecha colaboración, de modo que en
algunos aspectos pueden considerarse como un solo
equipo. Los clústeres se componen de varias máquinas
independientes conectadas por una red. Mientras que
las máquinas de un clúster no tienen que ser simétricas,
de no serlo, el balance de carga es más difícil de lograr.
Procesamiento
Paralelo Masivo
Es un solo equipo con varios procesadores
conectados en red, tienen muchas de las
características de los clúster, pero cuentan con
redes especializadas de interconexión en tanto
que las clústeres utilizan hardware estándar para
la creación de rede, los MPPs también tienden a
ser más grandes que los clústeres, con mucho
más de 100 procesadores

Computación
Distributiva
Es una la forma más distribuida de la computación
paralela. Se hace uso de ordenadores que se
comunican a través de la Internet para trabajar en un
problema dado. Debido al bajo ancho de banda y la
latencia extremadamente alta de Internet, la
computación distribuida normalmente sólo se refiere a
problemas paralelos.
CÓMPUTO EN SERIE VS. CÓMPUTO PARALELO

Cómputo en Serie Cómputo Paralelo


❖ Para resolver un problema, se construye un ❖ Aquí se utilizan simultáneamente múltiples elementos
algoritmo y se implementa como un flujo en de procesamiento para resolver un problema.
serie de instrucciones ❖ Se logra mediante la división del problema en partes
❖ Las instrucciones se ejecutan en una unidad independientes de modo que cada elemento de
central de procesamiento en un ordenador. procesamiento pueda ejecutar su parte del algoritmo
❖ Sólo puede ejecutarse una instrucción a la vez de manera simultánea con los otros.
y un tiempo después de que la instrucción ha ❖ Los elementos de procesamiento son diversos e
terminado incluyen recursos tales como una computadora con
múltiples procesadores, varios ordenadores en red.
03
PROCESAMIENTO
EN PARALELO
¿Qué es el Procesamiento en
Paralelo?
El procesamiento masivamente paralelo (MPP) es un
paradigma de procesamiento en el que cientos o miles de
nodos de procesamiento trabajan en partes de una tarea
informática en paralelo. Cada uno de estos nodos ejecuta
instancias individuales de un sistema operativo. Tienen
sus propios dispositivos de entrada y salida y no
comparten memoria. Logran una tarea informática común
comunicándose entre sí a través de una interconexión de
alta velocidad.
¿Cómo funciona el
procesamiento en Paralelo?
Si un ordenador fuera humano, entonces su
unidad de procesamiento central sería el cerebro.
Como ya se ha dicho varias veces en esta web, la
CPU es un microprocesador, que es básicamente
un motor de computación en forma de chip.
Mientras que los microprocesadores son
pequeños, son también muy potentes. Pueden
interpretar miles y millones de instrucciones por
segundo. Aun así, hay algunos problemas de
cálculo en este campo que son tan complicados,
que incluso el microprocesador más potente
requeriría años para solucionar.
¿Cuáles son los principales componentes de hardware
del procesamiento masivamente paralelo?
Es esencial comprender los componentes de hardware de un sistema de procesamiento
masivamente paralelo para comprender varias arquitecturas.

Nodos de procesamiento
Los nodos de procesamiento son los componentes básicos del procesamiento masivamente paralelo.
Estos nodos son núcleos de procesamiento simples y homogéneos con una o más unidades
centrales de procesamiento. Los nodos se pueden visualizar como simples PC de escritorio.

Interconexión de alta velocidad


Los nodos en un sistema de procesamiento masivamente paralelo trabajan en forma paralela en partes
de un solo problema de computación. Aunque su procesamiento es independiente entre sí, necesitan
comunicarse regularmente entre sí mientras intentan resolver un problema común. Se requiere una
conexión de baja latencia y alto ancho de banda entre los nodos, lo cual se denomina interconexión de
alta velocidad o bus. Puede ser una conexión ethernet, una interfaz de datos distribuidos por fibra o
cualquier método de conexión patentado.
Administrador de bloqueo distribuido (DLM)
En aquellas arquitecturas de procesamiento masivamente paralelo donde la memoria externa o
el espacio en disco se comparte entre los nodos, un administrador de bloqueo distribuido (DLM)
coordina este intercambio de recursos. El administrador de bloqueo distribuido toma una
solicitud de recursos de varios nodos y conecta los nodos cuando los recursos están
disponibles. En algunos sistemas, el administrador de bloqueo distribuido garantiza la
consistencia de los datos y la recuperación de cualquier nodo fallido.
BIBLIOGRAFÍA:
- http://ferestrepoca.github.io/paradigmas-de-pro
gramacion/paralela/paralela_teoria/index.html

- https://docs.google.com/document/edit?id=1k9YBQHukYXIMT4cJ
ZA_6sOcc4RpMpcWvqZHxSYr2zkc&hl=en

- https://www.profesionalreview.com/2020/05/10/procesador-en-
paralelo/

También podría gustarte