Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción:
Paralelismo.
1
que se aplique el procesamiento paralelo al manejo de conjuntos de datos extremadamente
grandes. El interés en el procesamiento paralelo comenzó en la década de 1960 con el diseño
de ILLIAC IV, generalmente reconocida como la primera supercomputadora del mundo.
Hay varias tendencias en el modelo de programación paralela que son de uso común.
Memoria compartida (sin subprocesos), subprocesos, memoria distribuida/paso de mensajes,
datos en paralelo, híbrido, datos múltiples de programa único (SPMD), datos múltiples de
programa múltiple (MPMD).
2. Hilos:
Un solo proceso puede tener múltiples rutas de ejecución simultáneas.
Normalmente se usa con una arquitectura de memoria compartida.
El programador es responsable de determinar todo el paralelismo.
3. Paso de mensajes:
Las tareas intercambian datos enviando y recibiendo mensajes.
Normalmente se usa con arquitecturas de memoria distribuida.
La transferencia de datos requiere que cada proceso realice operaciones cooperativas.
2
4. Datos paralelos:
Tareas que realizan las mismas operaciones en un conjunto de datos. Cada tarea trabaja en
una pieza separada del conjunto.
Funciona bien con arquitecturas de memoria compartida o de memoria distribuida.
5. Memoria distribuida:
Cada procesador tiene su propia memoria.
Es escalable, sin gastos generales para la coherencia de caché.
El programador es responsable de muchos detalles de la comunicación entre procesadores.
La implementación del modelo PRAM en hardware real sería difícil y costosa debido a la
complejidad de la red de comunicación que permite a todos los procesadores acceder a
cualquier celda de memoria al mismo tiempo y escribir en cualquier celda en un paso
temporal. Por lo tanto, otros modelos de cálculo paralelo, como el hipercubo, son más
similares al hardware real y tienen sus propias restricciones y limitaciones.
3
aumenta. Un sistema paralelo escalable es aquel que puede manejar eficientemente un
aumento en el tamaño del problema, sin degradar significativamente el rendimiento.
Conclusión
4
memoria compartida, subprocesos, memoria distribuida paso de mensajes, datos en paralelo,
híbrido, datos múltiples de programa único y datos múltiples de programa múltiple. La
escalabilidad es un aspecto importante a considerar al diseñar sistemas de alto rendimiento ya
que permite que los sistemas paralelos manejen eficientemente un aumento en el tamaño del
problema o del conjunto de datos.
Referencias
[1] Parhami B. (2019) Parallel Processing with Big Data. In: Sakr S., Zomaya A.Y. (eds)
Encyclopedia of Big Data Technologies. Springer, Cham; DOI
https://doi.org/10.1007/978-3-319-77525-8_165;https://web.ece.ucsb.edu/~parhami/pubs_fol
der/parh19b-ebdt-parallel-proc-big-data.pdf
[2] Chatterjee, Koushik & amp; Joshi, Sumit. (2013). An Overview on High Performance
Issues of Parallel Architectures. Internet Technologies and Application Research. V.1. 11-17.
DOI 10.12966/itar.09.01.2013.
https://www.researchgate.net/publication/259181530_An_Overview_on_High_Performance_
Issues_of_Parallel_Architectures