0 calificaciones0% encontró este documento útil (0 votos)
6 vistas1 página
Este es un texto especial, el cual trata acerca de computación paralela, el cual motivará a los lectores al aprendizaje de la materia para mejorar ciertos aspectos de su vida profesional.
Este es un texto especial, el cual trata acerca de computación paralela, el cual motivará a los lectores al aprendizaje de la materia para mejorar ciertos aspectos de su vida profesional.
Este es un texto especial, el cual trata acerca de computación paralela, el cual motivará a los lectores al aprendizaje de la materia para mejorar ciertos aspectos de su vida profesional.
La computacin paralela es una forma de cmputo en la que muchas instrucciones se
ejecutan simultneamente,1 operando sobre el principio de que problemas grandes, a
menudo se pueden dividir en unos ms pequeos, que luego son resueltos simultneamente (en paralelo). Hay varias formas diferentes de computacin paralela: paralelismo a nivel de bit, paralelismo a nivel de instruccin, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos aos, sobre todo en la computacin de altas prestaciones, pero el inters en ella ha decrecido ltimamente debido a las limitaciones fsicas que impiden el aumento de la frecuencia Como el consumo de energa y por consiguiente la generacin de calor de las computadoras constituye una preocupacin en los ltimos aos,la computacin en paralelo se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en forma de procesadores multincleo. Las computadoras paralelas pueden clasificarse segn el nivel de paralelismo que admite su hardware: equipos con procesadores multincleo y multi-procesador que tienen mltiples elementos de procesamiento dentro de una sola mquina y los clsteres, MPPS y grids que utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar tareas especficas, se utilizan arquitecturas especializadas de computacin en paralelo junto a procesadores tradicionales.
Los programas informticos paralelos son ms difciles de escribir que los
secuenciales, porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los ms comunes. La comunicacin y sincronizacin entre diferentes subtareas son algunos de los mayores obstculos para obtener un buen rendimiento del programa paralelo.
La mxima aceleracin posible de un programa como resultado de la paralelizacin se