Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INVESTIGACIÓN
DE COMPUTACIÓN PARALELA
Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite su
hardware: equipos con procesadores multinúcleo y multiprocesador que tienen múltiples
elementos de procesamiento dentro de una sola máquina y los clústeres, MPPS y grids que utilizan
varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar las tareas específicas,
se utilizan arquitecturas especializadas de computación en paralelo junto a procesadores
tradicionales.
Los programas informáticos paralelos son más difíciles de escribir que los secuenciales, porque la
concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los
más comunes. La comunicación y sincronización entre diferentes subtareas son algunos de los
mayores obstáculos para obtener un buen rendimiento del programa paralelo.
Aspectos para considerar
• Diseño de computadores paralelo: Escalabilidad y Comunicaciones.
• Diseño de algoritmos eficientes: No hay ganancia si los algoritmos no se diseñan
adecuadamente.
• Métodos para evaluar los algoritmos paralelos: ¿Cómo de rápido se puede resolver un
problema usando una máquina paralela? ¿Con qué eficiencia se usan esos procesadores?
• Lenguajes para computadores paralelos, flexibles para permitir una implementación
eficiente y que sean fáciles de programar.
• Herramientas para la programación paralela.
• Programas paralelos portables.
• Compiladores paralelizaste.
• Enviar por correo electrónico
• Escribe un blog
• Compartir con Twitter
• Compartir con Facebook
• Compartir en Pinterest
En 1966 Flynn propuso una clasificación generalista de las computadoras adoptando como
criterio el flujo de instrucciones y el flujo de datos que en ellos se desarrolla. La clasificación
de Flynn es la siguiente:
SISD: Instrucción única, datos únicos. Las instrucciones se ejecutan secuencialmente, pero
pueden estar solapadas en las etapas de ejecución.
SIMD: Instrucción única, datos múltiples. Son los procesadores matriciales en los que existen varias unidades
de procesamiento trabajando sobre flujos de datos distintos, pero ejecutando la misma instrucción.
MISD: Instrucción múltiple, datos únicos. Este se caracteriza por la existencia de varias unidades de
procesamiento cada una ejecutando una instrucción diferente, pero sobre el mismo flujo de datos.
MIMD: es una técnica empleada para lograr paralelismo. Las máquinas que usan MIMD tienen un
número de procesadores que funcionan de manera asíncrona e independiente.
Investigación médica: En el área médica los computadores rápidos son necesarios entomografía
asistida, diseño de corazones artificiales, diagnóstico hepático, estimación de daños cerebrales y
estudios de ingeniería genética.
CONCLUSIONES
La computación paralela tiene como objetivo acelerar una aplicación, es decir, reducir el tiempo de
procesamiento. Por lo cual el motivo que ha traído consigo la búsqueda de un estándar para el uso
de computación paralela ha sido ese, de tener problemas que requieren gran cantidad de
capacidad y tiempo de cómputo.
Bibliografía
Cómputo Paralelo: Aplicaciones, Arquitecturas y Programación – ARCOS (uc3m.es)