Está en la página 1de 16

INSTITUTO

T E C NO LO G IC O S U P E R IO R
D E VA L L A D O L I D ( I T S VA )
ARQUITECTURA DE
C O M P U TA D O R A S

Integrantes:
Gilmer Jess Torres Novelo
Jos
Salvador
Snchez

Jimnez

Luis Felipe Caamal Poot


Lizeth Cruz Andrs
Jonathan Ulises Romn Dzul

GRADO Y GRUPO: 5
D O C E N T E : M . T. I G E N N Y
YESENIA CETINA
MARRUFO
ESTUDIO DE CASO U4

FECHA DE ENTREGA:
08/12/2015

RESUMEN
El objetivo de esta lnea es investigar en Sistemas Paralelos,
esto es, la combinacin de del estudio, la aplicacin y la utilizacin de
arquitecturas de procesamiento paralelo, especialmente en el rea de
sistemas computacionales haciendo referencia a la empresa NVIDIA la
cual disean y venden estos sistemas paralelos contribuyendo y
abarcando temas fundamentales como la especificacin, transformacin,
optimizacin, programacin y verificacin del estudio de la arquitectura en
las empresas, en la medicina, en la industria de los videojuegos en el
espacio areo y en el estudio de las molculas los cual ayuda a la ciencia
a ver las estructuras que tienen estas mismas, esto revoluciona el
mercado de la computacin paralela en el mbito de la potencia de la
unidad de procesamiento de grficos con las siglas (GPU) el proyecto
CUDA nos permite resolver los problemas con mayor rapidez enviado el
cdigo c, c++ y fortran directamente a la GPU sin lenguajes de montaje, al
igual empresas como Adobe, ANSYS, Autodesk, MathWorks y Wolfram
Research despiertan la GPU esto con el fin de acelerar la renderizacin de
grficos esta acta con un teraflop con lo cual sabemos que es la
cantidad de billones de operaciones de nmeros de punto flotante que
puede realizar un computador en un segundo siendo as una de las
mejores opciones a optar.

INTRODUCCIN
El estudio de caso es una tcnica de aprendizaje en la que el
sujeto se enfrenta a la descripcin de una situacin especfica que plantea
un problema, que debe ser comprendido, valorado y resuelto por un grupo
de personas a travs de un proceso de discusin.
Dicho en otras palabras en este estudio de caso hablaremos
sobre los procesamientos paralelos el cual sabemos que es un proceso
que se realiza al mismo tiempo que otro, siendo ejecutados ambos de
modo simultneo. Claro est que nos referimos a un ordenador y es que
en la actualidad es innegable la importancia y el creciente inters en el
procesamiento paralelo dentro de la Ciencia de la Computacin, por un
gran nmero de razones (crecimiento de la potencia de clculo dada por la
evolucin tecnolgica, transformacin y creacin de algoritmos que
explotan la concurrencia para obtener mejores tiempos de respuesta, la
necesidad de tratar sistemas de tiempo real distribuidos, lmite fsico de las
mquinas secuenciales que convierte a la solucin paralela en la nica
factible, etc).
Un estudio realizado todos los aos en el mes de junio nos
indica que el TOP500 Supercomputing Sites verifica que los clsteres
alcanzan el 74.60% con mayor rendimiento del mundo. Las empresas u
organizaciones han optado por proceder a usar las sper computadoras
con GPUs y componentes con mas poder que realizan estos procesos
para distintos tipos de investigaciones que necesiten determinados
procesos en cantidades de tiempo relativamente cortas.
El estudio de caso es, por lo tanto, una tcnica grupal que
fomenta la participacin del alumno, desarrollando su espritu crtico.
Adems lo prepara para la toma de decisiones, ensendole a defender
sus argumentos y a contrastarlos con las opiniones del resto del grupo.

INDICE
Portada . 1
Resumen... 2
Introduccin.. 3
ndice..... 4
Planteamiento del problema.. 5
Marco Terico.. 6-11
Hiptesis del tema... 11
Metodologa.. 12
Conclusin. 13
Referencias... 14

PLANTEAMIENTO DEL PROBLEMA


Actualmente el proceso paralelo consiste en hacer una tarea en tiempo
simultneamente es decir que dos tareas se pueden procesarse al mismo tiempo,
el paralelismo se ha empleado durante muchos aos, sobre todo en la
computacin de altas prestaciones, pero el inters en ella ha crecido ltimamente
debido a las limitaciones fsicas que impiden el aumento de la frecuencia con ellos
nuevas tecnologas han ido creciendo y han sido creadas incorporando nuevas
tcnicas de paralelismo en la unidad de procesamiento grafico (GPU) haciendo
que el alcance econmico hacia la sociedad u organizaciones sea difcil de
adquirir.

MARCO TERICO
Antecedentes

Unidad
de
procesamiento
grfico o GPU (Graphics
Processor Unit) es un coprocesador dedicado al procesamiento de
grficos u operaciones de coma flotante, para aligerar la carga de trabajo
del procesador central en aplicaciones como los videojuegos o
aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo
relacionado con los grficos se procesa en la GPU, la unidad central de
procesamiento (CPU) puede dedicarse a otro tipo de clculos (como
la inteligencia artificial o los clculos mecnicos en el caso de
los videojuegos).
La GPU implementa ciertas operaciones grficas llamadas
primitivas optimizadas para el procesamiento grfico. Una de las primitivas
ms comunes para el procesamiento grfico en 3D es el antialiasing, que
suaviza los bordes de las figuras para darles un aspecto ms realista.
Adicionalmente existen primitivas para dibujar rectngulos, tringulos,
crculos y arcos. Las GPU actualmente disponen de gran cantidad de
primitivas, buscando mayor realismo en los efectos.

Si bien en un computador genrico no es posible reemplazar la


CPU por una GPU, hoy en da las GPU son muy potentes y pueden
incluso superar la frecuencia de reloj de una CPU antigua (ms de 1,5
gigahercios). Pero la potencia de las GPU y su veloz ritmo de desarrollo
reciente se deben a dos factores diferentes. El primer factor es la alta
especializacin de las GPU, ya que al estar pensadas para desarrollar una
sola tarea, es posible dedicar ms silicio en su diseo para llevar a cabo
esa tarea ms eficientemente. Por ejemplo, las GPU actuales estn
optimizadas para clculo con valores en coma flotante, predominantes en
los grficos 3D.
Por otro lado, muchas aplicaciones grficas con llevan un alto
grado de paralelismo inherente, al ser sus unidades fundamentales de
clculo (vrtices y pxeles) completamente independientes. Por tanto, es
6

una buena estrategia usar la fuerza bruta en las GPU para completar ms
clculos en el mismo tiempo. Los modelos actuales de GPU suelen tener
cientos de procesadores shader unificados que son capaces de actuar
como vertex shaders, y como pixel shaders, o fragment shaders. De este
modo, una frecuencia de reloj de unos 1-1,5 GHz (el estndar hoy en da
en las GPU de ms potencia), es muy baja en comparacin con lo ofrecido
por las CPU (3,8-4 GHz en los modelos ms potentes, no necesariamente
ms eficientes), se traduce en una potencia de clculo mucho mayor
gracias a su arquitectura en paralelo.
Una de las mayores diferencias con la CPU estriba en su
arquitectura. A diferencia del procesador central, que tiene
una arquitectura de von Neumann, la GPU se basa en el Modelo
Circulante. Este modelo facilita el procesamiento en paralelo, y la gran
segmentacin que posee la GPU para sus tareas.

Arquitectura de la GPU

Una GPU est altamente segmentada, lo que indica que posee


gran cantidad de unidades funcionales. Estas unidades funcionales se
pueden dividir principalmente en dos: aqullas que procesan vrtices, y
aqullas que procesan pxeles. Por tanto, se establecen el vrtice y el
pxel como las principales unidades que maneja la GPU.
Adicionalmente, y no con menos importancia, se encuentra
la memoria. sta destaca por su rapidez, y va a jugar un papel relevante a
la hora de almacenar los resultados intermedios de las operaciones y las
texturas que se utilicen.
Inicialmente, a la GPU le llega la informacin de la CPU en
forma de vrtices. El primer tratamiento que reciben estos vrtices se
realiza en el vertex shader. Aqu se realizan transformaciones como la
rotacin o el movimiento de las figuras. Tras esto, se define la parte de
estos vrtices que se va a ver (clipping), y los vrtices se transforman en

pxeles mediante el proceso de rasterizacin. Estas etapas no poseen una


carga relevante para la GPU.
Donde s se encuentra el principal cuello de botella del chip
grfico es en el siguiente paso: el pixel shader. Aqu se realizan las
transformaciones referentes a los pxeles, tales como la aplicacin de
texturas. Cuando se ha realizado todo esto, y antes de almacenar los
pxeles
en
la cach,
se
aplican
algunos
efectos
como
el antialiasing, blending y el efecto niebla.
Otras unidades funcionales llamadas ROP toman la informacin
guardada en la cach y preparan los pxeles para su visualizacin.
Tambin pueden encargarse de aplicar algunos efectos. Tras esto, se
almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar
directamente estos pxeles para su representacin en un monitor digital, o
generar una seal analgica a partir de ellos, para monitores analgicos.
Si es este ltimo caso, han de pasar por un DAC, Digital-Analog Converter,
para ser finalmente mostrados en pantalla.

Revolucin de la GPU en la computacin

Diariamente

enfrentamos

problemas

para

mejorar

el

rendimiento lo cual sirve para resolver un problema con ms rapidez,


estos son los puntos que revolucionan el proyecto CUDA de NVIDIA.

Con CUDA, podemos enviar el cdigo C, C++ y Fortran directamente a la


GPU, sin la necesidad de un lenguaje de montaje.

Los desarrolladores en empresas como Adobe, ANSYS, Autodesk,


MathWorks y Wolfram Research estn despertando al gigante dormido (la
GPU) para aplicar la computacin con fines especficos cientficos y de
ingeniera en una amplia gama de plataformas.

Usando lenguajes de alto nivel, las aplicaciones aceleradas por la GPU


ejecutan la parte secuencial de su carga de trabajo en la CPU (que, a su
vez, est optimizada para el rendimiento de threads nicos) mientras se
acelera el procesamiento paralelo en la GPU. Esto se llama "computacin
de la GPU".

La computacin de la GPU es posible debido a que la GPU actualmente realiza


mucho ms que renderizar grficos: acta con un teraflop de rendimiento de punto
flotante y resuelve las tareas de aplicaciones diseadas para cosas tan diversas
como las finanzas o la medicina.
CUDA se ha implementado ampliamente a travs de miles de aplicaciones e
informes de investigacin publicados, adems de ser compatible con una base
instalada de ms de 375 millones de GPU aptas para CUDA en PC porttiles,
estaciones de trabajo, clsteres de computacin y supercomputadoras.

Clculo acelerado en la GPU


El clculo acelerado en la GPU puede definirse como el uso de
una unidad de procesamiento grfico (GPU) en combinacin con una CPU
para acelerar aplicaciones de empresa, consumo, ingeniera, anlisis y
clculo cientfico. NVIDIA lo introdujo en 2007 y, desde entonces, las GPU
aceleradoras

han

energticamente

pasado
eficientes

instalarse
de

en

laboratorios

centros

de

datos

gubernamentales,

universidades, grandes compaas y PYMEs de todo el mundo. Las GPUs


aceleran las aplicaciones de plataformas diversas, desde automviles
hasta telfonos mviles y tablets, drones y robots.
El clculo acelerado en la GPU ofrece un rendimiento sin
precedentes ya que traslada las partes de la aplicacin con mayor carga
computacional a la GPU y deja el resto del cdigo ejecutndose en la
9

CPU. Desde la perspectiva del usuario, las aplicaciones simplemente se


ejecutan ms rpido.
Una forma sencilla de entender la diferencia entre la CPU y la
GPU es comparar la forma en que procesan las tareas. Una CPU est
formada por varios ncleos optimizados para el procesamiento en serie,
mientras que una GPU consta de millares de ncleos ms pequeos y
eficientes diseados para manejar mltiples tareas simultneamente.

Aplicaciones
Qumica cuntica: es una de las disciplinas donde se requiere
de un gran poder de cmputo. Por supuesto que han sido reportadas
varias aplicaciones donde las GPUs han sido utilizadas. Varias de esas
aplicaciones estn relacionadas con la solucin de las ecuaciones de
Kohn-Sham, dentro de la teora de funcionales de la densidad, y la
solucin de las ecuaciones de Hartree-Fock. Tambin han sido reportadas
aplicaciones relacionadas con mtodos basados en la funcin de onda
que estiman la correlacin electrnica, o energas de ionizacin. La
potencia de las GPUs se ha evidenciado con aplicaciones relacionadas
con el modelo de tomos en molculas.
Identificar la placa oculta en las arterias: Los infartos son la
principal causa de muerte en todo el mundo. Harvard Engineering,
Harvard Medical School y Brigham & Women's Hospital se han unido para
usar las GPU para simular el flujo sanguneo e identificar la placa arterial
oculta sin las tcnicas invasivas de diagnstico por imgenes o la ciruga
exploratoria.

10

Analizar el flujo del trfico areo: El National Airspace System


administra la coordinacin del flujo del trfico areo en todo el pas. Los
modelos de computacin ayudan a identificar nuevas formar de mejorar la
congestin y mantener el movimiento del trfico areo eficiente. Usando la
potencia computacional de las GPU, un equipo de la NASA obtuvo un
enorme aumento en el rendimiento y redujo el tiempo del anlisis de diez
minutos a tres segundos.
Visualizar molculas: Una simulacin molecular llamada NAMD
(dinmica molecular a nano escala) obtiene un gran aumento en el
rendimiento con las GPU. La aceleracin es resultado de la arquitectura
paralela de las GPU, que les permite a los desarrolladores de NAMD llevar
a la GPU partes de la aplicacin con uso intensivo de la computacin
usando el kit de herramientas CUDA.
Industria Petrolera: procesamiento ssmico, migracin de tiempo
reversible
Medios y Entretenimiento: edicin de video, render/codificacin
de video, ray trace.

HIPOTESIS
Realmente el costo que se le asigna a las GPUs de NVIDIA es
sobrevalorado, porque stas incorporan procesos paralelos?
Desde hace 10 aos el proyecto CUDA de NVIDIA ha dado sus
frutos y realmente el termino sobrevalorado no encajara con ella, ya que
el precio se determinar por las tareas que pueda realizar, lo que significa
que mientras ms tareas en ms reas pueda realizar es ah donde el
precio se ver justificado ya que es una herramienta ms para poder
describir y redisear nuevos conocimientos.
11

12

METODOLOGIA
Resultados
En base a los resultados obtenidos con la investigacin
podemos estipular que el precio no es sobrevalorado ya que esta es una
herramienta de alto nivel la cual la fase del desarrollo es complicada por
todos los estudios que se llevan a cabo para que esta herramienta pueda
ser auto-sustentable, el precio que se le asigna a la misma no puede
cambiar por todos los billones de procesos que puede realizar en
segundos y toda las reas en las que esta se puede aplicar, si hablamos
de costo-beneficio el producto estara siendo redituable, enumeraremos
los puntos a resaltar:

Funciona con 1 teraflop y como sabemos es la cantidad


de billones de operaciones de nmeros de punto flotante
que puede realizar un computador en un segundo siendo
una de las ms rpidas.

Optimizacin en render para cualquier tipo de actividad


grafica

como

pueden

ser

juegos,

proyectos

de

construccin, trfico areo, medicina, etc.

A corto plazo tendremos beneficios ya que podremos


resolver problemas en menor tiempo gracias a la
velocidad que la GPU tiene.

Y a largo plazo podremos crear o editar material y con el


que podremos hacer venta de nuestro propio producto
gracias a esta herramienta.

13

CONCLUSION
Como

hemos

podido

observar

la

GPU

en

el

mbito

computacional es importante por todo lo que podemos desarrollar con esta


simple herramienta, esta se puede aplicar al rea de la qumica cuntica
ya que estas necesitan de poder para resolver ecuaciones , en anatoma
para poder representar de manera grfica el genoma humano al igual que
hacer la representacin de las nano partculas, en la aeronutica, entre
otras aplicaciones que esta tiene, sabemos que al meternos en ciencias
computacionales como lo son fsica, qumica cuntica necesitamos de
mayor poder y NVIDIA nos provee de esta ya que est basada en los
procesos paralelos los cuales esta optimizados y cmo podemos observar
su rango de errores es relativamente pequeo comparado con los
beneficios que este trae.

14

REFERENCIAS

https://es.wikipedia.org/wiki/Computaci%C3%B3n_paralela

http://www.prnewswire.com/news-releases/supermicro-presenta-losnuevos-nvidia-tesla-gpu-superservers-optimizados-para-computacionparalela-extrema-296768321.html

http://la.nvidia.com/object/cuda_home_new_la.html

http://www.nvidia.es/object/cuda-parallel-computing-es.html

http://la.nvidia.com/object/tesla-supercomputing-solutionsla.html#source=pr

https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segu
ndo

http://coleccion.educ.ar/coleccion/CD6/contenidos/teoricos/modulo2/m2-6.html

https://es.wikipedia.org/wiki/TOP500

https://es.wikipedia.org/wiki/Supercomputadora

https://es.wikipedia.org/wiki/Unidad_de_procesamiento_gr
%C3%A1fico#Arquitectura_de_la_GPU

http://www.amazon.com/nVidia-Computing-Accelerator-ProcessingKepler/dp/B008X8Z95W

http://www.nvidia.com/object/tesla-servers.html

15

16