Está en la página 1de 14

TALLER DE INVESTIGACION

MUÑOZ CELAYA ROBERTO CARLOS

3621

TECNOLOGIA DE LAS GPU

ANIMAS GALAVIZ ABRAHAM MISAEL

LOPEZ MARTINEZ DAYREN ISABEL

REYES CASTAÑEDA DANIEL ELI


Contenido
INTRODUCCION .............................................................................................................................3

PROBLEMÁTICA .............................................................................................................................4

OBJETIVOS .....................................................................................................................................5

JUSTIFICACION ..............................................................................................................................9

TIPOS ...........................................................................................................................................10

PLANIFICACION ...........................................................................................................................11

CÓMO FUNCIONA UN GPU ..................................................................................................12

ESTADO DE ARTE .........................................................................................................................13


INTRODUCCION

En esta investigación se abordara el tema de tecnologías de las GPU que esta tecnologías
proporcionan un escalamiento inteligente de las aplicación y es la que acelera de forma
impresionante el flujo de trabajo.

Las tecnologías han evolucionado a tal grado que estos sistemas ya tienen una enorme
capacidad de almacenamiento en los microprocesadores y estos les proporcionan una
capacidad de cálculo impresionante.

Igual han tenido muchas estrategias novedosas, que estas se basan en el procesamiento
y ejecución y estas las representan las tecnologías que aprovechan esta capacidad
computacional de las tarjetas gráficas o de las GPU.

Ahora la gran potencia de cálculo de las GPU para las aplicaciones no relacionadas con los
gráficos, en lo que hora se denomina GPU.

Estos métodos se basan en la repetición de un número de operaciones sencillas, por esto


el desarrollo de los ordenadores se han convertido en posibles algoritmos que hasta hace
poco era impecables.
PROBLEMÁTICA

Se tiene una computadora en donde están descargados varios juegos donde al principio
era bastante rápido la manera en que cargaba los juegos la carga del GPU estaba entre
95 – 100%, con el tiempo el GPU empezaba a cargar con un 75% y baja de 70 – 50% y
los FPS están menos estables, los juegos cargan bien pero la carga del GPU siempre
esta baja.

Se probaron distintos drivers, de los más nuevos a los más antiguos y no hay cambio

Estan puesta la opción de energía de Windows en máximo rendimiento y no hay cambio.

Mi PC es

i5 6600k
Ram Corsair Vengeance 3200mhz 2x8gb
Asus Z170 Pro gaming
EVGA Gtx 1070 FTW
Corsair RM650x

Lo que se busca arreglar en esta computadora es que el GPU este on la carga normal de
cuando se empezó a usar.

Los GPU tienen grandes cantidades de núcleos de procesamiento de reloj relativamente


bajas.

Se tiene como ventaja que los vértices son relativamente sencillos para esas unidades de
procesamientos gráficos.

Lo que buscamos es en términos sencillos se trata de obtener la información de los


vértices, previamente calculada por el CPU, y procesar su ordenamiento espacial,
rotación, y qué segmento del vértice será gráficamente visible, para así continuar con el
pixelado.

La CPU no supone un problema, con prime 95, occt, intelburntest y demas se pone al
100% y los benchs van perfectos. En bios no he tocado nada raro, salvo activar XMP y
cambiar multiplicador y vcore para ponerlo 4.4. Pero aun asi como he comentado, esto me
paso con la CPU oceada, y con todo de stock tambien.
MARCO TEORICO

Hoy en día, El máximo con el auge de los equipos Gaming, la tarjeta gráfica es uno de los
principales componentes de cualquier PC, y de hecho en estos casos suele ser el componente más
caro. En este documento vamos a explicar qué es una tarjeta gráfica o un sistema de graficos, cuáles
son sus funciones, qué tipos hay, un poco de historia sobre ellas.
¿Qué es la tarjeta gráfica?
La tarjeta gráfica, también llamada tarjeta de vídeo, adaptador de pantalla o simplemente GPU
(heredado del nombre de su procesador gráfico) es una tarjeta de expansión o un circuito integrado
que se encarga de procesar los datos que le envía el procesador del ordenador y transformarlos en
información visible y comprensible para el usuario, representado en el dispositivo de salida, el
monitor.

Actualmente podemos encontrar dos tipos de tarjetas gráficas: las integradas y las dedicadas.
Las gráficas integradas
Antiguamente, muchas placas base integraban su propia GPU entre sus circuitos, pero actualmente
esto se dejó de hacer para dar paso a las llamadas iGPU o gráficas integradas, que vienen ya en el
propio procesador (las placas base, no obstante, siguen integrando las salidas de vídeo). Estas
gráficas integradas tienen lógicamente una potencia bastante reducida, y además necesitan tomar
parte de la memoria RAM del sistema para ellas mismas.

En la actualidad, tanto AMD como Intel cuentan con gráficas integradas en sus procesadores. El
principal motivo es que los procesadores gráficos son muy potentes a la hora de realizar procesos
paralelos, y ubicar la GPU junto con la CPU permite utilizar los gráficos integrados para realizar
muchos procesos además del procesamiento de gráficos propiamente dicho (Ver arquitectura de
sistemas heterogéneos).
Las gráficas dedicadas
Las tarjetas gráficas dedicadas son las que todos conocemos: placas de vídeo que tienen su propia
GPU, memoria gráfica, salidas de vídeo y sistema de refrigeración y que se conectan a la placa base
a través de un puerto PCI-Express. Proporcionan un nivel de rendimiento muy superior a los gráficos
integrados, pero también son bastante más caras, si bien nos permiten el poder actualizar o sustituir
el componente de una manera mucho más sencilla.
Las salidas de vídeo
Se conoce como salidas de vídeo a los puertos de conexión que se utilizan para conectar la tarjeta
gráfica al monitor. Hay muchos tipos de salida de vídeo diferentes, pero en la actualidad se utilizan
únicamente las siguientes:
• VGA (prácticamente en desuso): significa Video Graphics Array, y fue el estándar de vídeo
analógico en la década de los 90. Estaba diseñada para monitores CRT, y sufre bastante de
ruido eléctrico y distorsión en la conversión de analógico a digital, por lo que los cables VGA
suelen llevar filtro de línea en el propio cable. Su conector se llama D-sub y tiene 15 pines.
• DVI: Significa Digital Visual Interface, y sustituye a la anterior. Es totalmente digital, por lo
que no hay que hacer conversión, eliminando gran parte del ruido eléctrico y la distorsión.
Ofrece una mayor calidad y mayores resoluciones posibles.
• HDMI: Significa High Definition Multimedia Interface, y actualmente es el que más se utiliza.
Cuenta con cifrado sin compresión y es capaz de transmitir audio a la vez que vídeo,
ofreciendo resoluciones todavía más altas.
• DisplayPort: Actualmente es el “rival” del HDMI. Se trata de una tecnología propietaria de
VESA que también transmite audio y vídeo, pero a mayor resolución y frecuencia que HDMI.
Tiene como ventaja que está libre de patentes, por lo que es más fácil que su uso se extienda
(actualmente prácticamente todas las gráficas llevan DisplayPort). Cuenta con una versión
de tamaño reducido llamada Mini DisplayPort de iguales características que permite la
inclusión de muchos más puertos en una misma tarjeta gráfica.
Un poco de historia ¿por qué se inventaron las tarjetas gráficas?

• La historia de las tarjetas gráficas comienza a finales de los años 60, cuando se deja de
utilizar impresoras como principal elemento de visualización y entran en juego los
monitores. Las primeras tarjetas gráficas solo eran capaces de mostrar una resolución de 40
x 25 píxeles monocromo, hasta que aparecieron los primeros chips gráficos dedicados como
el Motorola 6845.

• Más tarde comenzaron a aparecer las primeras videoconsolas y el éxito del PC (Personal
Computer, ordenador doméstico) tuvo un gran auge, abaratando mucho los costes de
producción dado que se hacían ya en masa. Al principio las tarjetas gráficas que se
comercializaban eran de 80 columnas, que añadían un modo texto de hasta 80 x 25
caracteres (no píxeles), principalmente para software CP/M. Después, llegaron los famosos
IBM PC que popularizaron el diseño “intercambiable” de las tarjetas gráficas. La más
extendida fue la MDA (Monochrome Display Adapter) que IBM creó en 1981. Esta gráfica
contaba con una memoria gráfica de 4 KB y era capaz de representar en el monitor hasta 25
líneas de texto de 80 caracteres cada una.

Las mejores tarjetas gráficas


Cada año, o a lo sumo cada dos años, llegan al mercado nuevas tarjetas gráficas más potentes y con
nuevas tecnologías (como el nuevo Ray Tracing para los videojuegos) que nos ofrecen una
experiencia mucho más realista en los juegos.

Hoy en día, las tarjetas gráficas más potentes para gaming que podemos encontrar llegan de la mano
de NVIDIA, entre las que destacan los modelos de la serie 10 (Pascal) y de la serie 20 (Turing). Dentro
de la serie 10 de NVIDIA podemos encontrarnos con la NVIDIA GTX 1060 (aunque este modelo se
considera más como gama media), NVIDIA GTX 1070, GTX 1070 Ti, GTX 1080 y GTX 1080 Ti. Dentro
de la serie 20, también conocida como RTX, de NVIDIA podemos optar por la NVIDIA RTX 2060 (con
una potencia superior a la NVIDIA GTX 1070), NVIDIA RTX 2070, RTX 2080 y el modelo más avanzado
y potente de todos, la NVIDIA RTX 1080 Ti.
OBJETIVOS

La elaboración de nuestro proyecto se basa en la solución del problema de una


computadora que le está fallando el GPU, al cargar sus juegos.

Los objetivos generales de este proyecto es la solución del problema, explicación del
problema, en la implementación sobre GPU utilizadas en el problema se analizan el
problema. Además, se tienen en cuenta que el problema es de estrategias de
optimización para GPU, con el fin de explotar adecuadamente la enorme capacidad de
cómputo de las tarjetas, y de ocultar la latencia en los accesos a memoria.

El propósito de esto es ver desde la perspectiva del usuario, las aplicaciones que se
ejecutan, así como la resolución del problema podemos observar que en la solución del
problema se ejecuta más rápido la capacidad del procesamiento masivamente en el GPU
para que esta aumente el rendimiento.

Así como no podemos olvidar que las tarjetas de video en las computadoras paralelizan
aún más la naturaleza ya paralela del procesamiento.
JUSTIFICACION

La computación de GPU es el uso de una GPU (unidad de procesamiento de gráficos) como


un coprocesador para acelerar las CPU para la computación científica y de ingeniería de
propósito general.

La unidad de procesamiento de gráficos es uno de los componentes más importantes en


los ordenadores modernos. Es aquí donde se construyen los increíbles gráficos que
podemos ver en los videojuegos modernos. Esta vez en Hardware para novatos vamos a
hablar del GPU.

Como su nombre lo dice, este componente se encarga de procesar lo gráficos dentro de


los sistemas de cómputo. Sin embargo, debemos tener muy en cuenta que con el creciente
auge de las unidades gráficas, cada día adquieren más y más importancia en otros usos,
como la gestión de redes y la supercomputación.
TIPOS

▪ Tartas dedicadas: Este tipo de unidades gráficas son las que proporcionan mayor
potencia. Como su nombre lo indica, tienen una serie de especificaciones y están
expresamente diseñadas para cumplir con sus tareas específicas, por lo que son
mucho más eficientes. Generalmente se suele entender que una tarjeta dedicada
es aquella que se integra a la tarjeta madre mediante un puerto aparte.
▪ Integrados gráficos: A diferencia de las unidades dedicadas, las integradas utilizan
la memoria del sistema para realizar sus funciones. Son este tipo de soluciones las
más comunes en los ordenadores modernos, estando hasta en el 90% de los
equipos de cómputo, incluyendo smartphones, tablets y la mayoría de PCs.
▪ Híbridos: Diseñadas para mantener precios relativamente bajos y al mismo tiempo
asegurarse niveles de potencia adecuados, las unidades gráficas híbridas también
comparten la memoria del sistema, pero para disminuir el tiempo de latencia de esta
última, integran una cantidad limitada de memoria propia que se encarga de realizar
las labores inmediatas.
PLANIFICACION

La manera en la que procedemos a trabajar nosotros continuando con el problema ya


mencionado ir entregando un avance cada 15 días para que el docente nos pueda informar
de errores o comentarios que nos pueda dar para mejorar este trabajo, los procesos que
realizaremos y nos enfocaremos en darle continuidad a la solución de este problema.

Los tres tenemos conocimiento del problema y consigo la solución y aportaremos cada uno
la opinión de este.

Dayren

Las función de la GPU y consigo resolveremos este problema, estas tienen grandes
cantidades de núcleo del procesamiento de reloj relativamente bajas, en otras palabras este
proceso es algo complejo y requiere de cargas de procesamientos que se aplican e todas
las capas y efectos necesarios para crear texturas complejas y obtener gráficos lo más
realista posible.
CÓMO FUNCIONA UN GPU

A diferencia de los procesadores centrales, diseñados con pocos núcleos pero altas
frecuencias de reloj, las GPU suelen tener grandes cantidades de núcleos de
procesamiento a frecuencias de reloj relativamente bajas. En la actualidad, la mayoría
de los núcleos de procesamiento están dirigidos a dos funciones: procesamiento de
vértices y de píxeles.

El procesamiento de vértices es relativamente sencillo para las unidades de


procesamiento gráfico modernas, siendo de los que menos recursos consumen. En
términos sencillos se trata de obtener la información de los vértices, previamente
calculada por el CPU, y procesar su ordenamiento espacial, rotación, y qué segmento
del vértice será gráficamente visible, para así continuar con el pixelado.

A continuación, se procede a procesar los pixeles, o en otras palabras, los gráficos


observables como tal. Éste es el proceso más complejo y que requiera más carga de
procesamiento, pues se aplicaran todas las capas y efectos necesarios para crear
texturas complejas y obtener gráficos lo más realistas posibles.

Por último, una vez procesada la información gráfica, esta es llevada a un monitor digital
o analógico (en este último caso, previo paso por un convertidor), según las necesidades
propias del ordenador.
ESTADO DE ARTE

¿Qué?

Las tendencias de la computación en la nube y la IA están impulsando un cambio


tectónico en los diseños de los centros de datos, de modo que lo que una vez fue un mar
de servidores sólo de CPUs, ahora es la computación acelerada por el GPU», dijo
Jensen Huang, fundador y CEO de Nvidia. “La GPU A100 es un salto cuántico en el
rendimiento de IA de 20 veces y un acelerador del aprendizaje automático de principio a
fin, desde el análisis de datos hasta la capacitación y la inferencia. Por primera vez, las
cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una sola
plataforma. A100 aumentará simultáneamente el rendimiento y reducirá el costo de los
centros de datos.
¿Cómo?
GPU de múltiples instancias: MIG, una nueva función técnica, que permite que una
sola GPU A100 se particiones en hasta siete GPUs por separado, para poder
proporcionar diferentes grados de procesamiento para trabajos de diferentes tamaños,
lo que permite una utilización óptima y el máximo retorno de la inversión.
Según la marca, estas nuevas características hacen que la A100 sea ideal para cargas
de trabajo diversas y exigentes, que incluyen entrenamiento e inferencia de IA, así como
simulación científica, IA conversacional, sistemas de recomendación, genómica, análisis
de datos de alto rendimiento, modelos sísmicos y pronósticos financieros.
¿Cuándo?
El fabricante anunció que la primera GPU basada en su arquitectura de Ampere, Nvidia
A100, se está fabricando y enviando a los clientes de todo el mundo.
La A100 se presenta como la de mayor rendimiento de la compañía hasta la fecha dentro
de sus ocho generaciones de GPUs. Es un acelerador de carga de trabajo universal, que
también está diseñado para el análisis de datos, la computación científica y los gráficos
en la nube, especificó la marca.
Bibliografias

• Antonio Castrejano. (2018). Tarjetas Graficas. 2020, de Nvida Sitio web:


http://isa.uniovi.es/docencia/SIGC/pdf/Evolucion_de_las_tarjetas_grafica
s.pdf
• Mario Castañeda. (2019). Por que usar una GPU. 2020, de AMD Sitio web:
http://tarjetasgraficasjdc.blogspot.com/p/que-es-una-tarjeta-grafica.html
• Cristo Torres. (2019). Tarjeta Grafica. 2020, de Hardware 2.0 Sitio web:
https://sites.google.com/site/hardware2puntes/partes-de-un-
ordenador/unidad-central/tarjeta-grafica
• Misael Medrano. (2020). Que es una GPU. 2020, de Hardzone Sitio web:
https://hardzone.es/tarjeta-grafica/

También podría gustarte