Está en la página 1de 15

Tipos de procesos de Rendering

Ray casting

Es una técnica de representación utilizada en gráficos por computadora y geometría

computacional. Es el uso de la intersección rayo-superficie para resolver una variedad de

problemas en gráficos por ordenador y geometría computacional, es un algoritmo de

renderizado que nunca traza recursivamente rayos secundarios. Es un proceso útil para

identificar y resolver una amplia gama de problemas asociados con los gráficos.

Los algoritmos basados en ray tracing operan en orden de imagen para renderizar escenas

tridimensionales a imágenes bidimensionales. Los rayos geométricos son realizados desde

el ojo del observador para calcular la radiancia que se desplaza hacia el observador en la

dirección del rayo. La rapidez y simplicidad del trazado de los rayos viene de computar el color

de la luz sin trazar recursivamente rayos adicionales para obtener la radiancia incidente en el

punto donde el rayo intercepta. Aunque no se pueda renderizar con exactitud

las reflexiones, refracciones, y las sombras. Todos estos elementos pueden ser simulados en un

cierto grado, con el uso ingenioso de mapas de textura u otros métodos. Su velocidad y computo

lo hizo un método práctico de renderizado para los primeros videojuegos de 3D con

renderización de escenas en tiempo real.

La proyección de rayos es rápida, ya que solo se necesita un cálculo para cada línea vertical de

la pantalla. También más rápida, ya que está limitada por una o más restricciones

geométricas. Esta es una de las razones por las que la proyección de rayos fue la herramienta de

renderizado más popular en los primeros videojuegos en 3D. (Peddie, 2019 )

Ray casting crea una perspectiva tridimensional en un mapa bidimensional. También transforma

una forma limitada de datos en una proyección tridimensional con la ayuda de trazar rayos

desde el punto de vista hasta el volumen de visualización. Los rayos se pueden emitir y rastrear

en grupos según ciertas restricciones geométricas. En

ray casting, se obtiene un rayo desde el píxel a través de


la cámara y se calcula la intersección de todos los objetos en la imagen. Luego, se obtiene el

valor de píxel de la intersección más cercana y se establece como base para la proyección. 

Video explicativo

https://www.youtube.com/watch?v=EFbjd3ShAlQ

Gouraud shading

La técnica usada en gráficos por computadora que simula efectos de luz y color sobre

superficies de objetos es llamada sombreado Gouraud. Fue publicada por Henri Gouraud en

1971. Esta técnica de sombreado permite suavizar superficies con una carga computacional

menor que con otros métodos basados en el cálculo píxel a píxel. El sombreado de Gouraud se

usa para lograr una iluminación suave en superficies de polígonos bajos sin los pesados

requisitos computacionales de calcular la iluminación para cada píxel. 

Para realizarla se calculan los valores de luminosidad de cada vértice promediando los valores

de las superficies que en él convergen mediante el método de reflexión de Phong. Luego, se

calculan las intensidades de cada píxel de las superficies implicadas mediante interpolación

bilineal a partir de los valores estimados de los vértices. De esta manera, los valores de

luminosidad de los polígonos consisten en el gradiente formado por los valores de los vértices.

El principio básico del método es calcular las superficies normales en los vértices de

los polígonos en un modelo informático 3D. Estas normales luego se promedian para todos los
polígonos que se encuentran en cada punto. Luego se realizan cálculos de iluminación para

producir intensidades de color en los vértices. El cálculo de iluminación utilizado por Gouraud

se basó en el modelo de iluminación difusa lambertiana . (Goulekas, 2001)

Estos valores de color luego se interponen a lo largo de los bordes de los polígonos. Para

completar el sombreado, la imagen se rellena con líneas dibujadas a lo largo de la imagen que se

interpolan entre las intensidades de los bordes calculadas previamente.

El sombreado de Gouraud es muy superior al sombreado plano, que requiere un procesamiento

significativamente menor que el de Gouraud, pero proporciona a los modelos de polígonos

bajos un aspecto nítido y facetado.

Video explicativo

https://youtu.be/T-GKzksIb-4

Texture mapping
El mapeo de texturas  es una técnica para definir detalles de alta frecuencia , textura superficial

o información de color en un gráfico generado por computadora o modelo 3D . La técnica

original fue iniciada por Edwin Catmull en 1974. 

Esta técnica originalmente se refería al mapeo difuso, un método que simplemente mapeaba

píxeles de una textura una superficie3D. Es un método para añadir detalles, colores o texturas

exteriores a un gráfico generado por ordenador o un modelo 3D. El "texture map" es aplicado a

la zona exterior de la figura o el polígono. Este proceso es similar a aplicar papel de regalo a

una caja blanca.

Los mapas de textura pueden adquirirse mediante escaneo/fotografía digital , diseñarse

en software de manipulación de imágenes como GIMP , Photoshop o pintarse sobre superficies

3D directamente en una herramienta de pintura 3D como Mudbox o zbrush .

Para la aplicación de texturas a cada vértice de un polígono se le asigna una coordenada de

textura. Esto se puede hacer a través de la asignación explícita de atributos de vértice , editados

manualmente en un paquete de modelado 3D a través de herramientas de desenvolvimiento

UV . 

El mapeo de texturas mapea la superficie del modelo en el espacio de la textura; en este espacio,

el mapa de textura es visible en su forma no distorsionada. Las herramientas de

desenvolvimiento UV generalmente brindan una vista en el espacio de la textura para la edición

manual de las coordenadas de la textura. Algunas técnicas de representación, como la dispersión

del subsuelo, se pueden realizar aproximadamente mediante operaciones de espacio de textura.

Multitexturing es el uso de más de una textura a la vez en un poligono. Por ejemplo, un light ma

p texture puede ser usada para iluminar la superficie del objeto como alternativa a recalcular la l

uz en esa parte del objeto cada vez que es renderizado. Otra técnica del multitexturing es bump 

mapping que puede dar una buena apariencia en superficies complejas, como la corteza de un ár

bol o cemento áspero, esto ofrece detalles de luces añadido a los detalles del color. (Vince,

2012)
Video explicativo

https://youtu.be/PjGCtnEDDeU

Environment mapping

En gráficos por computadora , el mapeo del entorno, o el mapeo de reflexión, es un método de

iluminación eficiente basada en imágenes para aproximar la apariencia de

una superficie reflectante por medio de una textura precalculada . La textura se utiliza para

almacenar la imagen del entorno distante que rodea al objeto renderizado.

La primera técnica fue el mapeo de esferas , en el que una sola textura contiene la imagen del

entorno reflejada en un espejo esférico . Ha sido superado casi por completo por el mapeo de

cubos , en el que el entorno se proyecta en las seis caras de un cubo y se almacena como seis

texturas cuadradas o se despliega en seis regiones cuadradas de una sola textura. 

El mapeo de reflejos es uno de varios enfoques para la representación de reflejos , junto con, por

ejemplo , reflejos en el espacio de la pantalla o trazado de rayos , que calcula el reflejo exacto al

rastrear un rayo de luz y seguir su trayectoria óptica . El color de reflexión utilizado en el

cálculo de sombreado en un píxel se determina calculando el vector de reflexión en el punto del

objeto y asignándolo al texel en el mapa de entorno. Esta técnica a menudo produce resultados


que son superficialmente similares a los generados por el trazado de rayos, pero es menos

costoso computacionalmente ya que el valor de radiancia del reflejo proviene del cálculo de los

ángulos de incidencia .y reflexión, seguida de una búsqueda de texturas, en lugar de rastrear un

rayo contra la geometría de la escena y calcular el resplandor del rayo, lo que simplifica la carga

de trabajo de la GPU .

El mapeo del entorno es generalmente el método más rápido para renderizar una superficie

reflectante. Para aumentar aún más la velocidad de renderizado, el renderizado puede calcular la

posición del rayo reflejado en cada vértice. Luego, la posición se interpola a través de los

polígonos a los que se une el vértice. Esto elimina la necesidad de volver a calcular la dirección

de reflexión de cada píxel.

Si se usa el mapeo normal , cada polígono tiene muchas caras normales (la dirección hacia la

que mira un punto dado en un polígono), que se pueden usar junto con un mapa de entorno para

producir un reflejo más realista. En este caso, el ángulo de reflexión en un punto dado de un

polígono tendrá en cuenta el mapa normal. Esta técnica se utiliza para hacer que una superficie

plana parezca texturizada, por ejemplo, metal corrugado o aluminio cepillado.


Video explicativo

https://youtu.be/PeAvKApuAuA

Bump mapping

El mapeo de relieve es una técnica de mapeo de texturas en gráficos por computadora para

simular golpes y arrugas en la superficie de un objeto. Esto se logra perturbando las superficies

normales del objeto y usando la normal perturbada durante los cálculos de iluminación. El

resultado es una superficie aparentemente irregular en lugar de una superficie lisa, aunque la

superficie del objeto subyacente no cambia. James Blinn introdujo el mapeo de relieve en 1978. 

El mapeo normal es la variación más común del mapeo de relieve utilizado.

Es un método en gráficos por computadora para hacer que una superficie renderizada parezca

más realista mediante la simulación de pequeños desplazamientos de la superficie. Sin embargo,

a diferencia del mapeo de desplazamiento , la geometría de la superficie no se modifica. En su

lugar, solo se modifica la superficie normal como si la superficie se hubiera desplazado. La

superficie normal modificada se usa luego para los cálculos de iluminacióndando la apariencia

de detalle en lugar de una superficie lisa.


El mapeo de relieve es mucho más rápido y consume menos recursos para el mismo nivel de

detalle en comparación con el mapeo de desplazamiento porque la geometría permanece sin

cambios.

También hay extensiones que modifican otras características de la superficie además de

aumentar la sensación de profundidad. El mapeo de paralaje y el mapeo de horizonte son dos de

esas extensiones. 

La limitación principal con el mapeo de relieve es que solo perturba las superficies normales sin

cambiar la superficie subyacente en sí.  Por lo tanto, las siluetas y las sombras no se ven

afectadas, lo que es especialmente notable para los desplazamientos simulados más

grandes. Esta limitación se puede superar mediante técnicas que incluyen el mapeo de

desplazamiento en el que se aplican relieves a la superficie o mediante el uso de

una isosuperficie . (Lanier, 2001)

Video explicativo

https://youtu.be/D7uK4WWW-Rk
Ray tracing

El trazado de rayos es un algoritmo para síntesis de imágenes que calcula el camino de la luz

como píxeles en un plano de la imagen y simula sus efectos sobre las superficies virtuales en las

que incida para que el comportamiento de la luz sea más fluido. En cuanto al lugar de

aplicación, se utiliza en videojuegos, gráficos animados en 3D, entre otros 1. Esta técnica es

capaz de producir imágenes con un alto grado de realismo, de una forma mayor que

el renderizado mediante líneas de exploración tradicional, aunque el coste computacional del

trazado de rayos es mucho mayor.

El Ray Tracing es un intento de simular el cómo ven nuestros ojos la realidad. Es una tecnología

que se encarga de mejorar la calidad de las sombras y reflejos generados por las iluminaciones.

Se trata de un algoritmo que realiza un mejor cálculo de la luz que llega a nuestros ojos en un

determinado momento, y con esto se intenta simular los rayos de luz que los producen,

descartando todo lo demás que no afecta en ese momento a la visión, esto permite que las

escenas en los videojuegos se acerquen más a la realidad. Permite observar los reflejos de

muchos objetos con mayor detalle y además ofrece una mejor calidad de imagen, cambiando en

gran manera la textura y el aspecto de los mismos, pero también tiene sus desventajas ya que el

rendimiento en FPS globales se ve bastante penalizado.

Se usa desde años atrás para renderizar escenas estáticas (fotos) o incluso en el cine, ya que a

pesar de su inmenso costo computacional una vez que los gráficos digitales han sido procesados

ya no se tienen que volver a calcular.

En el algoritmo Ray Casting se determinan las superficies visibles en la escena que se quiere sin

tetizar trazando rayos desde el observador (cámara) hasta la escena a través del plano de la imag

en. Se calculan las intersecciones del rayo con los diferentes objetos de la escena y aquella inter

sección que esté más cerca del observador determina cuál es el objeto visible. (Haines, 2019)


Video explicativo

https://youtu.be/xkm3RA0Pvzo

Radiosity

En gráficos por computadora en 3D , la radiosidad es una aplicación del método de elementos

finitos para resolver la ecuación de representación de escenas con superficies que reflejan la luz

de manera difusa . A diferencia de los métodos de representación que usan algoritmos de Monte

Carlo (como el seguimiento de rutas ), que manejan todo tipo de rutas de luz, la radiosidad

típica solo tiene en cuenta las rutas (representadas por el código "LD*E") que dejan una fuente

de luz y se reflejan de forma difusa algunos número de veces (posiblemente cero) antes de tocar

el ojo. La radiosidad es un algoritmo de iluminación global. en el sentido de que la iluminación

que llega a una superficie no solo proviene directamente de las fuentes de luz, sino también de

otras superficies que reflejan la luz. La radiosidad es independiente del punto de vista, lo que

aumenta los cálculos involucrados, pero los hace útiles para todos los puntos de vista.

Los métodos de radiosidad se desarrollaron por primera vez alrededor de 1950 en el campo de

la ingeniería de la transferencia de calor . Más tarde, investigadores de la Universidad de

Cornell y la Universidad de Hiroshima los refinaron específicamente para el problema de

renderizar gráficos por computadora en 1984. 

La radiosidad es un algoritmo de iluminación global utilizado en la representación de gráficos

3D por computadora . A diferencia de los algoritmos de iluminación directa (como el trazado de

rayos ), que tienden a simular la luz que se refleja solo una vez en cada superficie, los
algoritmos de iluminación global como Radiosity simulan los muchos reflejos de luz alrededor

de una escena, lo que generalmente da como resultado sombras y reflejos más suaves y

naturales.

La radiosidad como método de representación fue introducida en 1984 por investigadores

de Cornell (C. Goral, KE Torrance, DP Greenberg y B. Battaile) en su artículo "Modelado de la

interacción de la luz entre superficies difusas". La teoría había estado en uso en ingeniería, para

resolver problemas en la transferencia de calor por radiación, desde alrededor de 1950. (Cohen,

2012)

Video explicativo

https://youtu.be/DtfEVO9Oc3U

Photon mapping

El concepto de Mapeado de fotones (en inglés Photon mapping) fue introducido por Henrik

Wann Jensen en junio de 1996. Él, al igual que los que se dedican a la informática gráfica, tuvo

la necesidad de un algoritmo que fuera capaz de renderizar imágenes de geometría compleja con

iluminación global; un algoritmo que fuera capaz de manejar cualquier tipo de geometría y

de BRDF (Bidirectional reflectance distribution function).

Photon Mapping es un algoritmo de síntesis de imágenes publicado por Henrik Wann Jensen en

1995, que se utiliza principalmente como una extensión de los procesos basados en el trazado de

rayos. El objetivo del mapeo de fotones es determinar de manera eficiente la iluminación global
de una escena y así generar imágenes realistas en menos tiempo. El mapeo de fotones es uno de

los métodos de rastreo de partículas.

Con el mapeo de fotones, los llamados "fotones", que transportan una cierta potencia (flujo de

radiación), son "disparados" por las fuentes de luz a la escena antes del proceso de renderización

real. Geométricamente, esto corresponde al trazado de rayos a partir de la fuente de luz. Un

fotón se abstrae en gran medida a través de su posición, la dirección desde la que se irradia y su

flujo de radiación. Si tal fotón que emana de la fuente de luz golpea una superficie, puede

reflejarse, dispersarse, refractarse, absorberse o almacenarse en el mapa de fotones cuando

golpea superficies reflectantes de manera difusa. Esto puede cambiar la potencia del fotón. El

mapa de fotones (rara vez: "mapa de fotones") es una estructura de datos que es independiente

de la geometría de la escena (principalmente un árbol kd tridimensional). Los fotones

almacenados en él pueden dar una estimación del flujo de radiación que llega a la posición del

fotón.

Todo el proceso se llama rastreo de fotones. El término "fotón" utilizado sólo concuerda con el

término físico en la medida en que se transporta el flujo de radiación. El mapeo de fotones no es

una simulación cuántica-físicamente correcta de la propagación de la luz. En cambio, en el

mapeo de fotones, un "fotón" abstrae una gran cantidad de fotones físicos, cuya energía se suma

a la salida del "fotón" por unidad de tiempo.

Los procesos físicos cuánticos no se tienen en cuenta, ya que la óptica geométrica suele ser

suficiente para generar imágenes de aspecto realista. El mapa de fotones creado de esta manera

se puede utilizar de varias formas. El método más común es que durante el renderizado, en cada

punto en el que un rayo golpea una superficie durante el trazado de rayos, la iluminación

indirecta está determinada por la densidad y la potencia de los fotones en el mapa de fotones en

las proximidades del punto respectivo. (Freeman, 2012)


{

Video explicativo

https://youtu.be/GckOkpeJ3BY

Precomputed Radiance Transfer

La transferencia de radiación precalculada es una técnica de gráficos por computadora utilizada

para representar una escena en tiempo real con interacciones de luz complejas que se calculan

previamente para ahorrar tiempo. Los métodos de radiosidad se pueden utilizar para determinar

la iluminación difusa de la escena, sin embargo, PRT ofrece un método para cambiar

dinámicamente el entorno de iluminación. [1]

En esencia, PRT calcula la iluminación de un punto como una combinación lineal de

la irradiancia incidente. Se debe utilizar un método eficiente para codificar estos datos, como los

armónicos esféricos .

Cuando se utilizan armónicos esféricos para aproximar la función de transporte de luz, solo los

efectos de baja frecuencia pueden manejarse con un número razonable de parámetros. Ren Ng

amplió este trabajo para manejar sombras de mayor frecuencia reemplazando los armónicos

esféricos con wavelets no lineales.

Hay varias formas de complejidad presentes en las escenas interesantes, incluida la forma en

que se modela el entorno de iluminación (es decir, los modelos de iluminación de área frente a

los de punto/direccional) y qué tipo de efectos globales se modelan (por ejemplo, sombras,

interreflejos, dispersión del subsuelo). ) Las técnicas tradicionales de representación interactiva


modelan una cantidad limitada de esta complejidad. PRT permite estos efectos con algunas

restricciones importantes:

 Se supone que los objetos son rígidos (es decir, sin deformaciones).

 Es un enfoque centrado en el objeto (a menos que los objetos se muevan juntos, estos

efectos globales no se mantienen entre ellos).

 Solo se modela la iluminación de baja frecuencia (lo que da como resultado sombras

suaves). Para las luces de alta frecuencia (sombras nítidas), se tendrían que emplear

técnicas tradicionales. (Akenine-Möller, 2019)

Video explicativo

https://youtu.be/2tLMcKklLS4

Bibliografía
Akenine-Möller, T. (2019). Real-Time Rendering. San francisco: CRC Press.

Cohen, M. F. (2012). Radiosidad y Síntesis de Imagen Realista. San francisco: Elsevier.

Freeman, K. (2012). Mapeo de fotones e iluminación global en tiempo real. Santa Cruz:
Universidad de California.
Goulekas, K. (2001). Efectos visuales en un mundo digital: un glosario completo de más de
7000 términos de efectos visuales. En M. Kaufmann, Efectos visuales en un mundo
digital: un glosario completo de más de 7000 términos de efectos visuales (pág. 600).
San Diego: Morgan Kaufmann.

Haines, E. (2019). Ray Tracing Gems: High-Quality and Real-Time Rendering with DXR and
Other APIs. California: Apress.

Lanier, L. (2001). Advanced Maya Texturing and Lighting. Indianapolis: John Wiley & Sons.

Peddie, J. (2019 ). Trazado de rayos: una herramienta para todos. En J. Peddie, Trazado de
rayos: una herramienta para todos (pág. 358). California: Springer.

Vince, J. (2012). Essential Computer Animation rápido: cómo comprender las técnicas y el
potencial de la animación por computadora. London: Springer Science & Business
Media.

También podría gustarte