Documentos de Académico
Documentos de Profesional
Documentos de Cultura
com
icros
14346
tiempo de renderizado hasta 50×. Si bien son impresionantes, estos avances NeRF también tiene grandes requisitos de memoria. Un solo pase hacia
todavía están muy lejos de habilitar la renderización en tiempo real en adelante de NeRF requiere realizar cientos de pases hacia adelante a
hardware de nivel de consumidor. Nuestro trabajo cierra esta brecha través de una capa de ocho256unidad oculta MLP por píxel. Si los
mientras mantiene la calidad, lo que abre una amplia gama de nuevas píxeles se procesan en paralelo por motivos de eficiencia, esto consume
aplicaciones para la representación neuronal. Además, nuestro método grandes cantidades de memoria, incluso a resoluciones moderadas.
podría formar el bloque de construcción fundamental para la representación Dado que muchos escenarios naturales (p.ej. una sala de estar, un
neuronal en altas resoluciones. jardín) son escasos, podemos almacenar nuestro caché escasamente.
Para lograr este objetivo, utilizamos el almacenamiento en caché para En algunos casos, esto puede hacer que nuestro método sea realmente
intercambiar memoria por eficiencia computacional. Como NeRF es más eficiente en memoria que NeRF.
fundamentalmente una función de posicionespags∈R3y direcciones de rayosd∈R2 En resumen, nuestras principales contribuciones son:
Idealmente, trataríamos las direcciones y posiciones por separado y ejecutarse eficientemente en la GPU.
14347
velocidad de 20,77 segundos en una GPU Nvidia Tesla V100, 2,65 más de 200 Hz en hardware de consumo de gama alta. La idea
segundos en8GPU V100 y 0,35 segundos en 128 unidades de central de nuestro enfoque (Sección3.2) consiste en factorizar NeRF
procesamiento de tensor de segunda generación. De manera similar, el en dos redes neuronales: una red dependiente de la posición que
dominio de integración volumétrica se puede dividir y usar modelos produce un mapa de radiación profunda y una red dependiente de
separados para cada parte. Este enfoque se toma en el método de la dirección que produce pesos. El producto interno de los pesos y
campos de radiación descompuestos [35], donde un dominio de el mapa de radiación profunda estima el color de la escena en la
integración se divide en celdas de Voronoi. Esto produce mejores posición especificada y visto desde la dirección especificada. Esta
puntajes en las pruebas y una aceleración de hasta3×. arquitectura, que llamamos FastNeRF, se puede almacenar en
Una forma diferente de aumentar la eficiencia es darse cuenta caché de manera eficiente (Sección3.3), mejorando
de que las escenas naturales tienden a ser escasas significativamente la eficiencia del tiempo de prueba mientras se
volumétricamente. Por lo tanto, se puede ganar eficiencia preserva la calidad visual de NeRF. Ver figura2para una
saltándose regiones vacías del espacio. Esto equivale a un comparación de las arquitecturas de red NeRF y FastNeRF.
muestreo de importancia de la distribución de ocupación del
3.1. Campos de radiación neuronal
dominio de integración. Un enfoque es usar una cuadrícula de
vóxeles en combinación con la función implícita aprendida por el Un campo de radiación neuronal (NeRF) [25] captura una
MLP, como se propone en Neural Sparse Voxel Fields (NSVF) [ representación 3D volumétrica de una escena dentro de los
dieciséis] y nivel de detalle geométrico neural [38] (solo para SDF), pesos de una red neuronal. La red neuronal de NeRFFNeRF: (p, d
donde se utiliza un octárbol disperso construido dinámicamente )7→ (c, σ)mapea una posición 3Dpags∈R3y una dirección de
para representar la ocupación de la escena. Sin embargo, como rayo d∈R2a un valor de colorCy transparenciaσ. Ver el lado
aún se debe consultar una red dentro de los vóxeles ocupados, los izquierdo de la figura2para un diagrama deFNeRF.
NSVF tardan entre 1 y 4 segundos en generar un 8002imagen, con Para renderizar un solo píxel de imagen, se proyecta un rayo
disminuciones a PSNR en el extremo inferior de esos tiempos. desde el centro de la cámara, que atraviesa ese píxel y entra en la
Nuestro método es mucho más rápido en un escenario similar. escena. Denotamos la dirección de este rayo comod. Varias
Otra forma de representar la distribución de importancia es a través posiciones 3D (pags1,··· ,pagsnorte)luego se muestrean a lo largo del
de la predicción de profundidad para cada píxel. Este enfoque se adopta rayo entre sus límites cercano y lejano definidos por los
en [28], que es concurrente con el nuestro y alcanza aproximadamente parámetros de la cámara. la red neuronalFNeRFse evalúa en cada
15FPS para8002imágenes con calidad reducida o aproximadamente la posiciónpagsiy dirección del rayodpara producir colorCiy
mitad de calidad comparable a NeRF. transparenciaσi. Estas salidas intermedias se integran de la
Ortogonal a esto, AutoInt [15] mostró que se puede usar una red siguiente manera para producir el color de píxel finalC:
neuronal para aproximar las integrales a lo largo de cada rayo con
∑norte
muchas menos muestras. Si bien es significativamente más rápido que C= Ti(1−Exp(−σidi))Ci, (1)
NeRF, aún no proporciona velocidades de cuadro interactivas. i=1
Lo que diferencia nuestro método de los descritos anteriormente es que la ∑yo−1
descomposición propuesta por FastNeRF y el posterior almacenamiento en caché
dóndeTi=Exp(− j=iσjdj)es la transmitancia y
di= (pagsi+1− pagsi)es la distancia entre las muestras. Ya queFNeRF
nos permiten evitar por completo las llamadas a un MLP en el momento de la
depende de las direcciones de los rayos, NeRF tiene la capacidad de
inferencia. Esto hace que nuestro método sea más rápido en términos absolutos
modelar efectos dependientes del punto de vista, como reflejos
incluso en una sola máquina.
especulares, que es una dimensión clave en la que NeRF mejora los
Vale la pena señalar que nuestro método no aborda la velocidad de
métodos de reconstrucción 3D tradicionales.
entrenamiento, como por ejemplo [39]. En ese caso, los autores proponen
El entrenamiento de una red NeRF requiere un conjunto de imágenes de
mejorar la velocidad de entrenamiento de los modelos NeRF al encontrar la
una escena, así como los parámetros extrínsecos e intrínsecos de las cámaras
inicialización a través del metaaprendizaje.
que capturaron las imágenes. En cada iteración de entrenamiento, se elige
Finalmente, existen estrategias de representación neuronal ortogonal
aleatoriamente un subconjunto de píxeles de las imágenes de entrenamiento
capaces de una inferencia rápida, como los gráficos basados en puntos
y para cada píxel se genera un rayo 3D. Luego, se selecciona un conjunto de
neuronales [11], Mezcla de Primitivos Volumétricos [19] o pulsar [12], que
muestras a lo largo de cada rayo y el color del píxel. Cse calcula usando la
utilizan formas de primitivas geométricas y rasterización. En este trabajo, solo
Ecuación (1). La pérdida de entrenamiento es la diferencia media cuadrática
tratamos con representaciones funcionales implícitas similares a NeRF
entreCy el valor de píxel de verdad del terreno. Para obtener más detalles,
combinadas con trazado de rayos.
consulte [25].
Si bien NeRF genera imágenes fotorrealistas, requiere
3. Método
llamarFNeRFun gran número de veces para producir una sola
En esta sección, describimos FastNeRF, un método que es imagen. Con el número predeterminado de muestras por píxel
3000 veces más rápido que el sistema Neural Radiance Fields norte=192propuesto en NeRF [25], casi 400 millones de
(NeRF) original [25] (Sección3.1). Este avance permite llamadas aFNeRFse requieren para calcular una sola imagen de
renderizar imágenes fotorrealistas de alta resolución en alta definición (1080p). Además, las salidas intermedias de
14348
( 1 1 1)
( ) MLP
128-d
vector
( , ) ( 1, 2, . . , )
( , , ) ( , )
dirección-
dependiente
NeRF MLP FastNeRF
Figura 2. Izquierda: arquitectura de red neuronal NeRF. (x, y, z)denota la posición de la muestra de entrada, (θ, φ)denota la dirección del rayo y
(r, gramo, segundo, σ)son los valores de color y transparencia de salida. Derecha: nuestra arquitectura FastNeRF divide la misma tarea en dos redes neuronales
que se pueden almacenar en caché. La red dependiente de la posiciónFposicióngenera un mapa de radiación profunda (tu, v, w)que consiste enDcomponentes,
mientras que elFdirectoriogenera los pesos de esos componentes (β1, . . . , βD)dada una dirección de rayo como entrada.
este proceso requeriría cientos de gigabytes de memoria. Incluso en posicionespagsy otra que depende solo de las direcciones de los
en las GPU de consumo de gama alta, esto limita la ejecución del rayosd. De manera similar a la evaluación de la ecuación de renderizado
método original en varios lotes, incluso para una resolución media utilizando armónicos esféricos, nuestro dependiente de la posiciónF
(800×800)imágenes, lo que genera gastos generales de cálculo posicióny dependiente de la direcciónFdirectorioLas funciones producen
adicionales. salidas que se combinan usando el producto escalar para obtener el
valor de color en la posiciónpagsobservado desde la direcciónd.
3.2. Campos de radiación neuronal factorizados
Crucialmente, esta factorización divide una sola función que toma
Alejándonos un poco del renderizado neuronal por un momento, entradas enR5en dos funciones que toman entradas enR3yR2. Como se
recordamos que en los gráficos por computadora tradicionales, la ecuación explica en la siguiente sección, esto hace posible el almacenamiento en
de renderizado [9] es una integral de la forma caché de las salidas de la red y permite acelerar NeRF en 3 órdenes de
Con esta idea en mente, podemos volver a la representación da como resultado el color estimadoC= (r, g, b)en la posiciónpags
neuronal. En el caso de NeRF,FNeRF: (p, d)también puede observado desde la direcciónd.
interpretarse como el retorno del punto de partida de la radiación Cuando las dos funciones se combinan usando la Ecuación (5),
pagsen direcciond. Esta idea clave nos lleva a proponer una nueva la función resultanteFFastNeRF(p, d)7→(c, σ)tiene la misma firma que
arquitectura de red para NeRF, a la que llamamos FastNeRF. Esta la funciónFNeRFutilizado en NeRF. Esto permite efectivamente usar
novedosa arquitectura consiste en dividir la red neuronal de NeRFF la arquitectura FastNeRF como un reemplazo directo para la
NeRFen dos redes: una que depende sólo arquitectura de NeRF en tiempo de ejecución.
14349
3.3. almacenamiento en caché 250FPS 238.1FPS
Dada la gran cantidad de muestras que deben evaluarse para 200FPS 172.4FPS
generar un solo píxel, el costo de la computaciónFdomina el costo total
del renderizado NeRF. Por lo tanto, para acelerar NeRF, se podría 150 FPS
intentar reducir el costo del tiempo de prueba deF almacenando en
100FPS
caché sus salidas para un conjunto de entradas que cubren el espacio
de la escena. El caché se puede evaluar en una fracción del tiempo que
50FPS
se tarda en calcularF. 15.0FPS
0.06FPS 0.18FPS 1.1FPS
Para un modelo NeRF entrenado, podemos definir un cuadro 0FPS
delimitadorVque cubre toda la escena capturada por NeRF. Entonces NeRF DeRF NSVF DONeRF nuestro 1k nuestro 512
14350
Lego
Figura 4. Comparación cualitativa de nuestro método vs NeRF en el conjunto de datos de [25] a8002píxeles utilizando 8 componentes.Caché pequeñose refiere a nuestro
método almacenado en caché en2563, ycaché grandea7683. Variar el tamaño de la memoria caché permite intercambiar computación y memoria por una calidad de imagen
similar a los niveles de detalle (LOD) en los gráficos de computadora tradicionales.
Tabla 1. Comparamos NeRF con nuestro método cuando no se almacena en caché en una cuadrícula, y cuando se almacena en caché a una resolución alta en términos de
PSNR, SSIM y LPIPS, y también proporcionamos la velocidad promedio en ms de nuestro método cuando se almacena en caché. LLFF denota el conjunto de datos de [24] a504×
378píxeles, el otro conjunto de datos es el de [25] a8002píxeles Usamos8componentes y un10243caché para las escenas NeRF Synthetic 360 y 6 componentes en7683para LLFF.
Consulte el material complementario para obtener resultados más detallados.
LLFF 27.72dB 0.88 0.07 27.958dB 0.888 0.063 26.035dB 0.856 0.085 1.4milisegundo
LPIPS [48]. Usamos las mismas métricas en nuestro estudio de puts y entrenamiento de NeRF, mantenemos la compatibilidad con el trazado
ablación, donde evaluamos los efectos de cambiar la cantidad de de rayos [44,9] y la capacidad de especificar solo límites de volumen sueltos.
componentesDy el tamaño de la memoria caché. Todas las Al mismo tiempo, nuestra factorización y almacenamiento en caché no
comparaciones de velocidad se ejecutan en una máquina equipada afectan en gran medida el carácter de las imágenes renderizadas. Consulte la
con una GPU Nvidia RTX 3090. figura4y figura5para comparaciones cualitativas, y Tabla1para una evaluación
cuantitativa. Tenga en cuenta que pueden aparecer algunos artefactos de
Mantenemos el tamaño del caché dependiente de la vistaFcachevista
alias ya que nuestro modelo está almacenado en caché en una cuadrícula
lo mismo para todos los experimentos a una resolución base de3843. Es
despuéscapacitación. Esto explica la disminución en todas las métricas en
la resolución base de la caché RGBD.Fcacheeso representa la principal
posición
función de la resolución de la cuadrícula, como se ve en la Tabla1. Sin
compensación en la complejidad del tiempo de ejecución y la memoria
embargo, tanto NeRF como FastNeRF mitigan las inconsistencias de múltiples
frente a la calidad de la imagen. En todos los resultados, la resolución
vistas, las imágenes fantasma y otros artefactos similares de la
de la cuadrícula se refiere al número de divisiones del lado más largo
reconstrucción de múltiples vistas. Mesa1demuestra que a resoluciones de
del volumen delimitador que rodea el objeto de interés.
caché lo suficientemente altas, nuestro método es capaz
Calidad de representación:Debido a que adoptamos las entradas, salidas
14351
Hojas
Figura 5. Comparación cualitativa de nuestro método vs NeRF en el conjunto de datos de [24] a504×378píxeles utilizando 6 factores.Caché pequeñose refiere a nuestro método
almacenado en caché en2563, ycaché grandea7683.
Tabla 2. Comparación de velocidad de nuestro método vs NeRF en ms. losSillayLegolas escenas están renderizadas en8002resolución,CuernosyHojas escenas en504×378.
Nuestro método nunca cae por debajo de 100FPS cuando se almacena en caché y, a menudo, es significativamente más rápido. Tenga en cuenta que nuestro método es más
lento cuando no se almacena en caché debido al uso de MLP más grandes; funciona de manera idéntica a NeRF cuando se usa256unidades ocultas. No calculamos la memoria
caché de mayor resolución para las escenas LLFF porque son menos dispersas debido al uso de coordenadas de dispositivo normalizadas.
Escena NeRF nuestro - Sin caché2563 3843 5123 7683 10243 Aceleración sobre NeRF
de la misma calidad visual que NeRF. Figura4y figura5 muestran Resolución de caché:Como se muestra en la Tabla1, nuestro método
además que los cachés más pequeños aparecen 'pixelados' pero coincide o supera a NeRF en el conjunto de datos de objetos sintéticos
conservan las características visuales generales de la escena. Esto es en10243resolución de caché. Debido a que nuestro método es lo
similar a cómo se usan los diferentes niveles de detalle en los gráficos suficientemente rápido para visitar cada vóxel (a diferencia del recuento
por computadora [21], y una importante innovación en el camino hacia de muestra fijo que se usa en NeRF), a veces puede lograr mejores
mundos renderizados neuronalmente. puntajes al no perder ningún detalle. Observamos que un caché de5123
es un buen compromiso entre calidad perceptiva, memoria y velocidad
Escenarios desafiantes:Teorizamos que las superficies altamente de representación para el conjunto de datos sintético. Para el conjunto
reflectantes podrían ser un desafío para nuestro método, ya queβ podría de datos LLFF, encontramos un7683caché para que funcione mejor.
tener que cambiar con una alta frecuencia dependiendo de la dirección de la Para elBarcoescena, en la Tabla se muestra una ablación sobre el
vista. En la Sección 1.1 del suplemento. materiales discutimos situaciones en tamaño de la cuadrícula, la memoria y el PSNR.3. Para las vistas llenas
las que la red dependiente de la vista se sobreajusta a los datos de de escenas LLFF en504×378píxeles, nuestro método ve una ligera
entrenamiento y describimos una solución simple.
14352
Tabla 3. Influencia de la cantidad de componentes y la resolución de la cuadrícula en el PSNR y la memoria requerida para almacenar en caché la escena del barco. Observe cómo más factores
aumentan la dispersión de la cuadrícula. Encontramos que 8 o 6 componentes son un compromiso razonable en la práctica.
14353
Referencias [19] Stephen Lombardi, Tomas Simon, Gabriel Schwartz, Michael
Zollhoefer, Yaser Sheikh y Jason Saragih. Mezcla de primitivas
[1] Mojtaba Bemana, Karol Myszkowski, Hans-Peter Seidel y volumétricas para una representación neuronal eficiente,
Tobias Ritschel. Campos X: interpolación implícita de 2021.1,3
imagen neuronal, luz y tiempo.Transacciones ACM en
[20] William E. Lorensen y Harvey E. Cline. Cubos de marcha: un
gráficos (Proc. SIGGRAPH Asia 2020), 39(6), 2020.1
algoritmo de construcción de superficies 3D de alta resolución.
[2] Sai Bi, Zexiang Xu, Pratul Srinivasan, Ben Mildenhall, Kalyan
Cómputo SIG-GRAFICO. Grafico., 21(4):163–169, agosto de 1987.5
Sunkavalli, Miloš Hašan, Yannick Hold-Geoffroy, David
[21] David Luebke, Martin Reddy, Jonathan D. Cohen, Amitabh
Kriegman y Ravi Ramamoorthi. Campos de reflectancia
Varshney, Benjamin Watson y Robert Huebner.Nivel de
neuronal para la adquisición de apariencia, 2020.1,8
detalle para gráficos 3D. Morgan Kaufmann Publishers Inc.,
[3] Sai Bi, Zexiang Xu, Kalyan Sunkavalli, Miloš Hašan, Yannick Hold-Geoffroy,
San Francisco, CA, EE. UU., 2002.7
David Kriegman y Ravi Ramamoorthi. Volúmenes de reflectancia profunda:
[22] Ricardo Martin-Brualla, Noha Radwan, Mehdi SM Sajjadi, Jonathan
reconstrucciones que se pueden volver a encender a partir de imágenes
T. Barron, Alexey Dosovitskiy y Daniel Duckworth. Nerf en la
fotométricas de vistas múltiples, 2020.1,2
naturaleza: campos de resplandor neuronal para colecciones de
[4] Brian Cabral, Nelson Max y Rebecca Springmeyer. Funciones de
fotos sin restricciones, 2021.1,8
reflexión bidireccional a partir de mapas de relieve de superficie.
[23] Lars M. Mescheder, Michael Oechsle, Michael Niemeyer,
21(4):273–281, agosto de 1987.4
Sebastian Nowozin y Andreas Geiger. Redes de ocupación:
[5] Zhiqin Chen y Hao Zhang. Aprendizaje de campos implícitos para el Aprendizaje de reconstrucción 3d en espacio funcional.CoRR,
modelado generativo de formas.CoRR, abs/1812.02822, 2018.1 abs/1812.03828, 2018.1
[6] Boyang Deng, Jonathan T. Barron y Pratul P. Srinivasan. [24] Ben Mildenhall, Pratul P. Srinivasan, Rodrigo Ortiz-Cayon, Nima
JaxNeRF: una implementación JAX eficiente de NeRF, 2020. Khademi Kalantari, Ravi Ramamoorthi, Ren Ng y Abhishek
2 Kar. Fusión de campo de luz local: síntesis de vista práctica
[7] Guy Gafni, Justus Thies, Michael Zollhöfer y Matthias Nießner. con pautas de muestreo prescriptivas.ACM Trans. Grafico.,
Campos de radiación neuronal dinámicos para la reconstrucción 38(4), julio de 2019.1,5,6,7
de avatares faciales 4d monoculares. preimpresión de arXiv
[25] Ben Mildenhall, Pratul P Srinivasan, Matthew Tancik, Jonathan T
arXiv:2012.03065, 2020.1,8 Barron, Ravi Ramamoorthi y Ren Ng. Nerf: representación de
[8] Iliyan Georgiev, Jaroslav Křivánek, Tomáš Davidovič y Philipp escenas como campos de radiación neuronal para la síntesis de
Slusallek. Simulación de transporte ligero con conexión y vistas.preimpresión de arXiv arXiv:2003.08934, 2020.1,2,3,5, 6
fusión de vértices.ACM Trans. Grafico., 31(6):192:1– 192:10,
noviembre de 2012.4 [26] Ken Museth. Vdb: Volúmenes dispersos de alta resolución con
[9] James T. Kajiya. La ecuación de renderizado.Cómputo SIGGRAFICO. topología dinámica.ACM Trans. Grafico., 32(3), julio de 2013.5
Grafico., 20(4):143–150, agosto de 1986.4,6 [27] Oliver Nalbach, Elena Arabadzhiyska, Dushyant Mehta, HP Seidel y Tobias
[10] Tero Karras, Samuli Laine y Timo Aila. Un estilo basado Ritschel. Sombreado profundo: redes neuronales convolucionales para
Arquitectura generadora para redes antagónicas generativas, el sombreado del espacio de la pantalla. Enforo de gráficos por
2019.1 computadora, volumen 36, páginas 65–78. Biblioteca en línea de Wiley,
[11] María Kolos, Artem Sebastopolsky y Victor Lempitsky. Transpr: 2017.1
Renderizador de punto de escena 3D neural con acumulación de rayos [28] Thomas Neff, Pascal Stadlbauer, Mathias Parger, Andreas Kurz,
de transparencia, 2020.3 Chakravarty R. Alla Chaitanya, Anton Kaplanyan y Markus Steinberger.
[12] Christoph Lassner y Michael Zollhofer. Pulsar: representación Donerf: Hacia la representación en tiempo real de campos de radiación
neuronal eficiente basada en esferas, 2020.3 neuronal utilizando redes de Oracle de profundidad, 2021.1, 3,5,8
[13] Tianye Li, Timo Bolkart, Michael J Black, Hao Li y Javier Romero.
Aprendizaje de un modelo de forma y expresión facial a partir de [29] Jeong Joon Park, Peter Florence, Julian Straub, Richard A.
escaneos 4d.ACM Trans. Grafico., 36(6):194–1, 2017.8 Newcombe y Steven Lovegrove. Deepsdf: aprendizaje de
[14] Zhengqi Li, Simon Niklaus, Noah Snavely y Oliver Wang. Campos de flujo funciones de distancia con signo continuo para la representación
de escena neuronal para la síntesis de vista de espacio-tiempo de de formas. CoRR, abs/1901.05103, 2019.1
escenas dinámicas.preimpresión de arXiv arXiv:2011.13084, 2020.8 [30] Parque Keunhong, Utkarsh Sinha, Jonathan T Barron, Sofien
[15] David B. Lindell, Julien NP Martel y Gordon Wetzstein. Autoint: Bouaziz, Dan B Goldman, Steven M Seitz y Ricardo-Martin
integración automática para una rápida representación de Brualla. Campos de radiación neural deformable.
volumen neural.preimpresión de arXiv arXiv:2012.01714, 2020.1,3 preimpresión de arXiv arXiv:2011.12948, 2020.8
[16] Lingjie Liu, Jiatao Gu, Kyaw Zaw Lin, Tat-Seng Chua y Christian [31] Parque Keunhong, Utkarsh Sinha, Jonathan T. Barron, Sofien
Theobalt. Campos de vóxeles dispersos neuronales, 2021.1,3,5 Bouaziz, Dan B Goldman, Steven M. Seitz y Ricardo Martin-
[17] Stephen Lombardi, Jason M. Saragih, Tomas Simon y Yaser Sheikh. Brualla. Campos de radiación neural deformable.
Modelos de apariencia profunda para la representación de preimpresión de arXiv arXiv:2011.12948, 2020.1
rostros. CoRR, abs/1808.00362, 2018.1 [32] Steven G Parker, James Bigler, Andreas Dietrich, Heiko
[18] Stephen Lombardi, Tomas Simon, Jason Saragih, Gabriel Schwartz, Friedrich, Jared Hoberock, David Luebke, David McAllister,
Andreas Lehrmann y Yaser Sheikh. Volúmenes neuronales: aprendizaje Morgan McGuire, Keith Morley, Austin Robison, et al. Optix:
de volúmenes renderizables dinámicos a partir de imágenes. un motor de trazado de rayos de propósito general.
ACM Trans. Grafico., 38(4):65:1–65:14, julio de 2019.1,2 Transacciones Acm en gráficos (tog), 29(4):1–13, 2010.5
14354
[33] M. Pharr, W. Jakob y G. Humphreys.Renderizado basado en [47] Kai Zhang, Gernot Riegler, Noah Snavely y Vladlen Koltun. Nerf++:
la física: de la teoría a la implementación. Elsevier Science, analizando y mejorando los campos de radiación neuronal.
2016.4 preimpresión de arXiv arXiv:2010.07492, 2020.8
[34] Albert Pumarola, Enric Corona, Gerard Pons-Moll y Francesc Moreno- [48] Richard Zhang, Phillip Isola, Alexei A. Efros, Eli Shechtman y Oliver
Noguer. D-nerf: Campos de radiación neural para escenas dinámicas. Wang. La efectividad irrazonable de las características profundas
preimpresión de arXiv arXiv:2011.13961, 2020.8 como métrica de percepción.CoRR, abs/1801.03924, 2018.5
[35] Daniel Rebain, Wei Jiang, Soroosh Yazdani, Ke Li, Kwang
Moo Yi y Andrea Tagliasacchi. Derf: Campos de radiación [49] Ellen D. Zhong, Tristan Bepler, Joseph H. Davis y Bonnie Berger.
descompuestos.preimpresión de arXiv arXiv:2011.12490, Reconstrucción de distribuciones continuas de estructuras de
2020.1,3,5,8 proteínas en 3D a partir de imágenes criogénicas, 2020.2
[36] Gernot Riegler y Vladlen Koltun. Síntesis de vista estable,
2020.1
[37] Pratul P. Srinivasan, Boyang Deng, Xiuming Zhang, Matthew
Tancik, Ben Mildenhall y Jonathan T. Barron. Nerv: Campos de
visibilidad y reflectancia neuronal para reiluminación y
síntesis de vistas, 2020.1
[38] Towaki Takikawa, Joey Litalien, Kangxue Yin, Karsten Kreis, Charles
Loop, Derek Nowrouzezahrai, Alec Jacobson, Morgan McGuire y
Sanja Fidler. Nivel de detalle geométrico neuronal: representación
en tiempo real con formas 3D implícitas, 2021.
3
[39] Matthew Tancik, Ben Mildenhall, Terrance Wang, Divi
Schmidt, Pratul P. Srinivasan, Jonathan T. Barron y Ren
Ng. Inicializaciones aprendidas para optimizar las representaciones
neuronales basadas en coordenadas, 2020.3,8
14355