Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(I)
Es un tema amplio y por eso es necesario dividirlo en varias partes. Aquí va una
adelanto de lo que vamos a tratar en los siguientes artículos.
Todo esto hace que la postproducción de vídeo sea menos precisa y hace que tengamos
que prestar la máxima atención a la degradación de la imagen debido a temas de
compresión.
• 1-La imágenes deben tener la máxima calidad posible que nos pueda
proporcionar la fuente de la que provengan. Hay que evitar degradar la señal
capturando en un formato inferior al que se usó para grabar.
Por eso es muy importante tener claro y entender cómo funcionan los formatos de
vídeo digital, cómo registran la señal y cómo proporcionan esa señal a nuestro sistema
de edición, de manera que sepamos cómo tratarla en cada momento.
Para ello es preciso definir los siguientes conceptos, que iremos explicando en los
próximos artículos:
Del estudio del principal dispositivo de captura de imagen del que disponemos, el ojo
humano, se deriva la tecnología usada en los artefactos creados por el hombre para
registrar imágenes. Esos artefactos, las cámaras, actúan a imagen y semejanza del ojo
humano. Al menos en cierta medida.
No vamos a entrar a detallar el proceso por el cual es posible capturar la luz y enfocar
imágenes a través de ópticas, tal como hace ojo humano, pero sí señalaremos, a grandes
rasgos, cómo se comporta ante las diferentes longitudes de onda que conforman "el
color" de la imagen.
Las células fotorreceptoras que se encuentran en el ojo son sensibles a las distintas
longitudes de onda del espectro electromagnético. Sólo recogen las radiaciones
visibles del espectro, obviamente, que pertenecen a los colores del arcoiris, quedando
fuera, las radiaciones que se encuentran más allá de los colores situados a los márgenes
de ese arcoiris, es decir, infra-rojo y ultra- violetas, no son visibles por el ojo humano.
Esas células fotorreceptoras se denominan conos y bastoncillos, siendo los conos los
responsables principales de la percepción del color. Según estudios, existirían 3 tipos de
conos, sensibles cada uno a longitudes de onda distintas, en concreto a las
correspondiente a los colores ROJO (red), VERDE (green) y AZUL (blue).
Es decir, el ojo sería un dispositivo RGB, que es capaz de reproducir todos los colores
a base de la combinanación aditiva de estos 3 únicos colores.
Ya vamos viendo de dónde nace la selección de estos 3 colores como base para la
captura de imágenes, pero como bien sabemos, al principio la tecnología de la televisión
sólo era capaz de reproducir imágenes en blanco y negro, es decir sólo recogía la
luminancia. Poco a poco se fue desarrollando la tecnología adecuada para reproducir
también el color, pero para ello era fundamental hacerla compatible con la anterior TV
en blanco y negro.
Aparte de estas 3 señales de vídeo existe un tercer tipo que se considera superior a todas
ellas. Se trata de la señal RGB pura.
RGB: como hemos visto al principio de este artículo, el ojo es un dispositivo RGB, por
lo cual, una señal que imite su comportamiento podría reproducir de manera más fiable
los colores y su correspondiente valor de luminancia. Esta señal existe, pero no se usa
habitualmente para capturar vídeo, sino para reproducir colores dentro de sistemas
informáticos. Es el tipo de señal que usan los monitores de ordenador, proyectores y en
general es como reproduce el color la tarjeta gráfica de nuestro ordenador.
En Europa la señal RGB está implementada en los conectores SCART (el famoso
EUROCONECTOR) de manera que sí es frecuente encontrarla fuera del ámbito
informático en reproductores domésticos y en la mayoría de las TVs, en cambio en
países externos a la Unión Europea no se suele usar, sustituyéndose esta señal por Y/C.
En el sistema RGB, no existe la necesidad de añadir una señal de luma pues la escala de
grises y el blanco y el negro puros se forman con la combinación equitativa de los tres
colores.
A la hora de empezar a trabajar debemos identificar las distintas señales que emita
nuestra cámara o VTR así como las entradas que tengamos en nuestra capturadora de
vídeo. Debemos seleccionar siempre la de mejor calidad, pues presumiblemente nuestra
cámara habrá grabado la señal como mínimo en ese formato.
Aparte de los conectores analógicos que hemos visto, estas pueden ir sobre distintos
tipos de interfaces digitales como por ejemplo firewire, SDI, HDMI, DVI... que
trataremos con detenimiento en artículos posteriores.
Debemos analizar qué señal de vídeo es la mejor y cuál es el interfaz correcto para
introducir una señal sin pérdidas en nuestro sistema de edición.
Normalmente las cámaras son capaces de registrar más información de la que luego
graban. Al grabar sobre cinta, tarjeta o disco duro, la cámara realiza una compresión en
el formato que utilice, perdiéndose así parte de la información previamente registrada
por el CCD.
Por eso no es raro encontrar producciones en las que se graba directamente la señal que
sale de cámara. Desde una salida en componentes se conecta la cámara a un dispositivo
grabador que recoge la señal y la graba sin compresión directamente a disco duro. Hay
cámaras como por ejemplo la Panasonic HC27 que son capaces de dar una señal 4:4:4
pero en cambio graban en DVCpro HD que es 4:2:2.
Es seguro que si grabamos las modestas señales de nuestras pequeñas cámaras HDVs o
AVCHDs directamente a disco sin pasar por ningún compresor, obtendremos más
calidad pues estamos capturando directamente la imagen tal como la registra el CCD.
Soluciones como las proporcionadas por Colorspace Icon permiten grabaciones 4:4:4 a
10 bits directamente desde cámara.
Color sampling en la práctica:
Por ejemplo realizar un buen chromakey con material 4:2:0 (el popular HDV) no es
imposible, pero sí sumamente dificultoso pues la falta de información de color, sobre
todo en los bordes de las siluetas, nos pueden dar verdaderos quebraderos de cabeza.
De ahí que sea muy importante elegir el formato adecuado a nuestras producciones. Por
ejemplo Si prevemos un retoque de color exhaustivo y muy preciso o pensamos hacer
un chroma, no debemos bajar de un formato 4:2:2.
Por otro lado, capturar un material de inferior calidad en un formato superior tiene poco
sentido pues no vamos a tener más calidad en nuestra imagen. Si por ejemplo hemos
grabado en HDV y capturamos en un codec DVCpro HD, siendo este último 4:2:2 y el
HDV 4:2:0 , sólo obtendremos un archivo de mucho mayor tamaño, pero no con más
información. Tampoco ganaremos mucho capturando sin compresión /uncompressed.
De esta manera, el color en las imágenes digitales, se construye mediante bits. Por
ejemplo una imagen de 1 bit, tendrá sólo valores de blanco (1) y negro(2), con lo cual su
profundidad de color o bit depth será limitada, por no decir mínima.
A medida que aumentamos los bits de color de una imagen, tendremos más valores con
los que representarla.
Normalmente con 8 bits, que equivalen a 256 valores distintos, tenemos suficiente para
representar el color de una imagen y que resulte real para el ojo humano.
Esos 8 bits, en realidad, son bits por cada canal de color (RGB), es decir cuando se
habla de una imagen de 8 bits, nos referimos a 256 niveles de rojo x 256 niveles de
verde x 256 niveles de azul=16777216 de colores.
Hay que tener precaución con esta nomenclatura y hay que especificar a qué se refieren
los bits, pues por ejemplo una imagen de 8 bits por canal, es lo mismo que una imagen
de 24 bits por píxel(8x3), y la podemos por tanto ver definida de las dos maneras.
8 bits por canal RGB (bpc) = 24 bits por píxel (bpp)
8 bits por canal RGB + canal Alpha = 32 bits por píxel (bpp)
16 bits por canal RGB (bpc)= 48 bits por píxel (bpp)
Si bien hemos dicho que con 8 bits por canal podemos conseguir una imagen con una
definición de color suficiente para el ojo humano, en vídeo esto no siempre es así.
La mayoría de los formatos de vídeo digital generan imágenes de 8 bits, otros son
capaces de llegar hasta los 10 bits, proporcionando más rango dinámico a la imagen, en
concreto 1024 valores por canal, frente a los 256 proporcionado por los sistemas de 8
bits.
Pero ¿qué nos aporta una mayor profundidad de color en vídeo si una imagen de 8 bits
es suficiente para el ojo humano?
Una mayor profundidad de color nos da un mayor rango de actuación sobre la imagen,
pudiendo ajustar mucho más los retoques de color precisos, los chromas etc... En
general la profundidad de color es beneficiosa para cualquier proceso de postproducción
sobre el material con el que trabajamos.
Pero el precio a pagar cuando trabajamos con un mayor bit-depth, es muy alto en cuanto
a velocidad de proceso de nuestra máquina y al espacio en disco que necesitaremos,
haciendo el proceso de trabajo mucho más lento. Por tanto es esencial saber cuándo y
cómo utilizar una mayor profundidad de color según las necesidades de nuestro
proyecto.
Como hemos visto, la mayoría de los formatos de vídeo trabajan a 8 bits, que nos
proporciona valores de 0 a 255, donde la ausencia de valor (0) sería negro y el valor
máximo (255) sería blanco.
Pero en realidad, en vídeo digital de 8 bits, el blanco se sitúa en el valor 235, mientras
que el negro se eleva hasta el valor 16. Los valores que situados entre 236-255 y entre
0-16 se reservan para el super-blanco(headroom) y el super-negro (footroom).
Aquí podeis encontrar más información sobre el tema, pues no nos detendremos mucho
en este punto: Black and white levels
Las imágenes a 8 bits suelen bastar para trabajos de edición sencillos, con poca
postproducción, pues en cuanto empezamos a "apretar" las posibilidades de los 8 bits a
base de filtros y retoques avanzados, nos encontraremos con el primer y más grave de
los problemas: el banding o posterización de color.
El banding, aparece sobre todo en degradados de color donde los 256 niveles no son
suficientes para representar la gama completa de colores. Esto es algo inherente a las
imágenes de 8 bits, lo que ocurre que cualquier retoque de color lo acentúa y si además
no tenemos cuidado con el flujo de trabajo y en algún momento de la edición
recomprimimos las imagen con algún codec, el resultado puede ser mucho peor.
En caso de no poder contar con material grabado a 10 bits podemos hacer lo siguiente:
1- Capturar en codecs de 10bits. Por ejemplo el reciente codec Apple Pro Res 422 de
10 bits permite tamaños de archivo bastante manejables a la vez que mantiene una
profundidad de color de 10 bits. Otra opción muy recomendable es la adquisición de
algún codec Cineform que permite también líneas de tiempo HD a 10 bits sin a penas
sufrimiento del procesador pues están altamente optimizados para ocupar poco y ofrecer
una gran calidad.
En caso de no disponer de ninguno de estos codecs, nos puede servir cualquier otro a 10
bits, el inconveniente serán los enormes archivos con los que estaremos obligados a
trabajar y la consecuente ralentización del trabajo, con lo cual no es muy recomendable.
2-Capturar en el formato nativo a 8 bits pero configurar el proyecto a un bit depth
superior. De esta manera, cualquier retoque adicional, efecto o degradado digital que
añadamos se generará en el nuevo espacio de color de nuestro proyecto. Por ejemplo en
After Effect existe la opción de configurar la línea de tiempo a 8 bits, 16 bits o 32 bits.
Si bien el proceso de trabajo se ralentiza enormemente, ganaremos en calidad, sobre
todo en los degradados de color y desenfoques.
Ojo, pues trabajar en un bit depth alto puede ralentizar el trabajo hasta 4 veces,
haciendo a veces el proceso inviable si no contamos con una buena máquina.
Una solución sería hacer la conversión de bit depth justo al final del proyecto, antes del
render, haciendo que el software calcule de nuevo todo los filtros, efectos y demás, sólo
al final.
Aún así, las imágenes provenientes de fuentes de 8 bits, pueden seguir mostrando un
leve banding, pues aunque sean convertidas a 10 bits, originalmente tienen sólo 256
niveles y eso no se puede variar.
En este caso podemos acudir a viejos trucos que siguen funcionando como por ejemplo
añadir un desenfoque o blur a los degradados y añadirles un poco de filtro de ruido
32 bits-float point:
32 bits o float point (coma flotante) es la máxima profundidad de color que podemos
obtener en un sistema digital. Aquí no hay posibilidad de banding ni artefactos pues
no existe niveles de color como los 256 de los 8 bits ni los 1024 de los 10 bits. En float
point solo existe valores de 0 (negro) a 1 (máximo brillo) con lo cual los valores
intermedios pueden ser infinitos. Por ejemplo si en un sistema de 8 bits el gris está
representado por el valor 128, en un sistema float point, el gris puede ser 0.5892345...
Con todos los decimales posibles... con lo cual la gama de colores es virtualmente
infinita.
Las imágenes generadas por ordenador (CGI) y las imágenes procedentes de software
3D son creadas en este espacio de color, pero al guardarse en formatos de imagen de 8 o
10 bits se remuestrean automáticamente.
Cada vez los equipos de edición son más potentes y permiten sacar partido de una
profundidad de color mayor, si a ello unimos la posibilidad de trabajar en codecs como
el ProRes o los codecs Cineform, aumentaremos enormemente nuestra capacidad post
producir imágenes de calidad.
Formatos de vídeo digital (y V). Resumen
Mb/s
SD
DV / VARIOS 4:2:0 (PAL) 8 bits 25 DCT 5:1 720x576(PAL)
720x480(NTSC)
DVCPRO PANASONIC 4:2:2 8 bits 50 DCT 3,3:1 720x576(PAL)
50
720x480(NTSC)
DVCAM SONY 4:2:0 (PAL) 8 bits 25 DCT 5:1 720x576(PAL)
4:1:1(NTSC) 720x480(NTSC)
BETACAM SONY 4:2:2 10 bits 90 DCT 2.3:1 720x576(PAL)
DIGITAL
(1993) 720x480(NTSC)
BETACAM SONY 4:2:2 10 bits 18-170 MPEG2 10:1 720x576(PAL)
SX
(1996) 720x480(NTSC)
MPEG IMX SONY 4:2:2 8 bits 30 MPEG2 6:1 720x576(PAL)
50 3.3:1
XDCAM SONY 4:1:1 / 4:2:0 8 bits 30 DCT 720x576(PAL)
SD
50
HD
DVCPRO PANASONIC 4:2:2 8 bits 100 DCT 6,7:1 1080 i/p
100 (1440x1080)
(1997)
HDCAM SONY 4:2:2 10 bits 440 MPEG4 4,2:1 1080 i/p
SR (1920x1080)
(2003)
AVCHD PANASONIC 4:2:0 8 bits 18-24 H264/MPEG4 1080 i/p
(1440x1080,
1920x1080)
SONY
720p
(2006) (1280x720)
XDCAM SONY 4:2:0 8 bits 18-50 MPEG2 1080 i/p
HD <!--[if (1440x1080)
!supportLineBreakNewLine]-
->
<!--[endif]--> 720p
(1280x720)