Está en la página 1de 18

TEMA 1: NOCIONES FUNDAMENTALES

SOBRE VÍDEO DIGITAL.

1. INTRODUCCIÓN AL VÍDEO DIGITAL: FUNDAMENTOS TEÓRICOS.

El pixel (unidad mínima) y su cuantificación como vía para definir la calidad objetiva de la
imagen digital.

A. RESOLUCIÓN.
· Es el número total de pixeles que contiene una imagen. Cuanto mayor es este número, mayor
es la resolución y mayor la calidad de imagen.

· Se suele usar un formato rectangular por lo que la resolución se obtiene a partir de la


multiplicación entre el número de pixeles del eje horizontal y el número de pixeles del eje
vertical. Así, por ejemplo, la resolución Full HD corresponderá a 1920x1080.

· En el ámbito televisivo las resoluciones son más estrictas que en el cinematográfico, que
ofrece mayor versatilidad. Por otro lado, la distribución por Internet permite trabajar con
resoluciones alternativas a las broadcast si se quiere, si bien estas se alejan de las soluciones
profesionales estándar.

En esta tabla podemos observar la evolución de la resolución, desde el PAL SD, lo que
conocemos como CD.

Televisión.
· Dentro del estandarizado HDTV (High Definition), propio de la televisión de hoy, diferenciamos
dos resoluciones profesionales: 1280x720 o HD Ready como etiqueta comercial asociada a los
monitores y 1920x1080 o Full HD. Con la llegada del HDTV se consolida el cambio de aspect
1 de 17

Apuntes descargados de wuolah.com


ratio, pasando definitivamente del 4:3 (que queda obsoleto) al formato panorámico 16:9. Por
ello, en la televisión hablamos de resolución vertical y nos referimos a ellos como HD 720 o HD
1080, obviando los pixeles horizontales.

· Otro aspecto importante de la nomenclatura de las resoluciones es la letra final que se incorpora
al valor de los pixeles verticales. Por ejemplo, 720p o 1080i. Esto, hace alusión al tipo de
escaseado o barrido de la imagen, progresivo (progressive) o entrelazado (intercaled), de
forma que un 1080i sería un Full HD entrelazado.

· Poco a poco, pasamos al UHDTV (Ultra High Definition) que establece nuevos estándares de
resolución que se empiezan a implantar con fuerza en el mercado del vídeo. Ahora, surgen las
luchas de patentes para determinar cuáles son los formatos estándar. Hoy día, se considera la
propuesta de la SMPTE (Society of Motion Pictures and Televisión Engineers), la estándar: UHD
2160 (3840x2160) y UHD 4320 (7680x4320).

Cine digital.
· Las resoluciones habituales son 2K y 4K, donde la “k” de “kilo” hace referencia a 2014 pixeles,
pues estamos en un sistema binario. Por tanto, las resoluciones totales serían 2048 (2x1024) y
4096 (4x1024), haciendo referencia a la resolución horizontal, predominante en el cine. En
ambos casos, el número de pixeles verticales quedará determinado por el aspect ratio del
formato elegido por ejemplo 1:85:1 o 2:39:1, los dos formatos de pantalla recomendados por la
DCI (Digital Cinema Initiative) en su normativa, debido al proceso de digitalización de las salas de
exhibición.

2 de 17

BNext, tu cuenta sin banco.


[La Red Dragon es una cámara muy famosa y ya algo antigua con gran calidad para trabajar a
nivel de cine. Potencia el formato cinematográfico].

Cámaras según resolución.


· HDTV. Permiten una resolución máxima de 1920x1080 (hasta Full HD).

· HR (High Resolution). Pueden configurarse bien para grabar hasta Full HD (de hecho, a veces
este o el HD Ready es el mínimo) aunque también se puede incrementar las posibilidades de
muestreo o profundidad de color y hacerlo en resoluciones de hasta 2K, 4K u otras alternativas
superiores.

B. PROFUNDIDAD DE COLOR.
· Hace alusión al rango dinámico de la señal, es decir, a la cantidad de matices de luz y color que
contiene. Afecta a la cantidad de información contenida en cada pixel.

· Se mide en bits, por lo que cuanto mayor número de bits que se utilice en la cuantificación de la
señal, mayor será la información de la que dispongamos por cada pixel: mayor cantidad de
matices de luz, color, textura y mayor calidad de representación. Por tanto, cuanto mayor rango
dinámico ofrezca un sensor, mejor será el resultado de color.

· El valor mínimo en profundidad de color es de 8 bits por canal (RGB: 24 bits en total), que es el
valor estándar en HDTV. Como estamos en un sistema binario, en cada canal, por tanto, existen
2(8) = 256 variaciones posibles de color. La multiplicación por cada canal dará 256 x 256 x 256 =
2(24) = 16777216 diferentes tonos de color representables.

· La UHDTV y las cámaras HR han aumentado el valor estándar progresivamente hasta trabajar
con profundidades de color superiores propias del cine fotoquímico.

· Así, en función de las diferentes cuantificaciones, el número de colores queda determinado por el
número de bits por canal. 8 bits = 256; 10 bits = 1024; 12 bits = 4096.

· Esta profundidad de color o rango dinámico, terminología propia del ámbito televisivo y
videográfico recibe en cine el nombre de latitud y afecta a características del negativo, del
celuloide, estableciendo a nivel del fotoquímico cuanto rango dinámino tenía ese celuloide.

[Se trata de un código binario. Por tanto, si hablo de un bit, tengo dos posibilidades: blanco y
negro, 4 bits, 16 colores]

3 de 17

BNext, tu cuenta sin banco.


C. MUESTREO.
· Indice el número real de pixeles que se contabilizan en la imagen. Puede ser total (RGB) o
parcial (YUV). Este último a su vez se subdivide en diferentes variantes en función de la cantidad
de información que se excluye en la muestra para poder reducir el flujo de trabajo.

· Es una selección de información. Por un lado tenemos la cantidad de información que recibe el
sensor (puede recibir más de la que finalmente procesa porque por ejemplo para qué quiero
tantos datos si luego tengo que pasarlo por la banda de tv y voy a tener que reducirlo) y por otro,
la información con la que finalmente trabajo. Es algo que sucede dentro de mi propia cámara.

· En el ámbito del cine digital no existe una reducción de información y por tanto hablamos de
muestro total (RGB).

· En el terreno televisivo es necesario eliminar cierta información mediante el muestreo parcial


o submuestreo (YUV), para poder reducir el ancho de banda de la señal y así ajustarse mejor
al limitado espacio radioeléctrico como razón fundamental. Todo submuestreo implica un descarte
de información que implica pérdida de cierta calidad: una limitación o desaprovechamiento de la
verdadera capacidad de la cámara. Frente al 100% de ancho de banda que ocuparía el RGB, el
YUB de la misma imagen ocupa un 66% (1/3 se descarta). Esta perdida de calidad pasa
desapercibida en el ojo del espectador pero no a nivel profesional y sobre todo en aquellos casos
en los que en postproducción se pretende hacer corrección de color (lo aconsejable es partir de un
4:4:4 en estos casos, y luego ir reduciendo para no quedarnos en nada), por tanto este 4:2:2 es
suficiente para TV pero insuficiente para cine digital profesional.

· En la formulación del formato de muestreo (un cociente de tres números) la primera cifra
hace referencia a la información de la luz (luminancia), que nunca cambia, pues es lo más
importante, mientras que las dos siguientes aluden al color (crominancia). Así, el RGB
correspondería a un 4:4:4 y el YUV al 4:2:2.

· En la actualidad, tanto cámaras HDTV de alta gama, como por supuesto, las cámaras HR
permiten muestreos RGB 4:4:4. De hecho, la conversión RGB/YUV consiste en un proceso
añadido al flujo de información propio de las cámaras profesionales.

· Otros formatos de muestro más restrictivos de espacio de color YUV suponen una mayor
reducción del flujo de datos y una señal más manejable por más amplios canales de distribución y
consumo, pero sus resultados no son aptos para broadcasting o el ámbito profesional como la TV.
Suponen un ahorro en el flujo de datos del 33% con respecto al 4:2:2 y un 50% con respecto
al 4:4:4. Son por ejemplo (en ambos los archivos pesan lo mismo):
· 4:1:1. Frente a las 4 muestras de luminaria a la crominancia le corresponde 1 por cada
señal.
· 4:2:0. Frente a las 4 muestras de luminaria a la crominancia le corresponde un muestreo
alterno en las líneas de resolución. Muestreo habitual en la grabación de vídeo con
cámaras DSLR.

· Nunca debe perderse de vista el flujo de datos, pero será lo que permita poder manejas esa
información con mayor o menor facilidad (según el tipo de trabajo requerido, el equipo con el que
lo estemos llevando a cabo y las vías de distribución del material). Así, por ejemplo, en un Full HD
(25 fps), el estándar de la TV en España, sería el flujo de datos el siguiente según el
muestreo:
· 4:4:4. 1244’16 Mb/s.
· 4:2:2. 829’44 Mb/s.
· 4:1:1. 622’08 Mb/s.
· 4:2:0. 622’08 Mb/s.

4 de 17
D. CADENCIA.
· También conocido como framerate (frame: cuadro; rate: tasa).

Frecuencia de fotogramas-imágenes por segundo.


· En el cine la cadencia de captación es de 24 fps (aumentable a 48 fps en el cine digital 2K,
como por ejemplo en el hobbit, sin necesidad luego de duplicación, lo que permite que por ejemplo
en una panorámica no se pierda el matiz ni es produzca desenfoque de movimiento) y su
proyección duplicada a 48 fps.

· En la TV y el vídeo, la cadencia varía en función del sistema en el que nos encontremos


(debido a las diferencias en la frecuencia de las respectivas redes eléctricas). Así, en el sistema
PAL corresponde a 25 fps, mientras que el NTSC se caracteriza por 30 fps (redondeo del valor
29’97 fps). No obstante, los sistemas HD precisamente permiten superar esas diferencias
entre los sistemas PAL y NTSC ofreciendo soluciones integradores de cadencias comunes, toda
vez que se superen cuestiones e implicaciones comerciales y de compatibilidad de los sistemas
tradicionales.

· La configuración de la cadencia de grabación en las cámaras trae consigo implicaciones


técnicas, las cuales pueden derivar en recursos estéticos: la cámara lenta (grabo a 1200 fps,
es decir, un framerate más elevado que el estándar y proyecto a 24 fps) y la cámara rápida (al
revés).

Barrido.

· La cadencia lleva asociado en vídeo el concepto de barrido de las imágenes (tengo que
concretar no solo los fps sino de qué forma voy a grabar esas imágenes).
· Entrelazado (campo impar cada 1/50 de seg + campo par al 1/50 de seg siguiente,
por lo que la información completa solo se obtiene cuando se unen ambos campos).
Ofrece una mayor resolución “dinámica” pues capta el doble de muestras de realidad
por segundo (aunque sean parciales), es decir, el movimiento es mejor registrado. Se
suele utilizar más en EEUU.
· Progresivo (imagen completa cada 1/25 de seg, línea a línea), en función del proceso
de escaseado de las imágenes. Ofrece mayor calidad y resolución “estática”, es decir,
la imagen fija tiene mayor resolución pues aunque cojo la mitad de información en el
mismo tiempo, esta información está más definida. Se suele utilizar más en Europa.

· Los problemas que dan ambos sistemas son:


· Dientes de sierra (entrelazada). Las líneas se superponen y no tiene continuidad. Para
evitar problemas en la reproducción, todo el proceso debe realizarse de forma entrelazada.
· Efecto borroso o flange (progresiva) cuando el objeto se mueve a gran velocidad
porque tengo menos muestras (motion blur).

5 de 17

BNext, tu cuenta sin banco.


· Existe la posibilidad de desentrelazar las imágenes para poder trabajar con ellas en
progresivo.

· Lo ideal sería una solución intermedia, una combinación: mayor calidad de imagen y mayor
muestras por segundo (mejor captación del movimiento). Una posibilidad sería doblar las
cadencias estándares de captación: en cine de 24 a 48 fps y en TV de 25-30 a 50-60 fps. Sería
un progresivo obteniendo mayor número de muestras. No obstante esto supone más flujo de
datos.

E. SENSORES.
· El “negativo” digital. Dispositivo que recibe y a partir del cual se transforma la información
lumínica recibida. es un traductor (lumínica-eléctrica). Está compuesto por un número de
fotodiodos, elementos fotosensibles encargados de proporcionar cada una de las muestras de
realidad: pixeles. En función del número de fotodiodos que compongan el sensor, se obtendrá una
mayor o menor resolución.

Dinámica de funcionamiento.
· Proceso básico: transformar la luz percibida en corriente eléctrica, lo cual se inicia cuando la
luz incide sobre las celdillas (fotodiodos) que se encuentran en forma de rejilla.

· El material del que están hechas las celdillas que componen la matriz permite capturar los
fotones presentes en la luz y convertirlos en un flujo de electrones, que serán finalmente
transportados por el contacto de la capa inferior del sensor.

· A menor intensidad de luz, menor será el número de fotones percibidos y por lo tanto, menos
el número de electrones. A mayor intensidad, más problemas para convertir.

Tipos.

1. CMOS.

· Con el tiempo, ha alcanzado unos resultados muy parecidos al CCD.


· Menor tamaño del sensor, menor consumo y menor calentamiento.
· Menor coste de fabricación y por tanto, precios más asequibles.
· Autonomía de sus celdas. Los fotodiodos reciben la información y la convierten en electricidad
sin necesidad de ir comunicándose de uno a otro. Pero a su vez, necesita más tiempo, para
transmitir y además convertir, y por tanto, los movimientos muy rápidos producen desfases
pues al fotodiodo no le da tiempo.
· Suelen incorporarlo todas las DSLR.

6 de 17

BNext, tu cuenta sin banco.


2. CCD.

· Con anterioridad tenía una mayor calidad de imagen.


· Mayor rango dinámico y menor ruido inherente (a igual tamaño de fotodiodo).
· Menos tolerante a un fallo de fabricación.
· Necesita un chip externo. Toda la columna de fotodiodos se comunica entre sí, la
información del primero va al segundo y así progresivamente, hasta realizar la conversión al final
con un chip adicional. SI hay un problema en un fotodiodo, infecta a toda la columna.

· Dos de los parámetros más importantes de la imagen digital los determina el sensor:
resolución (número total de pixeles) y rango dinámico (sensibilidad).

El tamaño del sensor.

· El tamaño del sensor afecta directamente a la resolución de la imagen, por el número de


pixeles por milímetro cuadrado es limitado. Va a determinar también el rango dinámico.

· Los tamaños más frecuentes son: 1/3 de pulgada, 1/2 de pulgada 2/3 de pulgada y 4/3 de
pulgada. No obstante, con las DSLR que hacen invertir más en CMOS y las nuevas posibilidades
de las cámaras de alta resolución, el panorama de los sensores y sus tamaños ha experimentado
una sensible expansión: la superficie se amplía para se más aprovechable a nivel de
sensibilidad.

· En el cine, el tamaño del sensor tiene la misma dimensión que el área sensible. Así, por
ejemplo, los sensores Super 35 (S35) tienen un área de 35 mm, al igual que el del sensor 35
mm. Esta adaptación permite compatibilizar las ópticas y complementos auxiliares
cinematográficos, así como con la profundidad característica del look cine.

Factor de recorte.
· Cuanto más se acerca al tamaño del 35 mm (más grande es el sensor) menor es el factor de
recorte. Cuanto mayor es este índice, más convertimos un teleobjetivo en un gran angular.
Así, un objetivo de una distancia focal 35 mm, se convierte en una distancia focal efectiva en
función de donde estoy grabando, multiplicando los mm de mi objetivo por su factor de
recorte. Cuando tengo un fullframe, con factor de recorte 1, un 75 mm es un 75 mm. Cuando
tengo por ejemplo un APS-H, tengo que multiplicar por 1’26. Si quiero un 50 mm pues a lo mejor
me voy a tener que comprar un 39mm porque a lo mejor el factor de recorte es de 1’39.

7 de 17

BNext, tu cuenta sin banco.


Problemas derivados de los sensores.

1. Rolling shutter. Se traduce en efecto gelatina (jelly effects). Las líneas están inclinadas
porque como al fotodiodo no le da tiempo a convertir en electricidad, vaciarse y volver a
llenarse, llega un momento en el que no capta todo. Cuando este problema se convierte en
distorsión horizontal lo llamamos skew. El CMOS lleva peor esa captación de movimiento.
EL CCD no tiene este problema, aunque sí que tiene un shutter global.
2. Contaminación o smear. Contaminación lumínica que se produce debido a fuentes de luz
muy intensas que inciden sobre el sensor, saturando los fotodiodos que llegan a
contagiar la columna completa. Es propio del CCD.

Existen diferentes recursos y desarrollos tecnológicos posteriores para solucionar estos y otros
problemas, como el Aliasing o Moiré, relacionados con los sensores y los procesados digitales.

8 de 17
F. FORMATOS Y FLUJOS DE DATOS.
· En el ámbito audiovisual digital cualquier solución comercial o estándar viene dada por los
parámetros anteriores: resolución, profundidad de color, muestreo y cadencia. Así, encontramos
unos formatos fundamentales.

· Es importante en los formatos y en la información digital en general, como vimos en el muestreo,


el volumen de datos y el peso del material con el que trabajamos.

· El flujo de datos, bitrate o tasa de transferencia están asociados a la cantidad de información


que es necesario manejar por segundo. Su valor es una multiplicación del peso de cada
imagen por el número de ellas que se dan por segundo (en función del formato y la cadencia
con la que trabajamos). Se mide en bit (Megabits x seg = Mb/s).

· A más bitrate mayor calidad, pero mayor exigencia de recursos en los equipos que utilicemos
para tratar la información.

· Siguiendo esta pauta basta con saber que PESO (de una imagen) = RESOLUCIÓN (nº pix
horizontales x nº pix verticales) x MUESTREO (4:2:0 = x1’5; 4:2:2 = x2; 4:4:4 = x3) x
PROFUNDIDAD DE COLOR (8 bits = x8; 10 bits = x10; 12 bits = x12).

· Para evitar grandes cantidades el valor final (en bits) se dividirá entre 8 para conseguir el
resultado en Bytes (1B = 8b) y progresivamente podrá obtenerse el valor en KiloBytes,
MegaBytes… (múltiplos de 1024, y no de 1000, por ser un sistema binario en lugar de decimal:
1KB= 1024 Bytes; 1MB = 1024 KB; 1GB= 1024 MB).

9 de 17

BNext, tu cuenta sin banco.


· Una vez que tenemos el peso, que normalmente se expresa en MegaBytes, debemos
multiplicarlo por 8 para obtenerlo en Megabits/seg (mgbs), y así poder continuar con la
formula BITRATE = PESO x CADENCIA.

· La cadencia sera 24p (x24); 25p (x25), 50i (x25)…

· El resultado obtenido se expresa en Megabits/seg (mgbs), sin embargo, debido al gran


incremento del peso en nuevos formatos, no es raro encontrar los valores expresados en Bytes (a
pesar de que el partero sea el bitrate y no el byterate, en Gigabits).

Un ejemplo es el siguiente.

Nos encontramos en el formato HD1080, con una resolución de 1920x1080, que sería igual a
2073600 de resolución, con un muestreo de 4:2:2, lo que equivaldría a 2 y una profundidad de
color de 8 bits, que equivaldría a 8. Si multiplicamos 2073600x2x8, obtenemos un resultado de
33177600 bits. Para convertirlo a bytes, dividimos entre 8, obteniendo 4147200 bytes y por último,
si lo queremos convertir a MegaBytes, lo dividimos dos veces por 1024: 3’96 MB. Este, es el peso
de cada imagen en un HD1080. Ahora, va a depender de si estoy grabando a una cadencia u otra.
En un HD1080 la cadencia es de 25p, lo que equivaldría a 25. Entonces, 3’96x25 daría un
10 de 17

BNext, tu cuenta sin banco.


resultado de 98’88 MB. Sin embargo, este resultado es en MegaBytes, y necesito expresarlo en
Megabits. Por tanto, multiplico 98’88x8 y daría 791’04 megabits/seg de bitrate.

G. COMPRESIONES, CÓDECS Y FORMATOS.


· Proceso destinado a la reducción del peso (tamaño en Bytes del fotograma) y del flujo de
datos (cantidad de bits/seg), procurando minimizar la pérdida de información perceptible
(pérdida “aparente” o “subjetiva”) por el espectador. La eficiencia por tanto será mayor cuanta
mayor compresión y menor perdida de información.

· Existen muy diferentes formas de comprimir un archivo, en función de lo que se quiera


conseguir. Lo importante es tener en cuenta la compresión de cara a la emisión y distribución
del material, pues existen ciertas normativas que hay que respetar.

· Además, existen compresiones estandarizadas en función de determinados tipos de formatos


y/o soportes, por ejemplo DVD o Blu-Ray o las copias digitales (virtual prints) de las salas de cine.
Lo importante es eso, que existan unos estándares para que todos comprimamos igual y poder
reproducir y distribuir a todos.

· Para todo esto existen las códecs, algoritmos matemáticos para los procesos de codificación-
decodificación de la información que se comprime. La eficiencia del códec determinará la
eficiencia de la compresión. Son soluciones industriales, ligadas a licencias o patentes
comerciales que, además de intervenir en la compresión afectan también al visionado del material,
en función de las características de reproductor que estemos utilizando (disponer de las licencias
y compatibilidades). Existen códecs abiertos, como Theora. Un códice por ejemplo es el 8264, de
BluRay, que para cine, queda corto.

· La búsqueda de un protocolo (MXF: Media eXchange File) que permita el uso de cualquier
códec por cualquier equipamiento (y que así no haya problemas). No se trata de un códec
único sino de un sistema de “empaquetado” común que contenga la información. Si en vez de
usar un estándar de compresión, uso un códec extraño, ese vídeo no lo voy a poder reproducir en
mi VLS si no tiene este códec.

11 de 17

BNext, tu cuenta sin banco.


· En este sentido, es importante saber que extensiones como .mov, .avi, .mpeg… no hacen
referencia al códec utilizado, sino encapsulado en la información (formato contenedor). Un
software determinado puede ser capaz de leer el encapsulado pero no el códec o a la inversa. En
ocasiones, es suficiente con cambiar el encapsulado para poder reproducir el archivo sin más
problemas, sin modificar la información que este contiene (XMedia Recode…).

Árbol genealógico de códecs.

Suelen distinguirse las siguientes familias:

1. De captación o nativos. Ficheros de grabación. Por ejemplo: Sony HDCAM, Panasonic


DVCPro HD, XDCAM HD, AVC HD…
2. De postproducción. Montaje y trabajos posteriores al registro de las imágenes. Por ejemplo
Apple ProRes, Avid DNxHD, DNxHR…
3. De distribución. Fichero para la distribución y emisión de la señal, del material.

Tipos de codificaciones.
En función de las necesidades y del tipo de compresión:

1. Intraframe.
2. Interframe.
3. Bidirectional.
4. Predictive.
5. Reserve.

· En 2003, el H.264 y el MPEG-4 se fusionan para crear un estándar de compresión que origina
el códec que se utiliza en gran parte de los ficheros actuales para el trabajo en HD. Por ejemplo,
el BluRay trabaja con este códec, a diferencia del DVD que trabaja con el MPEG-2, el
estándar en SD.

· Softwares como MediaInfo son especialmente útiles para obtener la información referente
a códécs y demás especificaciones técnicas en relación a un archivo de vídeo.

12 de 17
· El canal Alpha define la opacidad de un pixel en una imagen. Actúa como una máscara de
transparencia que permite, de forma virtual, componer (mezclar capas) imágenes o fondos
opacos con imágenes con cierto grado de transparencia. En el caso de Apple ProRes, el fondo se
convierte en blanco y no tiene transparencia. En DNxHD, puedo guardarlo para colocarlo en otro
soporte, sin fondo. Para entenderlo podemos hacer referencia los archivos PNG, imágenes sin
fondo, que tienen un canal de transparencia y si las convierto a JPG me convierte el fondo en
blanco.

H. LA CÁMARA. PROCESOS DE CAPTACIÓN Y CONVERSIÓN.

Estructura básica común de una cámara.

1. Conjunto óptico (lentes, filtros, diafragma y sistema de enfoque).


2. Separación tricromática (Prisma / Bayer / Foveon) Antes de llegar al sensor, es necesario
separar la información que entra en tres canales: rojo verde y azul. Para hacer eso tenemos
básicamente dos procedimientos en vídeo: Prisma y Bayer, y uno en fotografía: Foveon.
3. Sensor. La conversión digital se produce aquí.

· Existe variedad focal (entre elemento captador y la lente). Así, tenemos lentes de focal fija o
variable: ópticas intercambiables.

· La relación entre sensor y focal es el factor de recorte. Es más fácil enfocar con un sensor
que tiene factor de recorte. Mayor sensor más posibilidades de profundidad de campo, más
facilidad para meter la pata.

13 de 17

BNext, tu cuenta sin banco.


Proceso.
La luz del exterior llega al sensor, donde serán estimulados los fotodiodos y posteriormente
convertida la señal resultante (Analógica/Digital), tras pasar por el proceso de separación
de los tres colores básicos, siguiendo cualquiera de las tres técnicas anteriores: Prisma
dicroico (vidrio que permite dividir la luz blanca en sus componentes), Máscara Bayer (rejilla que
coge la información de luz que entra por los fotodiodos, antes de llegar al sensor. Cada uno de los
cuadraditos de esa máscara tiene un filtro y cada uno deja pasar tan solo un haz de luz de un
color: azul, verde u rojo) o Foveon (principalmente para cámaras fotográficas).

·Para poder convertir la información que llega a mi cámara en el proceso de conversión analógica/
digital de la señal eléctrica generada en el sensor, esta debe ser amplificada. Es importante que
se mantenga la codificación de color y la discriminación del ruido propio de la señal.

La ganancia (ISO) está relacionada con la amplificación. Cuando es “nativa” (mejor calidad),
es que la amplificación de la señal se realiza previa a la conversión A/D y luego se codifica a
0 y 1. Cuando es “no nativa” (peor calidad), es que esta tiene lugar con posterioridad, una
vez convertida en digital la señal.

Superada la etapa de conversión A/D, la información digitalizada será procesada en función de las
características del equipo con el que estemos trabajando y las necesidades de la producción:

1. Trabajo con los datos en bruto (raw: “negativo digital”).

Implica guardar los datos digitales obtenidos tras la conversión A/D en bruto absoluto o con
alguna compresión (sutil, que genere poco ruido). Grabo con todos los balances de blanco
posibles.

El proceso de matrización no desaparece sino que se hace en postproducción, en el


ordenador en lugar de en la cámara.

El flujo de trabajo es muy superior y la señal no puede ser monitorizada hasta no ser matrizada.

Se deben tener amplios conocimientos de postproducción, especialmente en corrección de


color.

Se trabaja en todas las opciones que nos ofrece el sensor, sin concretar ni discriminar información
y los ajustes a posteriori son más precisos, calibrados y reversibles, pues los ajustes de
monitorización que se llevan a cabo no alteran el RAW original, sino que se incorporan a este
a modo de metadatos adjuntos al fichero.

2. Matrizar la señal.

Estandarización de la señal, es decir, “traducción” de los datos numéricos digitales en


información “entendible” por el resto de herramientas y dispositivos de la cadena de
producción: asignación de pixeles exactos, determinación del espacio de color, etc.

Se realizan ajustes de la matriz en cámara (según con la que estemos trabajando):


posibilidades de corrección de gama o curvas de gama (personalizadas u opciones por defecto:
cinelook…), variaciones de colorimetría (trabajo individual por canales, variando la “temperatura
de color” sin recurrir al balance de blancos)…

Estos ajustes que se realicen en la grabación serán irreversibles. Esto suele marcar la
distinción entre los realizadores que prefieren dejar las correcciones para postproducción y
aquellos que buscan ya en rodaje el resultado más próximo posible al definitivo.

14 de 17

BNext, tu cuenta sin banco.


Algunos ejemplos de cámaras.

Cuando habla de Resolución HD/2K o 4K real, tiene una resolución HR, que permite un HD de alta
calidad y un 2K y un 4K.

J. EDICIÓN Y POSTPRODUCCIÓN.
· Es muy importante preservar la calidad nativa del trabajo. Los principales cambios que
alteran la calidad nativa en los procesos de transfer y conversión son:
- Resolución.
- Muestreo.
- Profundidad de color.
15 de 17

BNext, tu cuenta sin banco.


- Cadencia.
- Compresión.

Tipos de conversiones de archivos durante edición y postproducción.

1. Upconversion. Pasar de un formato menor a otro de mayor calidad. Este proceso no


implica un aumento en la calidad de la imagen, sino en la del formato de trabajo, más
robusto y flexible para los procesos de postproducción.
2. Crossconversion. Conversiones que no alteran la calidad y mediante le cual se pasa de
un tipo de fichero a otro más adecuado para el trabajo que se pretende llevar a cabo.
3. Downconversion. Implica siempre perdida de calidad y suele usarse a nivel profesional
exclusivamente a la hora de crear formatos de distribución del trabajo. Se da, por ejemplo,
cuando pasamos de un formato sin compresión a uno comprimido (incluso cuando la
compresión se considera “sin perdida aparente).

Montaje online y offline.


1. Montaje online. Cuando la calidad del material de trabajo es la del master final.

2. Montaje offline. Se lleva a cabo cuando el peso y tamaño de los ficheros online son
excesivamente pesados, ocupando demasiado espacio en el disco y agotando los
recursos del equipo.En este montaje offline importa mucho la figura del proxy. Es un fichero
o clip “espejo” de menor resolución o calidad que el original al que sustituyen para
poder trabajar con mayor comodidad durante el montaje. La importancia de que estos
ficheros mantengan el código de tiempo original que permite su identificación con los clips
nativos de referencia. Existen cámaras que generan un proxy en paralelo al clip original,
lo cual beneficia los procesos de previsualización e incluso edición en el lugar de
rodaje.

· Ingesta: proceso de “volcado” o transferencia del material grabado al ordenador: montaje


online vs. Montaje offline.

1. Telecine: conversión de cine (fotoquímico) a vídeo.

2. Kinescopado: proceso inverso al anterior, conversión de vídeo a cine (fotoquímico).

· La importancia en la decisión de los códecs de edición y postproducción para el correcto


y óptimo desarrollo del trabajo. El conflicto con los códecs nativos de las respectivas
cámaras.

EDL: Edition Decission List (Lista de Decisión de Edición): archivo de texto que contiene la
información de metadatos, fundamentalmente con el nombre de los clips, los respectivos puntos
de entrada y salida y su ubicación en el timeline.

· Uno de los problemas principales que se da con las EDL más utilizadas es que solo admiten
una pista de vídeo, siendo necesario exportar diferentes EDL para cada una de las pistas en
aquellos casos en los que nuestro montaje cuente con más de una. Esto supone un auténtico
atraso en plena era de postproducción multicapa y compleja. Para solucionar dicho problema se
han creado lenguajes de metadatos más sofisticados, entre los que destacan los siguientes
estándares comerciales:

- OMF (Open Media Framework) creado por Avid y posteriormente ampliado al conocido AAF
(Advanced Authoring Format).

16 de 17
- XML (basada en los protocolos eXtended Markup Language) es el característico de las
plataformas Apple, convirtiéndose en un lenguaje muy soportado en numerosos programas de
edición y postproducción actuales.

· La comunicación de metadatos compartidos entre los diferentes softwares supone un auténtico


ahorro en los procesos de renderización y transfer. Por ejemplo, el OMF ya permitía la
comunicación directa entre Avid y Protools.

· Es precisamente en esta línea de compatibilidades entre programas lo que ha potenciado el


desarrollo de las denominadas suites de edición, como sucede con la conocida Adobe.

· La necesidad de tener que reducir la calidad de las imágenes generadas por ordenador
para que no haya problemas de integración (texturas...) en las incrustaciones de las CGI por
diferencias de muestreo. Esto ocurre, por ejemplo, cuando trabajamos con vídeo 4:2:2 y 8 bits
de profundidad de color y las imágenes generadas por ordenador han sido procesadas en 4:4:4 y
10 e incluso 12 bits.

· Broadscast safe: tener presente el margen de seguridad que se establece al emitir en


televisión y que provoca un ligero recorte en la señal en cuanto a las altas luces y los negros.
En concreto, este margen de seguridad reduce los valores de la señal de 8 bits a 16 y 235 (en
lugar de 0 y 255), considerándose negro cualquier información por debajo de 16 y blanco
aquella superior a 235.

· Durante el proceso de postproducción y especialmente en lo referente a la corrección de


color es muy importante ser conscientes de las diferencias que se establecen entre lo que
vemos en el ordenador y lo que obtendremos en última instancia → La informática y los
patrones de monitorización de 8 bits → El trabajo con los Look Up Tables (LUTs) para conseguir
en los monitores unos resultados de profundidad de color que simulen el resultado final que
vamos a conseguir según las características del proyecto.

· Para trabajar con los LUTs debemos tener en cuenta tres factores clave:

- Espacio y profundidad de color del material original.

- Espacio y profundidad de color de las herramientas (softwares) que estemos utilizando. · Espacio
y profundidad de color del master final del proyecto según su destino.

· DSM (Digital Source Master): master digital que se crea como punto final del proceso de
postproducción y dependiendo del tipo de producción y del canal de distribución.

· La copia de seguridad: de la dudosa fiabilidad de los soportes actuales con el paso del tiempo,
pasando por el posible surgimiento de empresas de copia y almacenamiento hasta el negativo
fotoquímico.

17 de 17

BNext, tu cuenta sin banco.

También podría gustarte